KI Neuigkeiten
25 Nov. 2025
Read 14 min
Wie KI Anwendungen in der Neurowissenschaft Forschung helfen
KI Anwendungen in der Neurowissenschaft ordnen Daten, verbessern Diagnosen und Therapien praxisnah.
KI Anwendungen in der Neurowissenschaft: Von Datenflut zu Diagnosen
Die vorgestellten Projekte decken den Weg von der Grundlagenforschung bis zur Klinik ab. Sie nutzen maschinelles Lernen und tiefe neuronale Netze, um drei zentrale Aufgaben zu lösen:Wie hirnähnliche Netze Wahrnehmung besser nachbilden
Marcel Oberlaender: Mehr Biologie in künstlichen Netzen
Das Gehirn vereint viele Sinneseindrücke zu einem klaren Bild der Welt. Moderne künstliche neuronale Netze (ANNs) lösen ähnliche Aufgaben, aber sie sind stark vereinfacht. Marcel Oberlaender vom Max-Planck-Institut für Neurobiologie des Verhaltens und sein Team fragten: Werden ANNs besser, wenn sie mehr echte Hirnmerkmale enthalten? Die Forschenden bauten dafür Netze, die zwei reale Eigenschaften des Gehirns berücksichtigen:Neuronen rückwärts denken: Von der Spannung zur Kanalmischung
Roy Ben-Shalom: NeuroInverter baut den „digitalen Zwilling“
Fast alle neurologischen Krankheiten haben gestörte Erregungsleitung als Kernproblem. Patch-Clamp-Messungen zeigen, wie ein Neuron elektrisch reagiert. Sie sagen aber nicht, welche Ionenkanäle diese Reaktion erzeugen. Klassische Modelle gehen vorwärts: Sie nutzen Morphologie und Kanalanteile, um das Spannungsmuster zu berechnen. Roy Ben-Shalom von der University of California, Davis, drehte diesen Weg um. Sein Team entwickelte ein Deep-Learning-Modell namens NeuroInverter. Die KI erhält als Eingabe die Spannungsantwort einer Zelle. Als Ausgabe schätzt sie die Zusammensetzung der Ionenkanäle. Das Modell wurde an mehr als 170 verschiedenen Neuronentypen getestet und lieferte passende Vorhersagen. Ben-Shalom beschreibt das Ziel so: Aus einer einfachen Messung entsteht ein „digitaler Zwilling“ des Neurons. Dieser Zwilling spiegelt die inneren Bauteile wider. Forschende können damit Hypothesen zu Krankheitsmechanismen schneller prüfen. Zum Beispiel: Welche Kanalveränderung führt zu epileptischer Übererregung? Welche Anpassung stabilisiert die Signalweitergabe? Für Modelle von Krankheiten ist das ein großer Sprung nach vorn.Ganganalyse per Smartphone statt Laboranlage
Trisha Kesar: Alltagsvideos erkennen Gangdefizite
Alter, Schlaganfall und Multiple Sklerose beeinträchtigen oft den Gang. Vor jeder Therapie steht die Messung. Die Klinik nutzt Bewertungen durch Fachkräfte oder teure Motion-Capture-Systeme. Beides hat Grenzen: Subjektivität auf der einen Seite, hohe Kosten und aufwendige Infrastruktur auf der anderen Seite. Trisha Kesar von der Emory University testete einen einfacheren Weg. Ihr Team analysierte Smartphone-Videos von normalem und beeinträchtigtem Gehen mit maschinellem Lernen. Das System klassifizierte klinisch relevante Gangmuster mit über 85 Prozent Genauigkeit. Der Vorteil liegt auf der Hand:Parkinson: Freezing of Gait erkennen, bevor es passiert
Jay Alberts und Paul Cantlay: Virtuelle Realität liefert Frühwarnzeichen
Bei Parkinson kann „Freezing of Gait“ (FOG) auftreten: Plötzlich bleiben die Füße wie festgeklebt. Tiefe Hirnstimulation (DBS) hilft bei vielen Symptomen, aber für FOG ist der Startzeitpunkt unklar. Das macht eine rechtzeitige Stimulation schwierig. Jay Alberts von der Cleveland Clinic und sein Team nutzten virtuelle Realität, um FOG auszulösen und zu untersuchen. Sie fanden spezifische neuronale Signaturen, die in solchen Situationen auftreten. Darauf trainierten sie ein maschinelles Lernmodell. Das Modell konnte die Wahrscheinlichkeit eines nahenden FOG-Ereignisses vorhersagen – bevor es geschah. Paul Cantlay aus dem Team betonte die Konsequenz: Mit einer solchen Vorhersage wird adaptive Stimulation möglich. Das System könnte schon eingreifen, ehe das Einfrieren beginnt. Das eröffnet neue Chancen für die Symptomkontrolle. Auch hier zeigt sich, was KI in der Klinik leisten kann: frühe Warnung, rechtzeitige Intervention, weniger Ausfälle im Alltag.Wortbedeutungen aus Hirnaktivität lesen
Mathew Nelson: Semantik ergänzt Lautentschlüsselung
Brain-Computer-Interfaces (BCIs) geben Menschen mit schweren Behinderungen ihre Stimme zurück. Bisher konzentrierten sich viele Ansätze auf Laute und Phonetik. Das führt jedoch leicht zu Verwechslungen, wenn Wörter ähnlich klingen. Das Team um Mathew Nelson von der University of Alabama at Birmingham ging daher auf die Ebene der Bedeutung. Probandinnen und Probanden dachten an Wörter aus Kategorien wie Kleidung oder Tiere. Die Forschenden zeichneten die Hirnaktivität auf und trainierten ein Modell, das die semantische Kategorie aus dem Signal rekonstruiert. Das gelang mit 77 Prozent Genauigkeit. Der nächste Schritt ist klar formuliert: Semantik und Phonetik sollen zusammenfließen. Dann kann ein BCI nicht nur hören, wie ein Wort klingt, sondern auch, was es bedeuten soll. Das macht die Kommunikation robuster. Fehler durch ähnlich klingende Wörter nehmen ab. Für Nutzerinnen und Nutzer entsteht so ein direktes, verlässlicheres Sprachfenster.Warum diese Beispiele wichtig sind
Die fünf Projekte zeigen ein Muster. KI senkt Hürden, beschleunigt Erkenntnisse und öffnet neue Therapiepfade. Einige zentrale Effekte:Grenzen und was jetzt folgt
Keines der Systeme ist schon perfekt. Die Genauigkeit bei semantischer Dekodierung liegt derzeit bei 77 Prozent. Das ist ein starker Anfang, aber noch keine fehlerfreie Übersetzung. Die Smartphone-Ganganalyse erreicht über 85 Prozent, doch sie ersetzt nicht jede Spezialmessung. Und adaptive Stimulation gegen Freezing of Gait braucht verlässliche, individuelle Modelle und passende Technik im Alltag. Trotzdem ist der Trend eindeutig. Die Teams verfolgen klare nächste Schritte:Einordnung der Beiträge
– Christopher Rozell: ordnete die Entwicklung als „AI plus X“ ein und moderierte die Diskussion beim 2025er Treffen der Society for Neuroscience. – Marcel Oberlaender: zeigte, dass ANNs mit mehr neuronaler Vielfalt und realistischen Verbindungen Wahrnehmungsaufgaben effizienter lernen. – Roy Ben-Shalom: präsentierte NeuroInverter, das aus Spannungsantworten auf die Ionenkanal-Zusammensetzung schließt und digitale Zwillinge von Neuronen ermöglicht. – Trisha Kesar: bewertete Gangbilder aus Smartphone-Videos mithilfe von ML und erreichte über 85 Prozent Genauigkeit für klinisch relevante Muster. – Jay Alberts und Paul Cantlay: nutzten VR und ML, um Freezing of Gait bei Parkinson noch vor dem Ereignis zu erkennen und adaptive Stimulation zu ermöglichen. – Mathew Nelson: entschlüsselte semantische Kategorien aus Hirnsignalen und legte die Basis, Semantik mit Phonetik für robustere BCIs zu kombinieren.Was das für Forschung und Klinik bedeutet
Diese Beispiele sind mehr als Einzelfälle. Sie markieren eine Bewegung hin zu präziseren, schnelleren und zugänglicheren Verfahren. Forschende können Hypothesen gezielt prüfen. Klinikerinnen und Kliniker erhalten objektive Messwerte ohne große Labors. Patientinnen und Patienten profitieren von früheren Warnsignalen und besseren Kommunikationshilfen. So werden KI Anwendungen in der Neurowissenschaft zum verbindenden Element. Sie überbrücken Lücken zwischen Labor und Klinik, zwischen Messung und Entscheidung, zwischen Signal und Bedeutung. Je mehr die Modelle echte biologische Strukturen berücksichtigen, desto besser passen Vorhersagen und Interventionen zur Realität des Gehirns. Am Ende steht ein klares Bild: KI ergänzt die menschliche Expertise. Sie macht Muster sichtbar, die das Auge verpasst. Sie rechnet Szenarien durch, die die Zeit am Bett nicht erlaubt. Und sie öffnet Wege, um Symptome zu erkennen, bevor sie Schaden anrichten. Genau deshalb werden KI Anwendungen in der Neurowissenschaft in den nächsten Jahren Forschung, Diagnostik und Therapie weiter prägen.(Source: https://www.the-scientist.com/ai-tools-unravel-thoughts-actions-and-neuronal-makeup-73779)
For more news: Click Here
FAQ
Contents