Macht der Gedanken
Egal, ob wir Treppen steigen oder am PC einen Text tippen – die Absicht dazu entsteht im Gehirn, bewusst oder unbewusst. Informatikern, Neurowissenschaftlern und Medizinern gelingt es dabei zunehmend besser, diese Absichten elektronisch auszulesen - und in Steuerungssignale zu übersetzen.
Der Neurophysiologe Gabriel Curio von der Berliner Charité steht vor einem Styroporkopf, der mit einer weißen Stoffhaube bedeckt ist. In der Haube befinden sich 64 kleine Löcher, in denen Elektroden befestigt sind. Mit einem Kontaktgel können diese Elektroden auf die Kopfhaut gesetzt werden – um so unsere Hirnströme zu messen. Denn egal, was wir denken, fühlen oder planen: Zwischen den Nervenzellen in unserem Gehirn fließt Strom.
"Das Hirn arbeitet elektrisch. Und von vielen hunderten bis tausenden von Nervenzellen summieren sich diese elektrischen Spannungsschwankungen so auf, dass wir auch auf der Kopfhaut noch davon so das ferne Echo messen können. Es ist zwar sehr abgeschwächt durch die Schädeldecke, die dazwischen liegt. Dennoch können wir Spannungsschwankungen im Bereich von Millionstel Volt, Mikrovolt, an der Kopfhaut messen."
Mit dem EEG – also dem Elektroenzephalogramm – lassen sich diese Spannungen im Bruchteil einer Sekunde nachweisen. Wenn wir also die rechte Hand heben wollen, dann wird das durch entsprechende Spannungsschwankungen in unserem Motorkortex deutlich. Das Problem dabei: In unserem Hirn sind abertausende weitere Nervenzellen aktiv – weil wir gleichzeitig zu unserer motorischen Absicht riechen, schmecken, hören, sehen, erklärt Informatiker Klaus-Robert Müller von der TU Berlin.
"Das heißt, es gibt ganz, ganz viele unterschiedliche Hirnareale, die gleichzeitig aktiv sind. Wenn ich jetzt also die Information rechte Hand auslesen möchte, dann sind diese Informationen alle völlig irrelevant. Das heißt, ich muss mich konzentrieren auf diese speziellen Hirnzustände, die ich dekodieren möchte, und die anderen als Rauschen betrachten."
Den Informatikern um Klaus-Robert Müller gelingt das mittlerweile recht gut: Noch vor rund 10 Jahren mussten die Probanden in mehreren hundert Stunden Biofeedbacktraining mühsam lernen, ihre Hirnsignale so zu manipulieren, dass die Software sie überhaupt erkennen konnte. Mittlerweile entdeckt die Software die entsprechenden Hirnsignale von selbst: Der Proband muss sich dafür beispielsweise nur einige Male vorstellen, die Hand zu heben.
"Das heißt, der Proband stellt sich ein paar Mal bestimmte Hirnzustände vor. Die Lernmaschine wird darauf trainiert, diese Hirnzustände zu dekodieren. Und durch moderne, nicht-lineare Datenanalyse-Werkzeuge ist es möglich, mit nur ungefähr 10 Minuten Daten eine Kommunikation dann zu ermöglichen."
Die Software erkennt die Absicht also schon nach wenigen Minuten – und kann sie dann elektronisch in eine Handlung umsetzen. Erste Erfolge gibt es bereits: So lassen sich etwa Bilder, die auf einem Monitor gelegentlich aufblinken, allein durch Gedankenkraft auswählen. Der Nutzer muss dafür lediglich seine Aufmerksamkeit auf das von ihm gewünschte Bild richten. Sinnvoll könnten solche Gehirn-Computer-Schnittstellen etwa für schwer gelähmte Menschen sein, sagt Gabriel Curio.
"Konkretes Beispiel sind Menschen im so genannten Locked-In-Syndrom, wo die Verbindungen von der Großhirnrinde zum Rückenmark zum Beispiel auf der Ebene des so genannten Hirnstamms durch einen Schlaganfall unterbrochen sein können. Bei diesen Patienten ist die Willensbildung intakt, sind die begleitenden EEG-Signale vorhanden. Diese können wir abgreifen von der Kopfhaut und in Echtzeit, das heißt unmittelbar mit der Willensbildung, dann in ein Steuerungssignal umsetzen."
Im Experiment ist es ebenfalls bereits gelungen, einen elektrischen Rollstuhl durch Gedankenkraft zu steuern. Menschen mit schweren Lähmungen könnten so unabhängiger von Hilfe werden. Allerdings: Praxistauglich sind die Systeme noch nicht.
"Die Steuerung zum Beispiel eines motorisierten Rollstuhls erfordert eine hohe Genauigkeit. Diese Genauigkeit hat sich deutlich verbessert in den letzten Jahren. Die Systeme sind immer fehlertoleranter geworden. Dennoch ist es so, dass aus meiner Sicht eine Steuerung direkt eines Rollstuhls in diesem Moment etwas ist, was man in einer Laborsituation heute schon herstellen kann, was aber für den täglichen Gebrauch sicherlich noch einer weiteren Überprüfung bedarf."
Denn schließlich darf der Rollstuhl nicht versehentlich nach rechts auf eine befahrene Straße fahren, wenn er eigentlich links abbiegen soll. Solche Analysefehler unterlaufen der Software derzeit gelegentlich noch. Und: Motorische Absichten lassen sich ohnehin nur grob erkennen, erläutert Gabriel Curio.
"Die Signale, die wir an der Kopfhaut messen können, erlauben uns die Aktivierung einzelner Extremitäten, Hand, Fuß, Schulter, festzustellen. Aber sie erlauben es uns nicht - mit diesem relativ groben Blick von außen auf die Aktivität des Gehirns - im Detail zu sagen, was diese Hand gleich tun wird. Ob sie schreibt oder sticht, das kann man an der Stelle von außen nicht feststellen."
Per Gedankenkraft sind derzeit also nur einfache Steuerungen möglich – etwa den Rollstuhl nach rechts abbiegen lassen, wenn man an die rechte Hand denkt. Doch auch hier gilt einzuschränken: Noch handelt es sich um Experimente – entsprechende praxistaugliche Assistenzsystem werden noch viele Jahre auf sich warten lassen.
"Das Hirn arbeitet elektrisch. Und von vielen hunderten bis tausenden von Nervenzellen summieren sich diese elektrischen Spannungsschwankungen so auf, dass wir auch auf der Kopfhaut noch davon so das ferne Echo messen können. Es ist zwar sehr abgeschwächt durch die Schädeldecke, die dazwischen liegt. Dennoch können wir Spannungsschwankungen im Bereich von Millionstel Volt, Mikrovolt, an der Kopfhaut messen."
Mit dem EEG – also dem Elektroenzephalogramm – lassen sich diese Spannungen im Bruchteil einer Sekunde nachweisen. Wenn wir also die rechte Hand heben wollen, dann wird das durch entsprechende Spannungsschwankungen in unserem Motorkortex deutlich. Das Problem dabei: In unserem Hirn sind abertausende weitere Nervenzellen aktiv – weil wir gleichzeitig zu unserer motorischen Absicht riechen, schmecken, hören, sehen, erklärt Informatiker Klaus-Robert Müller von der TU Berlin.
"Das heißt, es gibt ganz, ganz viele unterschiedliche Hirnareale, die gleichzeitig aktiv sind. Wenn ich jetzt also die Information rechte Hand auslesen möchte, dann sind diese Informationen alle völlig irrelevant. Das heißt, ich muss mich konzentrieren auf diese speziellen Hirnzustände, die ich dekodieren möchte, und die anderen als Rauschen betrachten."
Den Informatikern um Klaus-Robert Müller gelingt das mittlerweile recht gut: Noch vor rund 10 Jahren mussten die Probanden in mehreren hundert Stunden Biofeedbacktraining mühsam lernen, ihre Hirnsignale so zu manipulieren, dass die Software sie überhaupt erkennen konnte. Mittlerweile entdeckt die Software die entsprechenden Hirnsignale von selbst: Der Proband muss sich dafür beispielsweise nur einige Male vorstellen, die Hand zu heben.
"Das heißt, der Proband stellt sich ein paar Mal bestimmte Hirnzustände vor. Die Lernmaschine wird darauf trainiert, diese Hirnzustände zu dekodieren. Und durch moderne, nicht-lineare Datenanalyse-Werkzeuge ist es möglich, mit nur ungefähr 10 Minuten Daten eine Kommunikation dann zu ermöglichen."
Die Software erkennt die Absicht also schon nach wenigen Minuten – und kann sie dann elektronisch in eine Handlung umsetzen. Erste Erfolge gibt es bereits: So lassen sich etwa Bilder, die auf einem Monitor gelegentlich aufblinken, allein durch Gedankenkraft auswählen. Der Nutzer muss dafür lediglich seine Aufmerksamkeit auf das von ihm gewünschte Bild richten. Sinnvoll könnten solche Gehirn-Computer-Schnittstellen etwa für schwer gelähmte Menschen sein, sagt Gabriel Curio.
"Konkretes Beispiel sind Menschen im so genannten Locked-In-Syndrom, wo die Verbindungen von der Großhirnrinde zum Rückenmark zum Beispiel auf der Ebene des so genannten Hirnstamms durch einen Schlaganfall unterbrochen sein können. Bei diesen Patienten ist die Willensbildung intakt, sind die begleitenden EEG-Signale vorhanden. Diese können wir abgreifen von der Kopfhaut und in Echtzeit, das heißt unmittelbar mit der Willensbildung, dann in ein Steuerungssignal umsetzen."
Im Experiment ist es ebenfalls bereits gelungen, einen elektrischen Rollstuhl durch Gedankenkraft zu steuern. Menschen mit schweren Lähmungen könnten so unabhängiger von Hilfe werden. Allerdings: Praxistauglich sind die Systeme noch nicht.
"Die Steuerung zum Beispiel eines motorisierten Rollstuhls erfordert eine hohe Genauigkeit. Diese Genauigkeit hat sich deutlich verbessert in den letzten Jahren. Die Systeme sind immer fehlertoleranter geworden. Dennoch ist es so, dass aus meiner Sicht eine Steuerung direkt eines Rollstuhls in diesem Moment etwas ist, was man in einer Laborsituation heute schon herstellen kann, was aber für den täglichen Gebrauch sicherlich noch einer weiteren Überprüfung bedarf."
Denn schließlich darf der Rollstuhl nicht versehentlich nach rechts auf eine befahrene Straße fahren, wenn er eigentlich links abbiegen soll. Solche Analysefehler unterlaufen der Software derzeit gelegentlich noch. Und: Motorische Absichten lassen sich ohnehin nur grob erkennen, erläutert Gabriel Curio.
"Die Signale, die wir an der Kopfhaut messen können, erlauben uns die Aktivierung einzelner Extremitäten, Hand, Fuß, Schulter, festzustellen. Aber sie erlauben es uns nicht - mit diesem relativ groben Blick von außen auf die Aktivität des Gehirns - im Detail zu sagen, was diese Hand gleich tun wird. Ob sie schreibt oder sticht, das kann man an der Stelle von außen nicht feststellen."
Per Gedankenkraft sind derzeit also nur einfache Steuerungen möglich – etwa den Rollstuhl nach rechts abbiegen lassen, wenn man an die rechte Hand denkt. Doch auch hier gilt einzuschränken: Noch handelt es sich um Experimente – entsprechende praxistaugliche Assistenzsystem werden noch viele Jahre auf sich warten lassen.