Gedankenlesen mit Neurowissenschaft

Das Fenster zum Hirn

Computergrafik des menschlichen Gehirns von der Seite.
Was geht im menschlichen Gehirn vor sich? Dafür interessieren sich zahlreiche Hi-Tech-Unternehmen und die Wissenschaft. © imago / Science Photo Library
Von Matthias Eckoldt |
Gedanken lesen und elektronisch manipulieren? Klingt nach Science Fiction, doch Wissenschaftler und Startups im Silicon Valley arbeiten daran, dies umzusetzen.
Die Weltöffentlichkeit wird hellhörig, als die Facebook-Managerin Regina Dugan im Frühsommer 2017 auf der hauseigenen Entwicklerkonferenz F8 ankündigt, dass sich Mark Zuckerbergs Unternehmen künftig dem Gehirn widmen wird: "What if you could type directly from your brain? It sounds impossible but it is closer than you may realize."

Textnachrichten sollen demnach ohne den langsamen Umweg über die Tastatur direkt aus dem Kopf ins Display beziehungsweise gleich ins Internet gehen.
Facebook strebt eine Geschwindigkeit von 100 Wörtern pro Minute an. Das wäre das doppelte Tempo dessen, was von einer professionellen Schreibkraft mit dem Zehn-Finger-System zu tippen verlangt wird.

Die Gedankenwelt des Menschen

Die Vision von Facebook ist näher, als man denken mag, sagt Regina Dugan. Facebook will sein Ziel durch nichtinvasive Methoden erreichen. Das Gehirn selbst soll also unangetastet bleiben, während bei invasiven Methoden direkt die Hirnstruktur manipuliert wird.
Gleichwohl präsentiert Dugan Bilder einer durch die Nervenkrankheit ALS komplett gelähmten Frau, der auf invasive Weise geholfen werden konnte:
"Die Frau in diesem Video leidet an ALS. Sie ist völlig in ihren Körper eingeschlossen. Sie kann sich weder bewegen noch kann sie sprechen, aber sie tippt - mit ihrem Geist. Wohlgemerkt nicht durch die Bewegung ihres Augenlids, sondern mit ihrem Geist. Ihr wurde eine Elektrode in der Größe einer Bohne an der Stelle implantiert, wo ihr Gehirn im gesunden Zustand die motorischen Funktionen kontrollieren würde. Sie tippt acht Wörter pro Minute direkt mit ihrem Gehirn."
Diese wissenschaftlich-technologische Höchstleistung ist Forschern von der Stanford University gelungen. Gemeinsam mit der University of California in Berkeley bildet sie das geistige Gravitationszentrum des Silicon Valleys. Jenem Tal, aus dem die meisten Ideen und elektronischen Technologien sowie auch viele der Geräte kommen, die das Leben auf unserem Planeten seit 20 Jahren drastisch verändern.
So verwundert es kaum, dass hier kein Halt davor gemacht wird, selbst die Gedankenwelt des Menschen in direkter Weise für die Zwecke digitaler Kommunikation zu erschließen.

Wo liegt der hegelianische Geist?

Das Silicon Valley liegt im Süden der San Francisco Bay Area. Dort sitzen Firmen wie: Apple, Cisco, Google, Intel, Adobe, eBay, WhatsApp, Yahoo, Facebook, airb’n’b, Microsoft, Oracle, SAP, Hewlett Packard, Youtube, Sun Microsystems...

Hans-Ulrich Gumbrecht:
"Das ist so eine hegelianische Intuition sich zu fragen: Wo ist der Geist? Zwischen 1780 und 1810 wahrscheinlich in Weimar. Mein Kollege Stierle hat mal geschrieben: Im 14. Jahrhundert in Avignon. Und warum sage ich, dass der sich heute hier befindet? Ich sage das natürlich schon zentral wegen der elektronischen Industrie.


"Wobei das ja ganz eigenartig ist, weil es die Industrie ist, die den Raum existenziell eliminiert hat, sodass man sagen könnte, das könnte es überall geben. Man braucht auch, wenn man bei Google arbeitet, nicht in Paolo Alto oder Mountainview wohnen. Und trotzdem konzentriert sich das hier."

© dpa/picture alliance/Rumpenhorst
Der Literaturwissenschaftler Hans-Ulrich Gumbrecht hatte von 1989 bis zu seiner Emeritierung im Jahr 2018 den Lehrstuhl für Komparatistik an der Stanford University inne. Gumbrecht sagt von sich: "Ich lebe dort, wo sich das 21. Jahrhundert ereignet."

Hans-Ulrich Gumbrecht:
"Zwischen Stanford und dem Silicon Valley ist so ein osmotisches Verhältnis. Ich finde auch interessant, dass die Idee des Startups auch von dieser Universität kommt. Und die Idee der Startups ist eine Idee, die der Elektronik vorausgeht. Es war erst die Startup-Idee und zehn Jahre später wurde dann der Chip gebaut. Das ist eigentlich eine typische Westküstenidee. Es kommt da auch hinzu, dass dem experimentellen, utopischen Denken keine Grenzen gesetzt werden.

Ich find das toll, da zu sein in dieser Gegend. Ich glaube auch, dass das – obwohl ich das Gegenteil des electronic nativs bin – dass die Vibs, die Vibrations, uns anregen und sehr, sehr wichtig sind."

Regina Dugan:
"Um das klarzustellen, wir wollen nicht wahllos alle eure Gedanken lesen. Das mag für viele von uns wichtig sein. Und wir haben auch das Recht, das zu wissen. Lasst es mich mit einem Beispiel sagen: Du hast viele Fotos und entscheidest dich dazu, einige von denen zu teilen. Ebenso hast du viele Gedanken und entscheidest dich dazu, einige davon auszudrücken. Und um diese Gedanken geht es uns. Also um Gedanken, von denen du bereits entschieden hast, dass du sie mitteilen willst.

Diese Gedanken sendest du an das Sprachzentrum in deinem Kopf. Wir wollen ein Sprach-Interface entwickeln, das die Geschwindigkeit und die Flexibilität der Stimme mit der Privatheit von getipptem Text verbindet. Dann hast du die Möglichkeit, einem Freund eine Textnachricht zu senden ohne dein Smartphone aus der Tasche zu holen oder eine kurze E-Mail zu schicken, ohne die Party zu verlassen."

Das Sprachzentrum als Nadelöhr

Der Systemtheoretiker Niklas Luhmann bezeichnete das dynamische Gedankenwirrwarr in unserem Kopf als "quirliges Bewusstsein". Jene Gedanken, die man schließlich anderen mitteilt, müssen durch ein sehr enges Nadelöhr. Dieses Nadelöhr ist das Sprachzentrum im Hirn.
Indem Facebook seine neue Technologie direkt an diesem Nadelöhr platziert, versucht man sich von dem Verdacht freizustellen, Gedankenschnüffelei zu betreiben. Denn jene Inhalte, die sich im Sprachzentrum des Hirns befinden, - so die Argumentation - wollte man ja ohnehin aussprechen. Aber was ist dann mit Gedanken, die man bereits formuliert hat, sie allerdings im letzten Moment doch lieber zurückhalten möchte?
Eine Elektrodenhaube sitzt zur Vorführung eines Brain-Computer-Interface (BCI) in Würzburg (Unterfranken) auf einem hölzernen Kopfmodell.
Eine Elektrodenhaube sitzt zur Vorführung eines Brain-Computer-Interface (BCI) in Würzburg (Unterfranken) auf einem hölzernen Kopfmodell.© picture alliance / dpa / David Ebener

Kostenintensive Forschung

Ein Team von 60 Forschern arbeitet unter der Leitung von Regina Dugan im Geheimlabor Building 8 am brain-computer-speech-to-text-interface. Das Budget beläuft sich auf mehrere hundert Millionen Dollar.
Das Interface, soviel lässt Facebook trotz höchster Geheimhaltungsstufe verlauten, soll jedoch nicht in das Gehirn implantiert werden. Stattdessen arbeiten die Forscher im Building 8 an hochempfindlichen Sensoren, die auf der Kopfhaut angebracht werden und Hirnsignale nach dem Vorbild des EEG abgreifen.
Detailliertere Informationen dringen nicht aus der Firmenzentrale in Menlo Park im Herzen des Silicon Valley. Interviewanfragen werden nicht abgelehnt, sondern hartnäckig ignoriert. Doch ein Post von Mark Zuckerberg lässt ahnen, dass Facebook nicht beim Sprachzentrum Halt machen wird:
Es sei noch viel technologischer Fortschritt vonnöten, bevor wir reine Gedanken oder Gefühle miteinander austauschen können, aber nun sei zumindest der erste Schritt getan:
"Technology is going to have to get a lot more advanced before we can share pure thought or feeling, but this is a first step."

"Alle Grenzen sprengen"

Das Unternehmen Tesla gehört dem umtriebigen Geschäftsmann und Tech-Milliardär Elon Musk, der so unterschiedliche Projekte wie die Gründung des Onlinebezahlsystems PayPal und des privaten Raumfahrtunternehmens SpaceX betrieben hat. Am bekanntesten ist er wohl für die Entwicklung der ersten vollelektrifizierten Limousine der Oberklasse geworden, die mit einer Ladung über 800 Kilometer weit fährt.

Ehud Isacoff, Professor für Molekular- und Zellbiologie an der University of California in Berkeley sowie Direktor des Helen Wills Institute für Neurowissenschaften:

"Es ist schwer, viel dazu zu sagen, weil ich genauso wenig darüber weiß wie Sie, was die dort genau machen. Man kann verstehen, warum die an diesem Problem interessiert sind. Bei Facebook kann man es sich vorstellen oder bei Google. Die sind zum einen an Robotik interessiert, und auf der anderen Seite wollen sie studieren, wie Menschen Informationen verknüpfen. Umso mehr sie darüber wissen, umso besser können sie reizvolle Software entwickeln und effektiv Werbung platzieren. Das ist, was ich glaube, was sie tun, aber wir wissen es nicht wirklich.

Tesla mag es einfach, alle Grenzen zu sprengen, das ist der Grund, warum die beim Gedankenlesen dabei sind und es gibt alle möglichen Dinge, für die sie die Technologie benutzen können, aber was sie schließlich damit machen werden ist noch unklarer."

Kauft man sich in Kalifornien einen Tesla, kann man für die Lebensdauer des Fahrzeugs an den sonnenenergiegespeisten Ladestationen des Unternehmens kostenlos die Akkus aufladen.
Ein orangefarbenes Elektro-Auto mit der Aufschrift "Tesla" ist an eine Ladestation angeschlossen.
Elektroauto von Tesla© picture alliance / dpa / Lex Van Lieshout
Doch auch mit seinen Ideen für eine Besiedelung des Mars’ machte sich Elon Musk einen Namen.

Symbiotischer Mensch-Maschine-Organismus

Nun will Elon Musk also ebenfalls Gedanken lesen. Zu diesem Zweck kauft er die Firma neuralink, die sich mit der Entwicklung von Hirn-Computer-Interfaces befasst. Anders als das Interface von Facebook wollen Musk und sein Team invasiv arbeiten. Das heißt, nicht Elektroden auf der Kopfhaut, sondern Sensoren direkt im Hirn sollen die Gedanken eines Menschen auslesen. In naher Zukunft schon.
Elon Musik steht auf einer Bühne und erklärt etwas.
"Wir sind ja bereits Cyborgs": Hi-Tech-Unternehmer Elon Musk.© imago/Yan Han
Neuralink hat sich einen Zeitrahmen bis 2021 gesetzt. Dann soll das Interface einsatzbereit sein.
Auf diese Weise würde ein symbiotischer Mensch-Maschine-Organismus entstehen. Ein Cyborg, in dem biologische und künstliche Intelligenz zusammenwirken.

Elon Musk:
"Ich denke, die beste Lösung wird es sein, eine Schicht künstlicher Intelligenz über das Gehirn zu legen. Dann hätte man das limbische System, die Großhirnrinde und darüber eine Schicht künstlicher Intelligenz im Gehirn, die ebenso gut mit dir als Person zusammenarbeiten würde wie die Großhirnrinde und das limbische System.

Wir sind ja heute bereits Cyborgs. Wir gehen selbstverständlich mit einer digitalen Version unserer selbst um. In Form von E-Mails, Social Media und all diesen Dingen. Du hast da eine Superpower in deinem Smartphone und all den Apps. Du hast mehr Power als der Präsident der Vereinigten Staaten vor 20 Jahren hatte. Du kannst Videokonferenzen durchführen. Du kannst sofort eine Nachricht zu Millionen von Menschen senden. Du kannst unglaubliche Dinge tun.

Und meine Frage ist nun, wie kann man das Verhältnis von Input und Output verbessern. Denn unser Output-Level ist so langsam. Es dauert geradezu lächerlich lange, bestimmte Dinge in das Smartphone einzutippen. Während der Input sehr viel schneller ist. Denken Sie nur an die großen Datenmengen, die über unsere Augen rasch in unser Gehirn gelangen. Um den Output zu erhöhen, brauchen wir eine direkte Verbindung zum Kortex. Das Neurolace."

Das Neurolace soll in das Hirn injiziert werden. Dort soll es sich nach der Vision von Elon Musk und seinem Team zu einem Netz entfalten, das sich der Form der Großhirnrinde geschmeidig anpasst und in Verbindung zum Gehirn tritt, um die Aktivität der grauen Zellen zu überwachen und zu beeinflussen.

Elon Musk:
"Ein Interface, das einen direkten Weg zu den Neuronen in der Großhirnrinde herstellt. Man muss dazu nicht den Kopf aufmachen, sondern kann über die Venen und Arterien gehen, die die Neurone mit Blut versorgen. Die Neurone haben einen hohen Energieverbrauch. Deshalb brauchen sie einen starken Blutzufluss und hängen auf diese Art eng mit den Venen und Arterien zusammen. Es wird nicht nötig sein, das Gehirn dafür zu öffnen."

Elon Musk hält sich bedeckt, wenn es um die Details geht. Aus wissenschaftlicher Sicht steht der Idee, über die Blutgefäße einen Stoff ins Gehirn einzuführen, aus elementaren Gründen schon einmal die Blut-Hirn-Schranke entgegen.
Die Blut-Hirn-Schranke ist eine selektiv durchlässige Barriere zwischen der Hirnsubstanz und dem Blutstrom. Sie kontrolliert den Stoffaustausch im Zentralnervensystem und verweigert Stoffen, die nicht vom Gehirn gebraucht werden, den Zutritt.
Auch welcher Natur der Wunderstoff sein soll, den er um das Gehirn legen will, bleibt im Dunkeln. Und über die Art der Verbindung zu dieser Schicht künstlicher Intelligenz schweigt er sich ebenfalls aus. Genauso wie über den weiteren Gang seiner Experimente.

Marketinggag eines Multimillliardärs?

Wird er tatsächlich Probanden finden, die ihr Hirn manipulieren lassen? Wird er mit Patienten arbeiten, die an unheilbaren Nerven-Krankheiten wie ALS leiden? Oder sind seine Verlautbarungen zum Gedankenlesen nur eine Farce? Ein Marketinggag eines überspannten Multimilliardärs?
Wäre da nicht die Erfolgsgeschichte von Tesla, der den Markt aufrollt, als würde es die großen traditionsreichen Autokonzerne gar nicht geben, könnte man seine kühnen Visionen zum Gedankenlesen einfach als Hochstapelei abtun. So aber tut man gut daran, das Neurolace auf der Rechnung zu behalten.

Auch das Militär lässt forschen

Das Forschungsprogramm von Ehud Isacoff von der University of California in Berkeley zielt auf die Entwicklung eines Fensters zum Hirn, durch das einerseits Gedanken gelesen und andererseits Befehle an die neuronalen Netzwerke übertragen werden können.
DARPA fördert die Entwicklung eines Fensters zum Hirn mit 21,6 Millionen Dollar. DARPA ist die Abkürzung von Defense Advanced Research Projects Agency. Diese Organisation untersteht dem US-amerikanischen Verteidigungsministerium und beschäftigt sich mit der Entwicklung von Technologien zur militärischen Nutzung.
Gegründet wurde DAPRA von Präsident Eisenhower als Antwort auf den Schock, den der Start des ersten sowjetischen Satelliten 1957 ausgelöst hatte.

Ein Glasfenster im Schädel

Ehud Isacoff leitet das Projekt "Window into the brain", an dem insgesamt zwölf Laboratorien mitwirken. Zehn davon arbeiten an der Universität in Berkeley, eines in der Nähe von Chicago und ein weiteres in Paris.

Ehud Isacoff:
"Wir haben zwei konkrete Ziele. Zum einen wollen wir ein Interface entwickeln, das im großen Stil die Aktivitäten individueller Neuronen lesen und den Neuronen zugleich auch antworten kann. In beiden Fällen benutzen wir Licht. Die Methoden dazu wurden in den letzten 20 Jahren in Tierstudien entwickelt.

Allerdings wurden sie noch nicht in diesem Ausmaß und mit solch kleinen Apparaturen angewendet, wie wir das vorhaben. Bislang wurde das immer mit großen Mikroskopen getan. Wir würden gern dieses Mikroskop, das mit vielen Zellen über Licht kommunizieren kann, miniaturisieren. Soweit, dass es am Ende lediglich noch so groß wie ein Würfel Zucker ist.

Das ist natürlich eine schwierige Aufgabe: Wie entwickelt man ein Gerät, das diese Anforderungen erfüllt?

Zweitens sind unsere Gehirne nicht einfach zu handhaben. Also erst einmal haben wir alle einen Schädel, und da bekommt man nicht einfach so Licht rein und raus. Aber wir können ein kleines Fenster aus Glas oder einem anderen transparenten Material in den Schädel einsetzen.

Aber das Gehirn ist nicht transparent. Im Wesentlichen besteht es aus Fett und das Fett bricht das Licht in alle möglichen Richtungen, deswegen kann das Licht dort nicht besonders gut durchdringen und das Licht, das rauskommt, wird ebenfalls gestreut. Da benötigen wir eine bestimmte Methode, um durch die Oberfläche gucken zu können, dorthin, wo die Neuronen sind."

Die von Ehud Isacoff und seinem Team angestrebte Beobachtung und Manipulation von Neuronen mit Licht basiert auf den Erkenntnissen der noch sehr jungen Forschungsrichtung der Optogenetik. Der Trick dabei ist folgender:
Mithilfe eines Virus wird ein lichtempfindliches Molekül in die DNA der Neurone transportiert. Diese bauen daraufhin das Molekül in ihre Zellmembran ein. Wird das Neuron nun aktiv, sendet es Licht in einem bestimmten Frequenzbereich aus, und der Neurowissenschaftler kann mit einem geeigneten Mikroskop in Echtzeit die Erregung des Neurons messen. Andersherum ist es nun auch möglich, Licht auszusenden und dadurch das Neuron in Aktivität zu versetzen.
"Wir stehen an einem Wendepunkt", zitiert die Zeitschrift "Gehirn und Geist" den österreichischen Neurophysiologen Gero Miesenböck von der University of Oxford, der als einer der Pioniere auf dem Gebiet der Optogenetik gilt:
"Bisher haben Neurobiologen vor allem beobachtet, aber vergleichsweise wenig interveniert. Mit Hilfe der Optogenetik ist es einfach, Neurone gezielt zu manipulieren und die daraus resultierenden Effekte zu beobachten. Das lässt genauere Rückschlüsse zu als bloßes Beobachten."
Nervenzellen, Neuronen und Synapsen im Gehirn
Nervenzellen, Neuronen und Synapsen im Gehirn © imageBROKER/Simone Brandt
Das Projekt "window into the brain" steht jedoch nicht nur vor technischen und biologischen Herausforderungen, sondern zugleich auch vor mathematischen. Denn bei der optogenetischen Beobachtung und Manipulation von Zellgruppen von mehreren zehntausend bis zu 1 Million Neurone entstehen gewaltige Datenmengen, die nur noch von leistungsstarken Algorithmen berechnet und ausgewertet werden können.

Ehud Isacoff:
"Wie findet man heraus, was der entscheidende Aspekt des auslösenden Signals in einer großen Zahl von Neuronen ist und wie kreiert man daraus einen Algorithmus, der dem Gehirn dieselbe Erfahrung ermöglicht wie ein natürlicher Reiz? Da gibt es verschiedene Ansätze für die Berechnung. Und wir sind in Berkeley in der glücklichen Situation, dass mehrere Forscher Experimente durchführen und gleichzeitig Berechnungs-Zauberer sind.

Und wir haben auch ein Zentrum für theoretische Neurowissenschaften, das Redwood-Center. Diese Kombination ermöglicht es uns, das Berechnungsproblem in den Griff zu bekommen. Das ist eine der großen Herausforderungen für die gesamten Neurowissenschaften, und wir haben in Berkeley gute Karten, weil wir hier einige der weltweit schnellsten Super-Computer haben, gleich hier auf dem Hügel."

Wenn das Fenster zum Hirn eines Tages funktioniert, kann man damit auf Grundlage der optogenetischen Methode punktgenau die neuronale Aktivität messen. Die algorithmische Musteranalyse ermöglicht im nächsten Schritt die Interpretation der Hirnsignale.

Gedanken lesen und befehligen

Insofern kann man aus der Hirnaktivität beispielsweise den Wunsch eines gelähmten Patienten auslesen, ein Glas Wasser zu greifen. Dieser Wunsch kann ihm erfüllt werden, wenn durch das Fenster zum Hirn ein entsprechendes Lichtmuster gesendet wird, das die motorischen Areale im Hirn aktiviert oder die Bewegung direkt über eine geeignete Prothese auslöst.
Das US-Verteidigungsministerium begründet sein Engagement in diesem Projekt denn auch damit, dass sie die Prothetik voranbringen möchte, um Kriegsversehrten ein lebenswerteres Leben zu ermöglichen. Nicht ausgeschlossen, dass man mehr an dem Lesen der Wünsche interessiert ist als an deren Erfüllung.
Das Fenster zum Hirn, das im Isacoff-Lab in Berkeley entwickelt wird, kann mehrere hunderttausend, maximal eine Million Neurone erfassen. Im menschlichen Hirn arbeiten jedoch einige Größenordnungen mehr Neurone zusammen.
Insgesamt gibt es 86 Milliarden Neurone im Hirn. Das sind 86.000 mal mehr Neurone als die Anzahl der vom "Window into the brain" maximal beobachtbaren Nervenzellen.

Ehud Isacoff:
Wir reden hier von der Größe eines Zuckerwürfels, also von weniger als ein Zentimeter Kantenlänge. Mit diesem Gerät kann man natürlich nur einen sehr kleinen Bruchteil der menschlichen Großhirnrinde analysieren. Wenn man in der Lage sein will, wirklich jedes einzelne Neuron im Kortex zu sehen, dann müsste man ja den ganzen Schädel aus Glas herstellen. Das wird man natürlich nicht tun.

In einem kleineren Gehirn - von einem Tier zum Beispiel - kann man das Fenster so groß machen, dass man in der Lage ist, das gesamte visuelle System zu sehen. Aber Sie haben Recht, umso größer das Tier ist - bis hin zum Menschen – kann unser Window into the brain einen immer geringeren Teil der Neurone erkennen und manipulieren.

Das ist aber in Ordnung, weil man kann das Gerät, das Gedanken liest und Befehle schreibt, ja in ein oder zwei entscheidenden Orten im Hirn platzieren. Beispielsweise dort, wo die Daten über die Welt eintreffen. Dann kann man noch zusätzliche Geräte einsetzen, die einfach nur lesen, und die deshalb viel kleiner sind. Nur einen Millimeter. So wird man trotzdem nicht 86 Milliarden Nervenzellen erreichen.

Da gibt es immer noch viele experimentelle Fragen, auf die wir noch keine kompletten Antworten haben. Ich denke allerdings, wenn man den gesamten Geist eines Menschen lesen möchte, kommt man mit den Methoden, die wir hier verwenden, nicht so weit. Da sind Methoden, die auf dem MRT basieren, vielversprechender. Denn mittlerweile gibt es Möglichkeiten, MRT-Scans mit sehr höherer Auflösung zu machen."

Hirnaktivität gibt Aufschluss über Gedanken

Gedankenlesen mithilfe von MRT-Scans wird federführend nicht im Silicon Valley, sondern in Berlin betrieben. Vom deutsch-britischen Hirnforscher John-Dylan Haynes. Er ist Professor für Neurowissenschaften am Bernstein Center for Computational Neuroscience der Charité Berlin und Direktor des Berlin Center for Advanced Neuroimaging.
Hirnforscher John-Dylan Haynes
Hirnforscher John-Dylan Haynes© picture alliance / dpa / Karlheinz Schindler

John-Dylan Haynes:
"Bei jedem Gedanken, den ein Mensch hat, sind viele Nervenzellen beteiligt. Es ist also nicht nur eine Nervenzelle für einen Gedanken da und eine andere für einen anderen Gedanken da – es wäre ja auch denkbar. Aber das Gehirn hat sich anders organisiert. Es sind also immer 100.000 Zellen aktiv bei jedem Gedanken, den eine Person hat.

Wenn diese Nervenzellen aktiv werden, feuern sie, aber sie verbrauchen auch Sauerstoff. Sie holen sich den Sauerstoff aus den Blutgefäßen und da ändert sich dann der Magnetisierungsgrad des Blutes. Und das kann man mit der Kernspintomografie messen.

Dadurch dass ganz viele Nervenzellen beteiligt sind, bilden sich ganz komplexe Muster aus und diese Aktivitätsmuster können wir mit der funktionellen Kernspintomografie messen."

Dass man mithilfe von MRT-Scans Gedanken lesen kann, war lange Zeit umstritten, da man mit dieser Methode weder Aktionspotenziale noch anderweitige Erregungszustände sichtbar macht.
Ein Patient wird zu Demonstrationszwecken beim Fototermin für die Untersuchung in einem neuen Großgerät der Abteilung Nuklearmedizin im Universitätsklinikum Leipzig vorbereitet.
MRT-Scanner im Universitätsklinikum Leipzig© picture-alliance / dpa / Peter Endig
Mit der funktionellen Magnetresonanztomografie misst man die Aktivität der Neurone nur indirekt. Man erhält lediglich die Sauerstoffverteilung in den Blutgefäßen, die je verschiedene Areale des Gehirns versorgen.

John-Dylan Haynes:
"Wenn jeder Gedanke, den man hat, mit einem unverwechselbaren Muster in der Hirnaktivität einhergeht, dann kann ich ja auch einen Computer trainieren, diese Muster zu erkennen. Nehmen wir mal an, eine Person ist im Hirnscanner und wir messen die Hirnaktivität, während eine Person an einen Hund denkt, an eine Katze denkt und an eine Maus denkt. Diese Aktivitätsmuster bei diesen Gedanken sind alle leicht unterschiedlich.

Wir können jetzt einen Computer trainieren, diese Aktivitätsmuster zu erkennen. Und wenn wir dann die Person sich frei aussuchen lassen, an was sie denkt – Hund, Katze, Maus – dann können wir mit einer relativ guten Trefferquote mit dem Computer aus der Hirnaktivität dechiffrieren, woran die Person gerade denkt. Man könnte das bezeichnen als eine ganz einfache Form des Gedankenlesens.

Wir können nicht beliebige Gedanken lesen, aber wir können solche einfachen Decodierungen der Gedanken aus der Hirnaktivität können wir heute schon leisten."

Haynes stellte mit einem Versuch unter Beweis, dass er unter Laborbedingungen bestimmte Gedanken in den Hirnen seiner Probanden erkennen kann.
Bei dem Versuch von Haynes sollten sich seine Probanden entscheiden, auf den Knopf in ihrer rechten oder den in ihren linken Hand zu drücken. Noch bevor sich der Proband glaubte zu entscheiden, konnte Haynes aus der Hirnaktivität bereits herauslesen, welchen der beiden Knöpfe er wählen würde.
Bis zu sieben Sekunden, bevor es dem Probanden selbst bewusst war, sah Haynes bereits, wie sich der Gedanke an das Drücken des linken oder rechten Knopfs im Hirn des Probanden bildete.

John-Dylan Haynes:
"Dieses Verfahren, mit dem man Gedanken aus der Hirnaktivität auslesen kann, steckt noch in den Kinderschuhen. Das Faszinierende, was in den letzten zehn Jahren gezeigt wurde, dass es überhaupt geht. Dass wir prinzipiell überhaupt irgendwelche Gedanken aus der Hirnaktivität dechiffrieren können.

Jetzt darf man da aber nicht gleich ins Gegenteil springen und glauben, dass wir jeden beliebigen Gedanken jeder beliebigen Person morgen schon auslesen können. Das ist noch ein weiter Weg und es gibt noch eine Reihe von Schwierigkeiten, denen man sich da gegenübersieht. Vor allen Dingen, dass wir so unglaublich viele verschiedene Dinge denken können. Und das Problem ist: Woher soll man denn wissen, welche Hirnaktivität mit welchem dieser vielen Gedanken einhergeht?"

Zurzeit schützt uns also noch die Vielschichtigkeit unseres quirligen Bewusstseins davor, vollständig durchleuchtet zu werden. Doch das Fenster zum Hirn wird mit zunehmender Rechenleistung und weiteren technologischen Innovationen immer größer werden. Die Tragweite dieses Prozesses ist heute im Einzelnen noch nicht überschaubar.
Aber dass die Auflösung der zentralen Barriere zwischen der öffentlich zugänglichen Außenwelt und der privaten Innenwelt ein kulturelles Erdbeben auslösen wird, kann als sicher gelten. Insofern stellt sich beim Thema Brainreading sehr dringlich die alte Frage, ob alles, was technologisch machbar ist, auch unbedingt umgesetzt werden muss.
(Wdh. vom 18. Januar 2018)
Mehr zum Thema