KI Modell „liest“ Gedanken mit bis zu 82% Genauigkeit

Ein Forscherteam hat einen nicht-invasiven Decoder entwickelt, der kontinuierliche Sprache aus kortikalen semantischen Repräsentationen rekonstruieren kann, die durch funktionelle Magnetresonanztomographie (fMRI) gewonnen wurden. Der Decoder erzeugt verständliche Wortfolgen, die die Bedeutung von wahrgenommener Sprache, imaginierter Sprache und sogar von stummen Videos wiederherstellen können. Der Decoder wurde in verschiedenen Regionen des Kortex getestet und hat viele wissenschaftliche und praktische Anwendungsmöglichkeiten. Für eine erfolgreiche Dekodierung ist jedoch die Mitarbeit der Versuchspersonen erforderlich, was für die Wahrung der Privatsphäre wichtig ist. Dieser Durchbruch hat spannende Auswirkungen auf die Zukunft der nicht-invasiven Sprach-Gehirn-Computer-Schnittstellen.

Entschlüsselung menschlicher Gedanken mit ChatGPT-ähnlichem KI-Modell und fMRI

Jüngste bahnbrechende Forschungsergebnisse haben gezeigt, dass Wissenschaftler ein ChatGPT-ähnliches KI-Modell verwendet haben, um menschliche Gedanken passiv aus funktionellen MRT-Scans mit einer beeindruckenden Genauigkeit von bis zu 82 % zu entschlüsseln. Dies ist ein monumentaler Durchbruch, der neue Möglichkeiten in der Bildgebung des Gehirns eröffnet und Auswirkungen auf Bereiche wie Neurowissenschaften, Kommunikation und Mensch-Maschine-Schnittstellen hat.

Die Forscher sammelten 16 Stunden Gehirnaufzeichnungen von drei menschlichen Probanden, während diese Erzählungen zuhörten. Sie analysierten die Aufnahmen und identifizierten die spezifischen neuronalen Muster, die einzelnen Wörtern entsprechen. Dies war vor dem Aufkommen moderner GPT-KI-Modelle wie ChatGPT nicht möglich. Nicht-invasive Ansätze konnten nur eine Handvoll Wörter erkennen, über die eine Person nachdachte.

Das GPT-KI-Modell generierte mit bemerkenswerter Genauigkeit Wortfolgen aus wahrgenommener Sprache, imaginierter Sprache und stummen Videos.

Das KI-Modell konnte sowohl die Bedeutung der Stimuli als auch die spezifischen Wörter erkennen, an die die Versuchspersonen dachten, von Phrasen wie „sich auf den Boden legen“ bis hin zu „lass mich in Ruhe“ und „schreien und weinen“.

Dieser Durchbruch gibt jedoch Anlass zu Bedenken hinsichtlich des Schutzes der psychischen Privatsphäre.

Es ist von entscheidender Bedeutung, das Bewusstsein für die Gefahren zu schärfen, die von der Gehirn-Decoder-Technologie ausgehen, und Maßnahmen zum Schutz der psychischen Privatsphäre zu ergreifen.

Die Forscher räumten ein, dass ungenaue ode unerlaubte Decodervorhersagen für böswillige Zwecke missbraucht werden könnten. Daher müssen Maßnahmen ergriffen werden, um den Einzelnen vor potenzieller Ausbeutung zu schützen.

Der Einsatz von KI bei  Bildgebungsverfahren

Die künstliche Intelligenz hat neue Möglichkeiten für Bildgebungsverfahren zu Gehirnprozessen eröffnet, indem sie neue Einblicke in die inneren Abläufe des Gehirns ermöglicht. Die funktionelle Magnetresonanztomographie (fMRT) ist ein solches bildgebendes Verfahren, das häufig zur Untersuchung des Gehirns eingesetzt wird. Sie misst die Veränderungen des Blutflusses als Reaktion auf verschiedene Reize und ermöglicht es den Forschern zu sehen, welche Teile des Gehirns während einer bestimmten Aufgabe aktiviert werden.

Die fMRI ist jedoch dadurch eingeschränkt, dass sie auf einer indirekten Messung der neuronalen Aktivität beruht. Das bedeutet, dass es keinen direkten Zugang zum neuronalen Code bietet, der dem menschlichen Denken zugrunde liegt.

Im Gegensatz dazu können KI-Modelle wie ChatGPT menschliche Gedanken entschlüsseln, indem sie die spezifischen neuronalen Hinweise identifizieren, die den einzelnen Wörtern entsprechen.

Die Auswirkungen der Entschlüsselung menschlicher Gedanken

Die Fähigkeit, menschliche Gedanken zu entschlüsseln, hat erhebliche Auswirkungen auf Bereiche wie Kommunikation, Mensch-Maschine-Schnittstellen und psychische Gesundheit. Sie könnte zum Beispiel den Weg für neue Formen von Gehirn-Computer-Schnittstellen (HCI) ebnen, die es Menschen ermöglichen, Geräte mit ihren Gedanken zu steuern. Sie könnte auch neue Erkenntnisse über die neuronalen Grundlagen psychischer Störungen wie Depressionen und Angstzustände liefern.

Die Fähigkeit, menschliche Gedanken zu entschlüsseln, wirft jedoch auch ethische Bedenken auf, insbesondere im Hinblick auf den Schutz der geistigen Privatsphäre.

Es wäre denkbar die Forschung dahingehend zu entwickeln, die Gedanken einer Person ohne deren Wissen oder Zustimmung zu entschlüsseln. Dies könnte zu böswilligen Zwecken missbraucht werden, z. B. um sensible Informationen von Personen ohne deren Wissen oder Zustimmung zu erhalten.

Schutz der geistigen Privatsphäre im Zeitalter der KI

Um die geistige Privatsphäre zu schützen, ist es unerlässlich, das Bewusstsein für die Gefahren zu schärfen, die von der Technologie zur Entschlüsselung von Gehirnen ausgehen, und Maßnahmen zu ergreifen, um diese Risiken zu mindern. Eine mögliche Lösung ist die Entwicklung von Vorschriften, die den Einsatz von KI bei der Bildgebung von Gehirnen regeln und sicherstellen, dass der Einzelne die Kontrolle über seine mentalen Daten hat.

Dies könnte Maßnahmen wie die Einholung einer informierten Zustimmung vor der Erhebung von Hirndaten und die Einführung robuster Datenschutzmaßnahmen umfassen.

Zusammenfassend lässt sich sagen…

Die bahnbrechende Forschung zur Dekodierung menschlicher Gedanken mit Hilfe eines ChatGPT-ähnlichen KI-Modells und fMRI ist ein bedeutender Meilenstein in der Bildgebung des Gehirns. Sie eröffnet neue Möglichkeiten für das Verständnis der inneren Funktionsweise des Gehirns und hat Auswirkungen auf Bereiche wie Kommunikation, Mensch-Maschine-Schnittstellen und psychische Gesundheit.

Wichtig ist dabei zu erwähnen, dass „Gedanken lesen“ wesentlich mehr Fähigkeiten von einer KI abverlangen würde als das bloße Dekodieren und „erraten“ von Wort-Wahrscheinlichkeiten (durch LLMs). Wir bewegen uns trotz dieser techn. Raffinesse immer noch auf der Ebene der Syntax. Das tatsächliche Verstehen (Semantik) der Gedanken eines Menschen ist nach wie vor ein völlig andere Größenordnung. 

Sie wirft jedoch auch ethische Bedenken hinsichtlich des Schutzes der psychischen Privatsphäre und des möglichen Missbrauchs dieser Technologie auf. Es ist wichtig, das Bewusstsein für diese Fragen zu schärfen und Maßnahmen zum Schutz der psychischen Privatsphäre im Zeitalter der KI zu ergreifen.