Wissenschaftler haben entdeckt, dass einige fortschrittliche künstliche Intelligenzen (KI) auf dieselben optischen Täuschungen hereinfallen wie das menschliche Auge. Diese überraschende Erkenntnis eröffnet neue Wege, um die Funktionsweise unseres Gehirns zu erforschen, ohne auf umstrittene Experimente am Menschen zurückgreifen zu müssen.
Durch die Analyse, wie KI-Modelle visuelle Tricks interpretieren, gewinnen Forscher Einblicke in die komplexen Prozesse der menschlichen Wahrnehmung. Dies könnte nicht nur Theorien über unser Gehirn bestätigen, sondern auch die Entwicklung zukünftiger KI-Systeme beeinflussen.
Wichtige Erkenntnisse
- Bestimmte KI-Systeme, sogenannte tiefe neuronale Netze (DNNs), können von optischen Täuschungen getäuscht werden.
- Die Forschung an KI-Modellen bietet eine ethisch unbedenkliche Alternative zur Untersuchung des menschlichen Gehirns.
- Die Ergebnisse stützen die Theorie des „predictive coding“, wonach unser Gehirn ständig Vorhersagen über unsere Umgebung trifft.
- Unterschiede in der Wahrnehmung zwischen Mensch und KI, wie das Fehlen eines Aufmerksamkeitsmechanismus, liefern wertvolle Daten.
- Zukünftige Anwendungen könnten die Erforschung von Wahrnehmungsänderungen im Weltraum umfassen.
Ein künstlicher Blick in die menschliche Wahrnehmung
Optische Täuschungen sind mehr als nur lustige Spielereien. Sie zeigen, dass unsere Wahrnehmung der Realität nicht immer objektiv ist. Unser Gehirn nutzt clevere Abkürzungen, um die Flut an visuellen Informationen zu verarbeiten, die uns täglich umgibt. Diese Abkürzungen führen manchmal zu Fehlinterpretationen, die wir als Illusionen erleben.
Forscher nutzen nun künstliche Intelligenz, um diese Phänomene zu untersuchen. Tiefe neuronale Netze (DNNs), die die Struktur des menschlichen Gehirns nachahmen, werden mit denselben Bildern konfrontiert, die auch uns täuschen. Die Ergebnisse sind verblüffend: Die Maschinen machen oft dieselben „Fehler“ wie wir.
Was sind tiefe neuronale Netze?
Tiefe neuronale Netze sind das Herzstück vieler moderner KI-Anwendungen, von Sprachassistenten bis zur medizinischen Bildanalyse. Sie bestehen aus künstlichen Neuronen, die in Schichten angeordnet sind. Durch das Training mit riesigen Datenmengen lernen diese Netzwerke, Muster zu erkennen und Aufgaben auszuführen, die zuvor menschliche Intelligenz erforderten.
Dieser Ansatz bietet einen entscheidenden Vorteil. „Die Durchführung experimenteller Manipulationen am menschlichen Gehirn wirft ernste ethische Bedenken auf, aber solche Einschränkungen gelten nicht für künstliche Modelle“, erklärt Eiji Watanabe, außerordentlicher Professor für Neurophysiologie am National Institute for Basic Biology in Japan. Die KI wird so zu einem sicheren Testfeld für Theorien über das Gehirn.
Die Theorie der vorhersagenden Kodierung auf dem Prüfstand
Eine der führenden Theorien zur visuellen Verarbeitung ist die „vorhersagende Kodierung“ (predictive coding). Sie besagt, dass unser Gehirn nicht passiv Informationen aufnimmt, sondern aktiv vorhersagt, was es als Nächstes sehen wird. Diese Vorhersagen basieren auf früheren Erfahrungen. Nur die Abweichungen zwischen Vorhersage und Realität werden detailliert verarbeitet, was den Prozess enorm beschleunigt.
Um diese Theorie zu testen, nutzten Watanabe und sein Team ein KI-Modell namens PredNet, das nach genau diesem Prinzip arbeitet. Die KI wurde mit Tausenden von Stunden Videomaterial aus der realen Welt trainiert, das von am Kopf befestigten Kameras aufgenommen wurde. Sie lernte die „Regeln“ der visuellen Welt, zum Beispiel wie sich Objekte bewegen.
Nach der Verarbeitung von rund einer Million Videobildern lernte PredNet wesentliche Regeln der visuellen Welt, einschließlich der charakteristischen Merkmale sich bewegender Objekte, ohne jemals eine optische Täuschung gesehen zu haben.
Anschließend wurde der KI die berühmte Illusion der „rotierenden Schlangen“ gezeigt. Obwohl das Bild statisch ist, nehmen Menschen eine deutliche Drehbewegung wahr. Das Ergebnis: PredNet nahm ebenfalls eine Bewegung wahr. Dies stützt die Annahme, dass unser Gehirn aufgrund von Mustern, die es mit Bewegung assoziiert, eine falsche Vorhersage trifft.
Unterschiede zwischen Mensch und Maschine
Trotz der Ähnlichkeiten gibt es entscheidende Unterschiede. Wenn ein Mensch seinen Blick auf einen der Kreise in der Schlangen-Illusion fixiert, scheint dieser stillzustehen, während die anderen sich weiterdrehen. PredNet kann das nicht. Die KI nimmt immer alle Kreise gleichzeitig als bewegt wahr.
„Dies liegt wahrscheinlich daran, dass PredNet keinen Aufmerksamkeitsmechanismus besitzt“, so Watanabe. Das System kann sich nicht auf einen bestimmten Punkt konzentrieren, sondern verarbeitet immer das gesamte Bild.
Diese Erkenntnis ist wertvoll, denn sie zeigt, wie wichtig fokussierte Aufmerksamkeit für unsere Wahrnehmung ist. Bisher gibt es kein einziges KI-Modell, das alle Illusionen so erlebt wie ein Mensch. Die Systeme sind noch weit davon entfernt, die Welt so zu „sehen“ wie wir.
Quantenphysik als Erklärungsmodell
Ein anderer Forschungsansatz verbindet KI mit Konzepten aus der Quantenmechanik, um mehrdeutige Illusionen zu erklären. Ein klassisches Beispiel ist der Necker-Würfel, eine zweidimensionale Zeichnung eines Würfels, die unser Gehirn auf zwei verschiedene Arten interpretieren kann. Unsere Wahrnehmung springt unwillkürlich zwischen den beiden Perspektiven hin und her.
Ivan Maksymov, ein Forscher an der Charles Sturt University in Australien, entwickelte ein KI-Modell, das dieses Springen simuliert. Seine KI nutzt ein Phänomen namens „Quantentunneln“, um Informationen zu verarbeiten. Als dem System der Necker-Würfel gezeigt wurde, wechselte es seine Interpretation in Zeitintervallen, die denen von menschlichen Testpersonen sehr ähnlich waren.
Maksymov glaubt nicht, dass unser Gehirn ein Quantencomputer ist. Er argumentiert jedoch, dass Theorien aus der Quantenphysik, zusammengefasst im Feld der „Quantenkognition“, bestimmte Denkprozesse wie die Entscheidungsfindung bei mehrdeutigen Informationen besser modellieren können.
Praktische Anwendung im Weltraum
Die Forschung an künstlicher Wahrnehmung könnte sogar für die Raumfahrt relevant werden. Studien haben gezeigt, dass sich die Wahrnehmung von Astronauten im All verändert. Nach mehreren Monaten auf der Internationalen Raumstation (ISS) nehmen sie den Necker-Würfel anders wahr als auf der Erde.
- Auf der Erde: Die meisten Menschen bevorzugen eine der beiden Perspektiven des Würfels, oft die „von oben“ gesehene.
- Im Weltraum: Nach einiger Zeit in der Schwerelosigkeit sehen Astronauten beide Perspektiven etwa gleich häufig.
Wissenschaftler vermuten, dass dies daran liegt, dass unsere Tiefenwahrnehmung teilweise von der Schwerkraft beeinflusst wird. Ohne ein klares „oben“ und „unten“ kalibriert sich das Gehirn neu. KI-Modelle könnten helfen, diese Veränderungen zu simulieren und besser zu verstehen.
„Obwohl es ein enges Forschungsfeld ist, ist es ziemlich wichtig, weil die Menschen ins All wollen“, betont Maksymov. Wenn wir eines Tages ferne Welten erkunden, wollen wir sicher sein, dass wir unseren Augen trauen können. Die Erforschung, wie KI die Welt sieht, hilft uns dabei, unsere eigene, menschliche Sicht besser zu verstehen.





