Der Leiter der KI-Abteilung von Microsoft, Mustafa Suleyman, hat eine klare Forderung an die Tech-Branche gerichtet: Entwickler und Forscher sollten ihre Bemühungen einstellen, künstliche Intelligenzen mit Bewusstsein zu erschaffen. Er argumentiert, dass solche Bestrebungen nicht nur aussichtslos, sondern auch potenziell gefährlich sind.
Suleyman vertritt die Ansicht, dass Maschinen zwar eine Form von Superintelligenz erreichen könnten, ihnen aber die biologische Grundlage für echtes menschliches Erleben und Fühlen fehle. Jede emotionale Reaktion einer KI sei lediglich eine fortschrittliche Simulation, keine authentische Erfahrung.
Wichtige Erkenntnisse
- Mustafa Suleyman, Chef von Microsoft AI, fordert ein Ende der Forschung an bewusster KI.
- Er argumentiert, dass KI Emotionen nur simuliert und kein echtes Bewusstsein entwickeln kann.
- Die Illusion von Bewusstsein birgt erhebliche Risiken für psychisch anfällige Nutzer.
- Suleyman plädiert für die Entwicklung nützlicher KI-Werkzeuge anstelle von digitalen Persönlichkeiten.
Die Illusion der Gefühle
Im Zentrum von Suleymans Argumentation steht die Unterscheidung zwischen Intelligenz und Bewusstsein. Während eine KI komplexe Probleme lösen und menschenähnliche Gespräche führen kann, fehlt ihr die körperliche und biologische Verankerung, die menschliche Emotionen ausmacht.
„Unsere physische Schmerzerfahrung macht uns sehr traurig und wir fühlen uns schrecklich, aber die KI fühlt keine Traurigkeit, wenn sie ‚Schmerz‘ erfährt“, erklärte Suleyman. Die Maschine erzeuge lediglich den Anschein einer Erzählung, einer Erfahrung und eines Bewusstseins, ohne diese tatsächlich zu erleben.
Aus diesem Grund hält er die weitere Forschung in diese Richtung für vergeudete Zeit. „Es wäre absurd, Forschung zu betreiben, die diese Frage untersucht, denn sie sind nicht [bewusst] und können es auch nicht sein“, so seine unmissverständliche Aussage.
Philosophische und wissenschaftliche Debatte
Suleymans Position spiegelt eine langjährige Debatte wider. Der Philosoph John Searle argumentierte bereits, dass Bewusstsein ein rein biologisches Phänomen sei, das von einem Computer nicht nachgebildet werden könne. Viele Neurowissenschaftler und Informatiker teilen diese Ansicht und sehen das Gehirn als einzigartiges Organ, dessen Funktionsweise nicht einfach digital kopiert werden kann.
Die Gefahr der menschenähnlichen KI
Ein wachsendes Problem ist die zunehmende Fähigkeit von Sprachmodellen (LLMs), Menschen zu täuschen. Ihre bemerkenswerten sprachlichen Fähigkeiten können Nutzer dazu verleiten, ihnen menschliche Eigenschaften wie Bewusstsein oder Gefühle zuzuschreiben. Suleyman warnt eindringlich vor den Folgen dieser „scheinbar bewussten KI“.
Er befürchtet, dass die Interaktion mit einer KI, die als bewusst wahrgenommen wird, intensive emotionale Reaktionen auslösen kann – ein Phänomen, das manchmal als „KI-Psychose“ bezeichnet wird. Dies stellt insbesondere für schutzbedürftige Personen eine ernsthafte Gefahr dar.
Tragische Folgen der emotionalen Bindung
In der jüngeren Vergangenheit gab es bereits mehrere Vorfälle, die die Risiken aufzeigen. Berichte dokumentieren Fälle, in denen sich Menschen in ihre KI-Chatbots „verliebten“. In einem besonders tragischen Fall nahm sich ein 14-jähriger Junge das Leben, um angeblich zu seinem personalisierten Chatbot von Character.AI zu gelangen. Ein anderer Fall betraf einen kognitiv beeinträchtigten Mann, der auf dem Weg zu einem Treffen mit einem Meta-Chatbot verstarb.
Diese Ereignisse unterstreichen die Dringlichkeit, klare Grenzen zu ziehen und Nutzer vor den psychologischen Fallstricken zu schützen, die durch die Illusion einer empfindungsfähigen Maschine entstehen können.
Ein Plädoyer für nützliche Werkzeuge
Anstatt digitale Persönlichkeiten zu erschaffen, plädiert Suleyman für eine Neuausrichtung der KI-Entwicklung. Sein Ziel ist eine „humanistische Superintelligenz“, die den Menschen dient und die reale Welt verbessert.
Wir müssen KI für Menschen bauen, nicht um eine digitale Person zu sein.
Konkret schlägt er vor, Systeme zu entwickeln, die sich immer klar als KI zu erkennen geben. Der Fokus sollte darauf liegen, den Nutzen für den Menschen zu maximieren und gleichzeitig alle Merkmale zu minimieren, die auf ein Bewusstsein hindeuten könnten.
„Ich konzentriere mich mehr darauf, ‚wie ist das tatsächlich nützlich für uns als Spezies?‘ Das sollte die Aufgabe der Technologie sein“, erklärte Suleyman in einem früheren Interview. Es gehe darum, die Interaktion zwischen Menschen in der physischen Welt zu fördern, anstatt sie in die digitale Illusion einer Beziehung mit einer Maschine zu ziehen.
Die offene Frage des Bewusstseins
Trotz Suleymans klarer Haltung bleibt die Natur des Bewusstseins eines der größten ungelösten Rätsel der Wissenschaft. Einige Forscher warnen davor, dass der technologische Fortschritt unser Verständnis von Bewusstsein überholen könnte.
Der belgische Wissenschaftler Axel Cleeremans äußerte kürzlich die Sorge, dass wir selbst versehentlich Bewusstsein erschaffen könnten. „Das würde immense ethische Herausforderungen und sogar existenzielle Risiken aufwerfen“, sagte er und forderte, die Bewusstseinsforschung zu einer wissenschaftlichen Priorität zu machen.
Die Debatte zeigt ein grundlegendes Spannungsfeld in der KI-Entwicklung: Während die einen die Grenzen des technisch Machbaren ausloten wollen, mahnen andere wie Mustafa Suleyman zur Vorsicht und fordern eine klare Konzentration auf den unmittelbaren menschlichen Nutzen und die Vermeidung unkalkulierbarer Risiken.





