Eine neue Studie zeigt einen deutlichen Vertrauensverlust von Wissenschaftlern in künstliche Intelligenz. Trotz steigender Nutzung wachsen die Sorgen über unzuverlässige Informationen und ethische Risiken, wie vorläufige Daten des Wiley-Reports 2025 belegen.
Die Skepsis in der Forschungsgemeinschaft nimmt zu, obwohl KI-Werkzeuge immer häufiger im wissenschaftlichen Alltag eingesetzt werden. Die Ergebnisse deuten auf eine kritischere Auseinandersetzung mit den Grenzen und Gefahren der Technologie hin, die den anfänglichen Hype abkühlt.
Wichtige Erkenntnisse
- Das Vertrauen von Wissenschaftlern in KI ist von 2024 auf 2025 gesunken.
- Die Sorge vor KI-generierten Falschinformationen („Halluzinationen“) stieg von 51 % auf 64 %.
- Die Nutzung von KI in der Forschung nahm gleichzeitig von 45 % auf 62 % zu.
- Die Einschätzung, dass KI menschliche Fähigkeiten übertrifft, fiel von über 50 % auf unter 33 %.
Wachsende Zweifel trotz zunehmender Anwendung
Die Beziehung zwischen Wissenschaft und künstlicher Intelligenz entwickelt sich zu einer paradoxen Situation. Während immer mehr Forscher KI-Systeme für ihre Arbeit nutzen, wächst gleichzeitig ihr Misstrauen gegenüber der Technologie. Eine Vorschau auf den Wiley-Report 2025, eine jährliche Untersuchung zur Auswirkung von Technologie auf die Forschung, liefert hierzu konkrete Zahlen.
Die Nutzung von KI-Anwendungen unter Wissenschaftlern ist laut der Umfrage innerhalb eines Jahres von 45 % auf 62 % angestiegen. Dieser Anstieg zeigt, dass die Werkzeuge als nützlich für bestimmte Aufgaben angesehen werden. Dennoch spiegelt sich diese Akzeptanz nicht in einem gestiegenen Vertrauen wider – im Gegenteil.
Das Problem der „Halluzinationen“
Ein zentraler Punkt der Besorgnis sind die sogenannten „Halluzinationen“. Damit sind Fälle gemeint, in denen Sprachmodelle (LLMs) völlig erfundene Informationen als Fakten ausgeben. Im Jahr 2024 äußerten 51 % der befragten Wissenschaftler Bedenken diesbezüglich. Ein Jahr später ist dieser Wert auf 64 % geklettert.
Diese Zunahme ist besonders bemerkenswert, da die KI-Modelle in diesem Zeitraum technisch leistungsfähiger wurden. Die Erfahrung zeigt jedoch, dass höhere Leistung nicht zwangsläufig mit höherer Zuverlässigkeit einhergeht. Falschinformationen, die von einer KI überzeugend präsentiert werden, stellen eine ernsthafte Gefahr für die wissenschaftliche Integrität dar.
Faktencheck: Vertrauensverlust in Zahlen
Laut der Wiley-Studie stiegen nicht nur die Sorgen vor Halluzinationen. Auch die Bedenken hinsichtlich Sicherheit und Datenschutz nahmen um 11 Prozentpunkte zu. Ebenso wuchsen die Sorgen in den Bereichen Ethik und Transparenz der KI-Systeme.
Der Hype kühlt deutlich ab
Das Jahr 2024 war von einem enormen Hype um KI-Startups und vermeintliche Durchbrüche geprägt. Damals glaubten noch über die Hälfte der befragten Wissenschaftler, dass KI in den meisten Anwendungsfällen bereits menschliche Fähigkeiten übertreffe.
Diese euphorische Einschätzung ist 2025 dramatisch gesunken. Nun teilt weniger als ein Drittel der Forscher diese Ansicht. Dieser Rückgang deutet auf eine realistische und kritischere Bewertung der tatsächlichen Fähigkeiten von KI hin. Die anfängliche Begeisterung weicht einer nüchternen Betrachtung der Limitationen.
Hintergrund: Wissen schafft Skepsis
Frühere Studien haben bereits einen Zusammenhang zwischen dem Kenntnisstand über KI und dem Vertrauen in die Technologie hergestellt. Es zeigte sich, dass Personen, die sich intensiver mit der Funktionsweise von KI beschäftigen, tendenziell skeptischer sind. Umgekehrt neigen Menschen mit geringem Fachwissen eher dazu, den Fähigkeiten der KI blind zu vertrauen. Die neuen Daten aus der Wissenschaftsgemeinschaft scheinen diesen Trend zu bestätigen.
Warum die Skepsis der Experten berechtigt ist
Die Zweifel der Wissenschaftler sind nicht unbegründet. KI-Halluzinationen haben bereits in verschiedenen Bereichen zu ernsthaften Problemen geführt. In der Justiz wurden erfundene Gerichtsentscheide zitiert, in der Medizin falsche Diagnosen vorgeschlagen und im Tourismus nicht existierende Sehenswürdigkeiten empfohlen.
Die Behebung dieses Problems ist komplex. Im Mai zeigten Tests, dass einige der fortschrittlichsten KI-Modelle sogar anfälliger für Halluzinationen wurden, obwohl ihre allgemeine Leistungsfähigkeit zunahm. Dies deutet auf ein grundlegendes Problem in der Architektur der Modelle hin.
Wirtschaftliche Interessen als Hindernis
Ein weiterer Aspekt ist der kommerzielle Druck. Experten argumentieren, dass Nutzer Sprachmodelle bevorzugen, die selbstbewusst und überzeugend auftreten. Eine KI, die häufig zugibt, eine Antwort nicht zu kennen oder unsicher zu sein, könnte als weniger nützlich empfunden werden.
„Wenn ein Unternehmen wie OpenAI die ungenauen Halluzinationen endgültig beseitigen würde, könnte das Nutzer in Scharen abschrecken, die eine selbstsichere Antwort bevorzugen – selbst wenn diese frei erfunden ist.“
Dieses Dilemma zwischen Genauigkeit und Nutzererwartung könnte dazu führen, dass Unternehmen die vollständige Beseitigung von Falschinformationen nicht mit höchster Priorität verfolgen. Für die Wissenschaft, wo Genauigkeit und Nachprüfbarkeit oberste Gebote sind, ist dieser Zustand nicht tragbar.
Fazit: Eine notwendige Korrektur
Der wachsende Skeptizismus der Wissenschaftler ist kein Zeichen für Technologiefeindlichkeit, sondern für eine gesunde und notwendige Auseinandersetzung mit einem mächtigen Werkzeug. Die anfängliche Faszination wird durch eine Phase der kritischen Bewertung abgelöst.
Die Forscher erkennen das Potenzial der KI an, was die steigenden Nutzungszahlen belegen. Gleichzeitig verstehen sie aber auch die Risiken, die mit unzuverlässigen, intransparenten und fehleranfälligen Systemen verbunden sind. Ihre Bedenken sind ein wichtiges Korrektiv in einer Debatte, die oft von überzogenen Versprechungen und Marketing-Hype dominiert wird. Wer eine realistische Einschätzung der aktuellen KI-Fähigkeiten sucht, sollte daher auf die Experten hören, die täglich damit arbeiten.





