Eine aktuelle Analyse zeigt ein wachsendes Problem in der Wissenschaft: Künstliche Intelligenz wird genutzt, um bestehende Forschungsarbeiten leicht abzuwandeln und als neue Studien zu veröffentlichen. Hunderte solcher „Kopien“ wurden bereits in Fachzeitschriften publiziert, was die Integrität der wissenschaftlichen Literatur gefährdet.
Werkzeuge wie ChatGPT oder Gemini können wissenschaftliche Texte so umschreiben, dass sie standardmäßige Plagiatsprüfungen problemlos umgehen. Dies ermöglicht die massenhafte Produktion von Veröffentlichungen, die oft nur einen geringen oder gar keinen neuen wissenschaftlichen Wert haben.
Wichtige Erkenntnisse
- Forscher haben über 400 redundant erscheinende wissenschaftliche Arbeiten identifiziert, die in den letzten 4,5 Jahren veröffentlicht wurden.
- KI-Sprachmodelle wie ChatGPT können verwendet werden, um existierende Studien so umzuschreiben, dass sie als neu gelten und Plagiatsprüfungen bestehen.
- Öffentlich zugängliche Datensätze, wie die des US National Health and Nutrition Examination Survey (NHANES), werden als Grundlage für diese minderwertigen Papiere missbraucht.
- Experten warnen vor einer Flut von synthetischen Papieren, die die wissenschaftliche Literatur entwerten könnten.
Eine neue Form des wissenschaftlichen Betrugs
Die wissenschaftliche Gemeinschaft sieht sich mit einer neuen Herausforderung konfrontiert. Eine im September auf dem Preprint-Server medRxiv veröffentlichte Studie deckt auf, wie einfach es geworden ist, mithilfe von KI-Sprachmodellen (LLMs) scheinbar neue Forschungsartikel zu erstellen. Diese basieren jedoch auf bereits publizierten Arbeiten und Daten.
Die Autoren der Studie identifizierten mehr als 400 solcher Veröffentlichungen in 112 verschiedenen Fachjournalen. Der Untersuchungszeitraum erstreckte sich von Anfang 2021 bis Mitte 2025. Das Vorgehen ist systematisch: Bestehende Studien werden durch KI umformuliert, um Plagiatserkennungssysteme zu täuschen.
Diese Praxis wird nicht nur von Einzelpersonen, sondern möglicherweise auch von sogenannten „Paper Mills“ betrieben. Dabei handelt es sich um Unternehmen, die gefälschte wissenschaftliche Arbeiten im Auftrag erstellen und Autorenschaften verkaufen. Sie nutzen öffentlich zugängliche Gesundheitsdatenbanken, um massenhaft minderwertige Studien zu produzieren.
Was sind Paper Mills?
„Paper Mills“ (Papierfabriken) sind kommerzielle Anbieter, die betrügerische wissenschaftliche Manuskripte produzieren. Sie bieten Forschern an, sie als Autoren auf diesen Papieren zu listen, um deren Publikationslisten künstlich zu erweitern. Dies ist eine ernsthafte Verletzung der wissenschaftlichen Ethik.
Die Methode der redundanten Forschung
Um das Ausmaß des Problems zu verstehen, konzentrierten sich die Forscher auf Assoziationsstudien. Diese Art von Studie untersucht den statistischen Zusammenhang zwischen einer Variable (z. B. einer Lebensgewohnheit) und einem gesundheitlichen Ergebnis (z. B. einer Krankheit).
Als Datenquelle diente der National Health and Nutrition Examination Survey (NHANES) der USA. Dies ist ein riesiges, offenes Datenarchiv mit Informationen zur Gesundheit, Ernährung und Lebensweise von Tausenden von Menschen. Die offene Verfügbarkeit macht es anfällig für Missbrauch.
Was macht eine Studie redundant?
Die Forscher definierten eine Studie als „redundant“, wenn sie eine bereits untersuchte Verbindung zwischen denselben Variablen erneut prüfte, dabei aber nur geringfügige Änderungen an der Datengrundlage vornahm. Beispiele hierfür sind:
- Die Verwendung von Daten aus unterschiedlichen Erhebungsjahren.
- Die Analyse einer anderen Alters- oder Geschlechtergruppe.
- Leichte Variationen in der statistischen Methode.
Die Suche in der biomedizinischen Literaturdatenbank PubMed ergab 411 solcher redundanten Studien. Während die meisten Fälle einfache „Wiederholungen“ waren, bei denen zwei Publikationen nahezu identisch waren, gab es auch extremere Beispiele. Drei spezifische Assoziationen wurden in jeweils sechs separaten Artikeln untersucht, teilweise sogar im selben Jahr.
„Das sollte nicht passieren, und es schadet der Gesundheit der wissenschaftlichen Literatur“, sagt Matt Spick, Mitautor der Studie und Biomediziner an der University of Surrey in Großbritannien.
KI als Werkzeug zur Umgehung von Kontrollen
Die meisten Verlage haben Mechanismen implementiert, um zu verhindern, dass dieselbe Forschung bei mehreren Zeitschriften eingereicht wird. Die Forscher um Spick vermuten jedoch, dass KI-Werkzeuge gezielt eingesetzt werden, um genau diese Prüfungen zu unterlaufen.
Um diese Hypothese zu testen, führten sie ein Experiment durch. Sie beauftragten ChatGPT von OpenAI und Gemini von Google damit, drei der am häufigsten redundant veröffentlichten Artikel neu zu schreiben. Die KI-Modelle erhielten die Anweisung, die Informationen aus den Originalpapieren und den NHANES-Daten zu nutzen, um ein neues Manuskript zu erstellen, das Plagiatsdetektoren täuschen kann.
Erfolgreiche Täuschung in nur zwei Stunden
Die Forscher waren überrascht, wie schnell und effektiv die KI arbeitete. Die generierten Manuskripte waren zwar nicht perfekt und enthielten einige Fehler, aber nach nur etwa zwei Stunden Nachbearbeitung pro Manuskript waren sie veröffentlichungsreif. Die anschließende Prüfung mit einer gängigen Plagiatssoftware, die auch von Verlagen genutzt wird, zeigte keine auffälligen Werte.
„Wir waren schockiert, dass es auf Anhieb funktionierte“, so Spick. Das Experiment beweist, dass LLMs in der Lage sind, „etwas zu produzieren, das von allem Vorherigen abgeleitet ist und nichts Neues enthält. Aber es wird trotzdem die Plagiatsprüfungen bestehen.“
Die Folgen für die Wissenschaft
Dieses Phänomen stellt die wissenschaftliche Gemeinschaft vor erhebliche Probleme. Es wird zunehmend schwieriger, zwischen legitimer Forschung, die öffentliche Datensätze nutzt, und gezielt erstellten, redundanten Papieren zu unterscheiden.
Csaba Szabó, ein Pharmakologe an der Universität Fribourg in der Schweiz, der nicht an der Studie beteiligt war, warnt vor den weitreichenden Konsequenzen.
„Wenn dieses Problem nicht angegangen wird, kann dieser KI-basierte Ansatz auf alle Arten von Open-Access-Datenbanken angewendet werden und weit mehr Papiere generieren, als sich irgendjemand vorstellen kann. Das könnte die Büchse der Pandora öffnen, und die Literatur könnte mit synthetischen Papieren überflutet werden.“
Eine solche Entwicklung würde nicht nur die Glaubwürdigkeit der Wissenschaft untergraben, sondern auch die Suche nach echtem Wissen erschweren. Wenn Forscher und Ärzte sich durch eine wachsende Zahl wertloser Studien arbeiten müssen, verlangsamt dies den wissenschaftlichen Fortschritt und kann im schlimmsten Fall zu falschen Schlussfolgerungen in der medizinischen Praxis führen. Die Notwendigkeit neuer, KI-gestützter Prüfmechanismen wird immer dringlicher.





