Eine neue Analyse der SEO-Firma Graphite zeigt, dass die Menge an von Menschen geschriebenen Inhalten im Internet wieder mit der von künstlicher Intelligenz erstellten gleichzieht. Vorübergehend hatten maschinell generierte Texte die Oberhand gewonnen. Diese Entwicklung stellt frühere Prognosen in Frage und wirft ein neues Licht auf die Zukunft von KI-Trainingsdaten und die Präferenzen von Suchmaschinen.
Die Studie deutet darauf hin, dass sowohl die Algorithmen von Suchmaschinen als auch die Präferenzen der Nutzer weiterhin menschlich erstellte Inhalte bevorzugen. Dies könnte eine Korrektur im Wettlauf um die automatisierte Content-Produktion einleiten und die Strategien von Online-Publishern nachhaltig beeinflussen.
Wichtige Erkenntnisse
- Der Anteil von KI-generierten und menschlich geschriebenen Inhalten im Internet ist laut einer Studie von Graphite wieder ausgeglichen.
- Frühere Prognosen, wie die von Europol, die bis 2026 einen KI-Anteil von 90 % vorhersagten, könnten sich als zu hoch erweisen.
- Die Gefahr des "Modellkollaps", bei dem KI-Systeme durch ihre eigenen Daten an Qualität verlieren, bleibt eine zentrale Sorge für Forscher.
- Eine Umfrage des Pew Research Center zeigt, dass die Öffentlichkeit KI in kreativen und persönlichen Bereichen kritisch sieht.
Das Gleichgewicht im Web verschiebt sich
Für eine kurze Zeit schien es, als würden maschinell erstellte Artikel das Internet überfluten. Eine aktuelle Untersuchung des SEO-Unternehmens Graphite hat jedoch ergeben, dass sich ein neues Gleichgewicht eingestellt hat. Der Anteil von Inhalten, die von künstlicher Intelligenz (KI) generiert wurden, und solchen, die von Menschen stammen, ist mittlerweile wieder nahezu identisch.
Diese Entwicklung ist bedeutsam, da sie düsteren Prognosen widerspricht. Eine viel beachtete Schätzung von Europol aus dem Jahr 2022 ging davon aus, dass bis 2026 rund 90 Prozent aller Online-Inhalte von KI stammen würden. Die neuen Daten deuten darauf hin, dass diese Vorhersage möglicherweise nicht eintreten wird.
Die Sorge vor dem Modellkollaps
Forscher warnen seit Längerem vor einem Phänomen, das als "Modellkollaps" oder "sich selbst verzehrende KI" bezeichnet wird. Wenn große Sprachmodelle (LLMs) überwiegend mit Daten trainiert werden, die von anderen KIs erstellt wurden, besteht die Gefahr, dass sie beginnen, Fehler und Eigenheiten zu wiederholen und zu verstärken. Langfristig könnte dies zu einem erheblichen Qualitätsverlust der Modelle führen.
Das aktuelle Gleichgewicht zwischen menschlichen und maschinellen Inhalten könnte diesen Prozess verlangsamen. Es stellt sicher, dass weiterhin eine große Menge an originären, von Menschen geschaffenen Daten für das Training zukünftiger KI-Generationen zur Verfügung steht.
Methodik der Analyse und ihre Grenzen
Um die Verteilung der Inhalte zu untersuchen, griff Graphite auf eine umfangreiche Datenquelle zurück. Das Team analysierte eine zufällige Stichprobe von URLs aus der Datenbank von Common Crawl. Common Crawl ist ein riesiges, frei zugängliches Archiv, das über 300 Milliarden Webseiten aus den letzten 18 Jahren umfasst und monatlich um weitere 3 bis 5 Milliarden Seiten wächst.
Zur Unterscheidung der Inhalte wurde ein KI-Detektor namens Surfer eingesetzt. Solche Werkzeuge analysieren Texte auf Muster, die typischerweise bei maschineller Generierung auftreten, wie etwa Satzstruktur, Wortwahl und stilistische Gleichförmigkeit.
Die Herausforderung der genauen Messung
Trotz fortschrittlicher Werkzeuge bleibt die exakte Unterscheidung zwischen von Menschen und Maschinen geschriebenen Texten eine große Herausforderung. Experten, die von Axios befragt wurden, betonten, dass eine hundertprozentig genaue Zählung mit den heutigen Technologien und Definitionen praktisch unmöglich ist.
Common Crawl als Datengrundlage
Obwohl Common Crawl nicht das gesamte Internet abbildet, ist es eine der wichtigsten und größten Datenquellen für das Training großer Sprachmodelle wie GPT von OpenAI. Die Zusammensetzung der Inhalte in dieser Datenbank hat daher direkten Einfluss auf die Leistungsfähigkeit und Qualität zukünftiger KI-Systeme.
Die Ergebnisse der Graphite-Studie sind daher als eine wichtige Momentaufnahme zu verstehen, die einen Trend aufzeigt, aber keine absolute Zählung darstellt. Die Grenzen der Erkennungstechnologie bedeuten, dass die tatsächlichen Zahlen leicht abweichen könnten.
Suchmaschinen und die Reaktion des Marktes
Ein weiterer Bericht von Graphite legt nahe, dass sich auch die Strategien von sogenannten "Content-Farmen" ändern. Diese Unternehmen, die auf die massenhafte Produktion von Inhalten spezialisiert sind, scheinen zu erkennen, dass rein KI-generierte Texte von Suchmaschinen und Chatbots nicht priorisiert werden.
Suchmaschinen wie Google haben ihre Algorithmen angepasst, um qualitativ hochwertige, nützliche und von Experten verfasste Inhalte zu bevorzugen. Automatisch erstellte Texte, denen es an Tiefe und Originalität mangelt, haben es zunehmend schwerer, gute Platzierungen zu erreichen. Diese Entwicklung schafft einen wirtschaftlichen Anreiz, weiterhin in menschliche Autoren zu investieren.
"Klar gekennzeichnete KI-Zusammenfassungen von geschlossenen, proprietären Inhalten schneiden in der Suche gut ab", erklärte Ethan Smith, CEO von Graphite, gegenüber Axios. Dies deutet darauf hin, dass KI vor allem als Werkzeug zur Aufbereitung bestehender Informationen erfolgreich ist, aber nicht als Ersatz für originäre Inhalte.
Die Quintessenz ist klar: Vorerst bevorzugen Menschen weiterhin Inhalte, die überwiegend von anderen Menschen geschrieben wurden. Qualität, Authentizität und menschliche Erfahrung bleiben entscheidende Faktoren für den Erfolg im digitalen Raum.
Gesellschaftliche Akzeptanz von KI hat klare Grenzen
Die Präferenz für menschliche Kreativität spiegelt sich auch in der öffentlichen Meinung wider. Eine separate, umfassende Studie des Pew Research Center untersuchte die Haltung der amerikanischen Bevölkerung gegenüber dem Einsatz von künstlicher Intelligenz in verschiedenen Lebensbereichen.
Die Ergebnisse zeigen ein differenziertes Bild. Die Befragten äußerten sich überwiegend positiv über den Einsatz von KI in klar definierten, datengestützten Aufgaben. Dazu gehören:
- Die Entwicklung neuer Medikamente
- Die Vorhersage von Wetterereignissen
- Die Optimierung von Produktionsprozessen
Wo die Menschen eine rote Linie ziehen
Ganz anders sieht es jedoch in Bereichen aus, die menschliche Emotionen, Ethik und Kreativität erfordern. Eine große Mehrheit der Befragten lehnt den Einsatz von KI in den folgenden Kontexten ab:
- Zwischenmenschliche Beziehungen: Ratschläge für persönliche Probleme oder Partnerschaften.
- Religiöse und spirituelle Fragen: Seelsorge oder theologische Interpretationen.
- Kreative Aufgaben: Das Schreiben von Nachrichtenartikeln, Musik oder das Erschaffen von Kunst.
Diese Ergebnisse verdeutlichen, dass die Gesellschaft beginnt, klare Grenzen für die Anwendung von KI zu ziehen. Während die Technologie als nützliches Werkzeug für analytische Aufgaben akzeptiert wird, bleibt der Wunsch nach menschlicher Urteils- und Schaffenskraft in sensiblen und kreativen Bereichen bestehen. Die Balance im Internet könnte ein erstes Anzeichen dafür sein, dass sich diese gesellschaftliche Präferenz auch technologisch und wirtschaftlich durchsetzt.





