Eine neue Studie zeigt, dass künstliche Intelligenz DNA-Codes für gefährliche Proteine so verändern kann, dass sie von gängigen Biosicherheitssystemen nicht mehr erkannt werden. Forscher demonstrierten, wie KI-gestützte Werkzeuge die genetischen Baupläne für Toxine und andere schädliche Substanzen umschreiben können, ohne deren potenziell gefährliche Funktion zu verlieren.
Die im Fachjournal Science veröffentlichten Ergebnisse verdeutlichen eine wachsende Herausforderung für Unternehmen, die synthetische DNA herstellen. Obwohl diese Firmen Screening-Prozesse etabliert haben, um den Missbrauch zu verhindern, könnten die neuen KI-Methoden diese Schutzmaßnahmen unterlaufen.
Wichtige Erkenntnisse
- KI kann die DNA-Sequenzen gefährlicher Proteine so umschreiben, dass sie Biosicherheitsfilter umgehen.
- In einer Studie erzeugte eine KI über 75.000 Varianten von schädlichen Proteinen, die von den Scannern nicht zuverlässig erkannt wurden.
- Als Reaktion wurde ein Software-Update entwickelt, das jedoch nicht alle modifizierten Sequenzen abfängt.
- Die Forscher beschränken den Zugang zu ihren Daten, um Missbrauch zu verhindern – ein neuartiger Ansatz in der wissenschaftlichen Publikation.
- Die Studie löst eine Debatte über die Balance zwischen offener Wissenschaft und der Eindämmung von Biorisiken aus.
KI als Werkzeug zur Verschleierung von Gensequenzen
Forscher, darunter Eric Horvitz, Chief Scientific Officer bei Microsoft, nutzten KI-Werkzeuge, um die DNA-Codes bekannter toxischer Proteine zu „paraphrasieren“. Das bedeutet, die genetische Information wurde neu geschrieben, während die grundlegende Struktur und damit potenziell auch die Funktion des Proteins erhalten blieb.
Dieser Ansatz ist vergleichbar mit dem Umschreiben eines Satzes mit anderen Worten, wobei die ursprüngliche Bedeutung bestehen bleibt. Im genetischen Kontext bedeutet dies, dass die Anordnung der DNA-Basen verändert wird, das resultierende Protein aber weiterhin seine gefährliche Wirkung entfalten könnte.
Über 75.000 unerkannte Varianten
Das Team nutzte ein KI-Programm, um mehr als 75.000 verschiedene Varianten der DNA-Codes für gefährliche Proteine zu erstellen. Anschließend testeten sie, ob die weltweit von Herstellern synthetischer DNA eingesetzten Sicherheitssysteme diese veränderten Sequenzen als Bedrohung erkennen würden.
„Zu unserer Besorgnis schlüpften diese neu formulierten Sequenzen an den Biosicherheits-Screening-Systemen vorbei“, erklärte Horvitz. Die bestehenden Schutzmaßnahmen, die darauf ausgelegt sind, Bestellungen für bekannte Gefahren wie Pocken- oder Milzbrand-Gene zu identifizieren, waren gegen diese KI-generierten Varianten nicht durchgängig wirksam.
Ein Weckruf für die Biosicherheit
Die Studie ist ein konkreter Beweis dafür, wie schnell sich KI-Technologien entwickeln und bestehende Sicherheitskonzepte herausfordern. Sie zeigt, dass reaktive Maßnahmen möglicherweise nicht ausreichen, um mit dem Tempo der KI-Innovation Schritt zu halten.
Eine Sicherheitslücke und die Reaktion darauf
Die Entdeckung dieser Schwachstelle führte zu einer schnellen Reaktion. Die Forscher entwickelten umgehend einen Patch für die Screening-Software, um die Erkennungsrate zu verbessern. Dieser wurde bereits implementiert, um die Sicherheitslücke zu schließen.
Allerdings ist die Lösung nicht perfekt. Selbst mit dem Update wurde ein kleiner Teil der KI-generierten Varianten weiterhin nicht erkannt. Dies unterstreicht die Komplexität des Problems und die Notwendigkeit kontinuierlicher Anpassungen der Sicherheitsprotokolle.
„Hier haben wir ein System, in dem wir Schwachstellen identifizieren. Und was Sie sehen, ist ein Versuch, die bekannten Schwachstellen zu korrigieren.“
Die Episode ist ein weiteres Beispiel dafür, wie künstliche Intelligenz langjährige Bedenken hinsichtlich des potenziellen Missbrauchs leistungsfähiger biologischer Werkzeuge verschärft.
Der Konflikt zwischen offener Wissenschaft und Sicherheit
Die Veröffentlichung der Studie wirft grundlegende Fragen zur wissenschaftlichen Praxis auf. Normalerweise sind offene Diskussionen und die unabhängige Überprüfung von Ergebnissen das Fundament des wissenschaftlichen Fortschritts. In diesem Fall entschieden sich die Forscher und das Journal Science jedoch für einen restriktiveren Ansatz.
Um zu verhindern, dass die Methoden in die falschen Hände geraten, werden die vollständigen Daten und die verwendete Software nicht frei zugänglich gemacht. Stattdessen wurde eine gemeinnützige Organisation, die International Biosecurity and Biosafety Initiative for Science (IBBIS), damit beauftragt, den Zugang zu verwalten. Nur Forscher mit einem legitimen wissenschaftlichen Bedarf erhalten Zugriff.
„Dies ist das erste Mal, dass ein solches Modell eingesetzt wird, um die Risiken der Weitergabe gefährlicher Informationen in einer wissenschaftlichen Publikation zu steuern“, so Horvitz. Dieser Schritt wird von vielen Experten im Bereich der Biosicherheit gelobt, wirft aber auch die Frage auf, wie zukünftig mit ähnlich sensiblen Forschungsergebnissen umgegangen werden soll.
Frühere Warnungen aus der KI-Forschung
Dies ist nicht das erste Mal, dass Wissenschaftler das Missbrauchspotenzial von KI im biologischen und chemischen Bereich untersuchen. Vor einigen Jahren nutzte ein anderes Team eine KI, um neue Moleküle mit den Eigenschaften von Nervenkampfstoffen zu entwickeln. Innerhalb von weniger als sechs Stunden erzeugte das System 40.000 potenziell tödliche Moleküle, darunter bekannte Kampfstoffe wie VX sowie viele bisher unbekannte Verbindungen.
Eine Branche zwischen Besorgnis und Beruhigung
Experten wie David Relman von der Stanford University sehen in der Studie eine Bestätigung für ein „enormes Problem, das sich zusammenbraut“. Er vergleicht die rasante Entwicklung der KI mit einem „Güterzug, der immer schneller die Gleise entlangrast und zu entgleisen droht“.
Gleichzeitig gibt es Stimmen aus der Industrie, die zur Mäßigung aufrufen. James Diggans, Leiter für Politik und Biosicherheit bei Twist Bioscience, einem der größten Anbieter für maßgeschneiderte DNA, betont, wie selten Missbrauchsversuche tatsächlich sind. In den letzten zehn Jahren musste sein Unternehmen weniger als fünf Bestellungen an die Strafverfolgungsbehörden melden.
„Dies ist eine unglaublich seltene Sache“, sagt Diggans. „In der Cybersicherheit gibt es eine Vielzahl von Akteuren, die versuchen, auf Systeme zuzugreifen. Das ist in der Biotechnologie nicht der Fall.“ Er argumentiert, dass die Zahl der Personen, die tatsächlich versuchen, biologische Werkzeuge für schädliche Zwecke zu missbrauchen, „sehr nahe bei null liegen könnte“.
Dennoch bleibt die Herausforderung bestehen, die Schutzmaßnahmen kontinuierlich an die rasanten Fortschritte der künstlichen Intelligenz anzupassen. Die Studie dient als wichtiger Denkanstoß für Wissenschaftler, Unternehmen und politische Entscheidungsträger, proaktiv neue Sicherheitsstrategien für das Zeitalter der KI zu entwickeln.





