Der Gründer des als besonders sicher geltenden Messengers Signal, Moxie Marlinspike, hat einen neuen KI-Assistenten namens Confer vorgestellt. Das System wurde von Grund auf mit dem Ziel entwickelt, die Privatsphäre der Nutzer zu schützen und sicherzustellen, dass keine Konversationen gespeichert, analysiert oder an Dritte weitergegeben werden können.
Das Wichtigste in Kürze
- Confer ist ein neuer KI-Assistent, der von Signal-Gründer Moxie Marlinspike entwickelt wurde.
- Der Fokus liegt auf maximaler Privatsphäre durch Verschlüsselung und den Verzicht auf Datenspeicherung.
- Im Gegensatz zu Diensten wie ChatGPT ist der Datenschutz bei Confer standardmäßig aktiviert und nicht nur eine Option.
- Eine spezielle Funktion ermöglicht es Nutzern, den auf den Servern laufenden Code zu überprüfen.
Ein neuer Ansatz für KI-Privatsphäre
In einer Zeit, in der das Vertrauen in den Umgang von Technologieunternehmen mit Nutzerdaten schwindet, betritt ein neuer Akteur die Bühne der künstlichen Intelligenz. Confer, entwickelt von dem für seine Arbeit an der Verschlüsselungstechnologie von Signal bekannten Moxie Marlinspike, will das Konzept privater Konversationen auf KI-Systeme übertragen.
Die grundlegende Prämisse von Confer ist einfach: Was Sie dem KI-Assistenten sagen, bleibt privat. Das System ist so konzipiert, dass nicht einmal die Betreiber selbst auf die Inhalte der Chats zugreifen können. Dieser Ansatz steht im direkten Kontrast zu vielen etablierten KI-Diensten, bei denen Nutzerdaten oft zur Verbesserung der Modelle oder für andere Zwecke verwendet werden.
Wie die Technologie den Datenschutz gewährleistet
Um dieses hohe Maß an Vertraulichkeit zu erreichen, setzt Confer auf mehrere technologische Säulen. Die gesamte Kommunikation wird standardmäßig verschlüsselt. Die dafür notwendigen kryptografischen Schlüssel, sogenannte Passkeys, werden ausschließlich auf dem Gerät des Nutzers gespeichert und verlassen dieses zu keinem Zeitpunkt.
Selbst wenn Chats zwischen verschiedenen Geräten eines Nutzers synchronisiert werden, stellt das Design sicher, dass die Entschlüsselung nur auf diesen autorisierten Geräten möglich ist. Die Server, die die Anfragen verarbeiten, fungieren lediglich als Vermittler, ohne Einblick in die Daten zu haben.
Hintergrund: Datenschutzprobleme bei etablierten KI-Diensten
In der Vergangenheit gab es immer wieder Vorfälle, die das Vertrauen in große KI-Anbieter erschütterten. So wurde OpenAI gerichtlich dazu verpflichtet, sämtliche Nutzerprotokolle von ChatGPT aufzubewahren, selbst wenn diese gelöscht wurden. In einem anderen Fall tauchten private ChatGPT-Konversationen durch versehentlich veröffentlichte Links in den Suchergebnissen von Google auf. Solche Ereignisse verdeutlichen die Notwendigkeit von Systemen, bei denen der Datenschutz fest im Design verankert ist.
Die Rolle der "Trusted Execution Environment"
Ein zentrales technisches Merkmal von Confer ist der Einsatz einer sogenannten "Trusted Execution Environment" (TEE). Man kann sich dies als eine Art versiegelten, sicheren Bereich auf einem Server vorstellen. In dieser abgeschirmten Umgebung werden die Nutzeranfragen verarbeitet.
Selbst Administratoren mit vollem Zugriff auf den Server können nicht auf die Prozesse oder Daten innerhalb dieser TEE zugreifen. Dadurch wird sichergestellt, dass sensible Nutzerdaten die verschlüsselte "Blase" niemals verlassen.
Radikale Transparenz als Vertrauensbasis
Confer geht noch einen Schritt weiter als die meisten auf Privatsphäre ausgerichteten Produkte und bietet eine Funktion namens "Remote Attestation". Diese Technologie ermöglicht es jedem, aus der Ferne zu überprüfen, welcher Code exakt auf den Servern von Confer ausgeführt wird.
Die Entwickler veröffentlichen den gesamten Software-Stack und versehen jede Version mit einer digitalen Signatur. Für technisch versierte Nutzer, Organisationen oder Sicherheitsforscher bedeutet dies eine beispiellose Transparenz. Sie müssen sich nicht auf das Versprechen der Betreiber verlassen, sondern können die Einhaltung der Datenschutzrichtlinien selbst verifizieren.
Standardmäßig privat: Bei den meisten KI-Chatbots ist die Datenerfassung standardmäßig aktiviert. Nutzer müssen aktiv werden und die entsprechenden Einstellungen in den Menüs suchen, um die Verwendung ihrer Daten für Trainingszwecke zu deaktivieren. Confer kehrt dieses Prinzip um – der Schutz der Privatsphäre ist die Werkseinstellung.
Der entscheidende Unterschied zu ChatGPT und Gemini
Während Konkurrenten wie ChatGPT von OpenAI, Gemini von Google oder Meta AI ebenfalls Datenschutzeinstellungen anbieten, ist ihr grundlegender Ansatz ein anderer. Dort ist die Überwachung und Datensammlung der Standardzustand, und der Nutzer trägt die Verantwortung, sich durch Menüs zu klicken und einzelne Funktionen zu deaktivieren (Opt-out).
Confer implementiert ein "Privacy-by-Design"-Modell. Der Schutz der Daten ist kein optionales Extra, sondern der Kern des Systems. Es gibt keine Daten, die für das Training von Modellen verwendet, für rechtliche Anfragen protokolliert oder an Werbepartner verkauft werden könnten.
- ChatGPT/Gemini: Datenschutz ist eine Option, die der Nutzer aktiv wählen muss (Opt-out).
- Confer: Datenschutz ist die Standardeinstellung, die fest im System verankert ist (Privacy-by-Default).
Für wen ist eine private KI sinnvoll?
Die Zielgruppe für einen Dienst wie Confer ist breit gefächert. Einerseits richtet er sich an Privatpersonen, die Bedenken haben, persönliche oder sensible Informationen mit einer KI zu teilen. Andererseits könnte das System für professionelle Anwender und Organisationen von großem Interesse sein.
Einrichtungen wie Krankenhäuser, Anwaltskanzleien oder Schulen verarbeiten hochsensible Daten und unterliegen strengen Vertraulichkeitsanforderungen. Eine KI, die von vornherein garantiert, keine Daten abfließen zu lassen, könnte hier den Einsatz von KI-Technologien überhaupt erst ermöglichen. Die Nachfrage nach KI-Werkzeugen, die von Natur aus vergesslich sind, dürfte mit zunehmendem Bewusstsein für Datenschutzrisiken weiter steigen.





