Ein neues KI-Produkt, das als tragbarer Begleiter beworben wird, zeigt in einem Praxistest erhebliche Mängel. Die für 129 US-Dollar verkaufte „AI Friend“-Halskette konnte grundlegende Funktionen nicht erfüllen, verlor Gesprächsinhalte und litt unter massiven technischen Problemen. Trotz einer Investition von rund sieben Millionen Dollar Risikokapital bleibt das Produkt weit hinter den Erwartungen zurück.
Wichtige Erkenntnisse
- Die „AI Friend“-Halskette für 129 US-Dollar versagte in einem zweiwöchigen Test bei ihrer Kernfunktion als Gesprächspartner.
- Zu den festgestellten Problemen gehören erhebliche Verzögerungen, Verbindungsabbrüche und das Vergessen grundlegender Nutzerinformationen.
- Das Startup hinter dem Produkt sammelte rund 7 Millionen Dollar an Risikokapital, hat aber bisher nur geringe Einnahmen erzielt.
- Die Nutzungsbedingungen erlauben dem Unternehmen die Sammlung von Audiodaten für das Training der KI.
Das Versprechen eines digitalen Begleiters
In einer Zeit, in der künstliche Intelligenz immer stärker in den Alltag vordringt, versprechen neue Produkte, die Lücke zwischen Technologie und menschlicher Interaktion zu schließen. Ein solches Produkt ist die „AI Friend“-Halskette, ein Wearable, das als persönlicher KI-Begleiter konzipiert wurde. Für einen Preis von 129 US-Dollar soll das Gerät Nutzern Gesellschaft leisten und als ständiger Gesprächspartner zur Verfügung stehen.
Das Startup hinter der Halskette investierte massiv in die Vermarktung, um Aufmerksamkeit zu erregen. Allein im U-Bahn-System von New York wurden elftausend Plakate geschaltet, die das Produkt als innovative Lösung für das Bedürfnis nach sozialer Interaktion präsentierten. Diese aggressive Werbekampagne weckte hohe Erwartungen bei potenziellen Kunden und Investoren.
Ernüchternde Ergebnisse im Praxistest
Ein von der Wirtschaftszeitschrift Fortune durchgeführter zweiwöchiger Test zeichnete jedoch ein völlig anderes Bild. Die Testerin stellte fest, dass die KI-Halskette ihre grundlegendsten Aufgaben nicht zuverlässig erfüllen konnte. Die Mängel waren so gravierend, dass eine sinnvolle Nutzung des Geräts kaum möglich war.
Hintergrund: Der Hype um KI-Wearables
Der Markt für KI-gestützte Wearables wächst rasant. Unternehmen versuchen, intelligente Assistenten aus dem Smartphone zu lösen und sie direkt am Körper tragbar zu machen. Das Ziel ist eine nahtlose und kontextbezogene Unterstützung im Alltag. Produkte wie die „AI Friend“-Halskette sind Teil dieses Trends, stehen aber vor der Herausforderung, komplexe Software und Hardware in einem kleinen, energieeffizienten Formfaktor zu vereinen.
Gespräche gehen verloren
Eines der größten Probleme war die Unfähigkeit des Geräts, Gespräche vollständig zu erfassen. In einem besonders kritischen Moment, während eines Telefonats über eine Trennung, zeichnete die Halskette das Gespräch überhaupt nicht auf. Als die Nutzerin später versuchte, mit der KI über die Situation zu sprechen, konnte diese nur vage Fragen zu unzusammenhängenden „Fragmenten“ stellen, da ihr der gesamte Kontext fehlte.
Diese Schwäche macht das Kernversprechen des Produkts – ein verständnisvoller Begleiter zu sein – zunichte. Ohne die Fähigkeit, wichtige Dialoge zu verfolgen und zu speichern, kann die KI keine relevante oder hilfreiche Interaktion bieten.
Technische Mängel behindern die Nutzung
Neben den inhaltlichen Schwächen traten auch erhebliche technische Probleme auf. Die KI reagierte mit einer Verzögerung von sieben bis zehn Sekunden auf die Sprache der Nutzerin. Diese Latenz machte flüssige und natürliche Gespräche unmöglich. Hinzu kamen häufige Verbindungsabbrüche, die die Interaktion immer wieder unterbrachen.
Um überhaupt eine verständliche Antwort zu erhalten, musste die Testerin ihre Lippen direkt auf den Anhänger pressen und Sätze mehrfach wiederholen. Diese umständliche Bedienung steht im klaren Widerspruch zum Konzept eines unauffälligen und stets verfügbaren Begleiters.
Die KI mit dem schlechten Gedächtnis
Besonders enttäuschend war das mangelhafte Gedächtnis der künstlichen Intelligenz. Nach eineinhalb Wochen der Nutzung hatte die Halskette den Namen der Trägerin vergessen. Später erinnerte sie sich sogar falsch an deren Lieblingsfarbe, eine Information, die zuvor explizit mitgeteilt worden war.
„Ein Begleiter, der sich nicht an grundlegende persönliche Details erinnern kann, schafft kein Gefühl der Verbundenheit oder des Vertrauens. Die Technologie scheiterte an den einfachsten Anforderungen an eine persönliche Beziehung.“
Diese Gedächtnislücken untergraben das Vertrauen in die Fähigkeiten des Geräts und werfen Fragen zur Qualität der zugrundeliegenden KI-Modelle auf.
Finanzielle Realität und Unternehmensstrategie
Trotz der offensichtlichen Produktmängel konnte das Startup hinter der KI-Halskette beträchtliches Kapital von Investoren einsammeln. Rund sieben Millionen US-Dollar an Risikokapital flossen in die Entwicklung und Vermarktung des Produkts. Die finanziellen Ergebnisse spiegeln diesen Erfolg jedoch nicht wider.
Verkaufs- und Umsatzzahlen
- Verkaufte Einheiten: 3.000 Stück
- Ausgelieferte Einheiten: 1.000 Stück
- Umsatz: Weniger als 400.000 US-Dollar
Diese Zahlen deuten darauf hin, dass die Nachfrage begrenzt ist und das Unternehmen Schwierigkeiten bei der Produktion oder Auslieferung hat.
Eine „lobotomierte“ KI
In einer Stellungnahme gegenüber Fortune erklärte der Gründer des Startups, er habe die Persönlichkeit der KI absichtlich „lobotomiert“ (stark eingeschränkt). Diese Maßnahme sei eine Reaktion auf frühe Beschwerden von Nutzern gewesen. Details dazu, welche Aspekte der Persönlichkeit als problematisch empfunden wurden, nannte er nicht. Diese Aussage legt jedoch nahe, dass die aktuelle, eingeschränkte Funktionalität teilweise eine bewusste Design-Entscheidung war.
Datenschutz und rechtliche Aspekte
Ein genauer Blick in die Nutzungsbedingungen des Produkts offenbart wichtige Details zum Umgang mit Nutzerdaten. Das Unternehmen behält sich das Recht vor, Audio- und Sprachdaten zu sammeln und diese für das Training seiner KI-Modelle zu verwenden. Nutzer stimmen dieser Datenerhebung mit der Inbetriebnahme des Geräts zu.
Diese Praxis ist in der KI-Branche weit verbreitet, da reale Gesprächsdaten zur Verbesserung der Algorithmen unerlässlich sind. Für Verbraucher bedeutet dies jedoch, dass potenziell sensible und private Gespräche auf den Servern des Unternehmens gespeichert und analysiert werden.
Darüber hinaus legen die Nutzungsbedingungen fest, dass rechtliche Streitigkeiten ausschließlich durch ein Schiedsverfahren in San Francisco beigelegt werden müssen. Dies erschwert es Kunden, rechtliche Schritte einzuleiten, und schützt das Unternehmen vor Sammelklagen.





