Google hat eine bedeutende Aktualisierung für seinen KI-Modus in der Bildsuche angekündigt, die zunächst für Nutzer in den USA verfügbar ist. Die neue Funktion ermöglicht es, Produkte und Bilder durch natürliche, umgangssprachliche Beschreibungen zu finden, anstatt sich auf präzise Schlüsselwörter und Filter verlassen zu müssen. Dieser Schritt zielt darauf ab, das Online-Shopping und die visuelle Inspiration intuitiver zu gestalten.
Wichtige Erkenntnisse
- Google führt eine konversationelle Bildsuche im KI-Modus ein, die es Nutzern ermöglicht, Anfragen in natürlicher Sprache zu formulieren.
- Die Funktion wird zunächst in englischer Sprache für Nutzer in den Vereinigten Staaten ausgerollt.
- Nutzer können ihre Suchergebnisse durch Folgefragen schrittweise verfeinern, ähnlich wie in einem Gespräch.
- Die Technologie basiert auf den multimodalen Fähigkeiten von Gemini 2.5 und kombiniert Text- mit Bildanalysen.
Eine neue Art der visuellen Suche
Die traditionelle Bildsuche basiert oft auf exakten Begriffen oder der Verwendung von Filtern wie Farbe, Marke oder Größe. Google möchte diesen Prozess nun grundlegend verändern. Mit dem neuesten Update für den KI-Modus können Nutzer ihre Wünsche so formulieren, als würden sie sich mit einem Freund unterhalten.
Laut der Ankündigung von Google können Nutzer nun "eine Frage in einem Gesprächsstil stellen und eine Reihe von visuellen Ergebnissen erhalten". Dies soll den Suchprozess natürlicher und weniger technisch gestalten. Die KI ist darauf ausgelegt, auch vage Beschreibungen und subjektive Kriterien wie einen bestimmten "Stil" oder ein "Gefühl" zu interpretieren.
Praktische Anwendungsbeispiele
Um die Funktionsweise zu verdeutlichen, nennt Google konkrete Beispiele. Ein Nutzer könnte nach "Barrel Jeans, die nicht zu weit sind" suchen. Anstatt neue Suchanfragen zu starten, kann die Suche verfeinert werden, indem Folgefragen gestellt werden, wie zum Beispiel "Ich möchte mehr knöchellange Modelle" oder "Zeig mir Varianten in Acid-Washed-Optik".
Das System reagiert auf diese Anfragen, indem es eine angepasste Auswahl an kaufbaren Produkten anzeigt. Die Ergebnisse enthalten direkte Links zu den Webseiten der Händler, was den Übergang vom Suchen zum Kaufen vereinfacht. Dieser Fokus auf E-Commerce unterstreicht Googles Bestreben, die Suche stärker in kommerzielle Transaktionen zu integrieren.
Mehr als nur Shopping
Obwohl der Schwerpunkt auf dem Online-Einkauf liegt, ist die Funktion auch für allgemeine visuelle Recherchen konzipiert. Nutzer können sie beispielsweise verwenden, um Inspiration für die Inneneinrichtung zu finden oder Ideen für kreative Projekte zu sammeln, indem sie Stimmungen und Stile beschreiben.
Die technologische Grundlage
Die neue konversationelle Suche ist das Ergebnis einer Kombination mehrerer fortschrittlicher Technologien von Google. Sie baut auf den bestehenden Funktionen von Google Search mit Lens und der Bildersuche auf und wird durch die neuesten Entwicklungen im Bereich der künstlichen Intelligenz ergänzt.
Die Rolle von Gemini 2.5
Eine zentrale Komponente ist Gemini 2.5, Googles leistungsstarkes KI-Modell. Dessen multimodale Fähigkeiten sind entscheidend für die neue Suchfunktion. Multimodal bedeutet, dass die KI in der Lage ist, Informationen aus verschiedenen Quellen – in diesem Fall Text und Bilder – gleichzeitig zu verarbeiten und zu verstehen.
"Sie werden reichhaltige visuelle Darstellungen sehen, die zu dem von Ihnen gesuchten Stil passen, und können auf die für Sie natürlichste Weise nachfragen, zum Beispiel nach weiteren Optionen mit dunklen Tönen und auffälligen Mustern fragen." – Google in seiner offiziellen Ankündigung.
Dank Gemini 2.5 kann der KI-Modus feine Details und sogar sekundäre Objekte in Bildern erkennen. Dies ermöglicht ein tieferes Verständnis des visuellen Kontexts und führt zu relevanteren und nuancierteren Suchergebnissen, die über eine einfache Stichwortübereinstimmung hinausgehen.
Kombination von Bild und Text
Ein weiteres Merkmal der neuen Funktion ist die Möglichkeit, eine Suche mit einem Bild zu beginnen. Nutzer können ein Foto hochladen oder direkt aufnehmen, um visuell ähnliche Ergebnisse zu erhalten. Anschließend kann diese bildbasierte Suche durch textliche Anweisungen weiter verfeinert werden. Diese hybride Vorgehensweise macht es einfacher, genau das zu finden, was man sucht, auch wenn die passenden Worte fehlen.
Der Wandel hin zur intuitiven KI-Interaktion
Dieses Update ist Teil eines größeren Trends in der Technologiebranche: die Entwicklung von Benutzeroberflächen, die menschlicher Kommunikation nachempfunden sind. Statt dass der Mensch die Sprache der Maschine lernen muss (z.B. durch die Verwendung von Operatoren wie "AND" oder "OR"), lernt die Maschine, die natürliche Sprache des Menschen zu verstehen.
Für Google bedeutet dies eine strategische Weiterentwicklung seiner Kernkompetenz. Die Suche wird von einer reinen Informationsabfrage zu einem interaktiven Dialog. Dies könnte langfristig die Art und Weise verändern, wie Nutzer mit Suchmaschinen interagieren, und die Erwartungen an digitale Assistenten erhöhen.
Was bedeutet das für den E-Commerce?
Für Online-Händler eröffnet diese Technologie neue Möglichkeiten. Die Fähigkeit der KI, vage Wünsche in konkrete Produktvorschläge zu übersetzen, kann die Entdeckungsphase beim Online-Shopping erheblich verbessern. Kunden, die nur eine ungefähre Vorstellung von einem Produkt haben, könnten so effektiver zu einem Kauf geführt werden.
- Verbesserte Produktfindung: Kunden können Produkte basierend auf Stil und Ästhetik finden, nicht nur nach Kategorien.
- Reduzierte Kaufabbrüche: Eine präzisere Suche kann die Frustration der Nutzer verringern und die Wahrscheinlichkeit eines Kaufs erhöhen.
- Neue Marketingansätze: Händler müssen möglicherweise ihre Produktbeschreibungen und Bilder optimieren, um von einer KI, die auf Nuancen achtet, besser erfasst zu werden.
Verfügbarkeit und Ausblick
Die Einführung der neuen visuellen Suchfunktionen im KI-Modus erfolgt schrittweise. Zunächst wird das Update in englischer Sprache für Nutzer in den USA ausgerollt. Es kann einige Tage dauern, bis die Funktion für alle berechtigten Nutzer sichtbar ist.
Google hat noch keine Angaben dazu gemacht, wann eine Ausweitung auf weitere Sprachen und Regionen geplant ist. Es ist jedoch wahrscheinlich, dass die Funktion nach einer erfolgreichen Testphase in den USA auch international verfügbar gemacht wird. Die gesammelten Daten aus der ersten Einführungsphase werden entscheidend sein, um das Modell für andere Märkte und Sprachen zu trainieren und zu optimieren.





