Google arbeitet daran, seine neuen KI-Funktionen zur Bildbearbeitung, bekannt unter dem Codenamen „Nano Banana“, tief in das Android-Betriebssystem zu integrieren. Neue Hinweise in der Beta-Version der Google-App deuten auf eine bevorstehende Erweiterung von Google Lens und Circle to Search hin, die Nutzern bald direkte Bearbeitungsmöglichkeiten auf ihren Geräten bieten könnte.
Die Analyse der App-Version 16.40.18.sa.arm64 zeigt versteckte Benutzeroberflächen, die auf eine umfassende Strategie zur Verbreitung der KI-Werkzeuge hindeuten. Diese Funktionen sind für Endnutzer noch nicht sichtbar, geben aber einen klaren Einblick in die Entwicklungsrichtung von Google.
Wichtige Erkenntnisse
- Google integriert seine KI-Bildbearbeitung „Nano Banana“ in weitere Android-Funktionen.
- Hinweise wurden in der Google-App-Version 16.40.18.sa.arm64 entdeckt.
- Google Lens erhält eine neue „Erstellen“-Option neben den bekannten Funktionen Suchen und Übersetzen.
- Auch die Funktion „Circle to Search“ wird um die KI-Bearbeitung erweitert, befindet sich aber noch in einem frühen Entwicklungsstadium.
- Die neuen Oberflächen sind noch nicht öffentlich zugänglich, deuten aber auf eine baldige Veröffentlichung hin.
Neue Funktionen in Google Lens entdeckt
Die deutlichsten Anzeichen für die bevorstehende Erweiterung finden sich in der Google Lens-Oberfläche. Bisher konzentrierte sich Lens auf das Erkennen, Suchen und Übersetzen von Inhalten in Bildern. Die Analyse des App-Codes zeigt jedoch, dass Google plant, zwei neue Optionen hinzuzufügen: „Live“ und „Erstellen“.
Die Option „Erstellen“ ist direkt mit der „Nano Banana“-Technologie verbunden. Beim Auswählen dieser Funktion wird eine animierte Einführung angezeigt, die den Nutzer auffordert, Bilder aufzunehmen, zu bearbeiten und zu teilen. Dies signalisiert eine Verschiebung von einer rein analytischen zu einer kreativen Anwendung für Google Lens.
So funktioniert die neue Bearbeitungsoberfläche
Nach der Auswahl der „Erstellen“-Option öffnet sich eine Benutzeroberfläche, die bereits aus früheren Analysen des KI-Modus der Google-Suche bekannt ist. Nutzer werden aufgefordert, in einem Textfeld zu beschreiben, welche Änderungen die KI am ausgewählten Bild vornehmen soll. Dieser Ansatz basiert auf der Verarbeitung natürlicher Sprache, um komplexe Bildmanipulationen durchzuführen.
Beispielsweise könnten Nutzer Anweisungen wie „Entferne die Personen im Hintergrund“ oder „Ändere die Farbe des Autos zu blau“ eingeben. Die KI würde diese Befehle interpretieren und das Bild entsprechend anpassen. Dieser intuitive Ansatz soll die Bildbearbeitung für eine breitere Nutzergruppe zugänglich machen, die keine Erfahrung mit professioneller Software hat.
Was ist „Nano Banana“?
„Nano Banana“ ist der interne Codename für eine Reihe von generativen KI-Funktionen von Google, die sich auf die Bildbearbeitung konzentrieren. Ähnlich wie bei anderen KI-Werkzeugen des Unternehmens zielt die Technologie darauf ab, komplexe Bearbeitungen durch einfache Texteingaben zu ermöglichen. Frühere Tests zeigten, dass die Technologie noch Schwierigkeiten mit unterschiedlichen Bildseitenverhältnissen hat, doch die fortschreitende Integration deutet auf signifikante Verbesserungen hin.
Integration in Circle to Search geplant
Neben Google Lens soll auch die relativ neue Funktion „Circle to Search“ von den KI-Werkzeugen profitieren. Mit Circle to Search können Nutzer Objekte auf ihrem Bildschirm einkreisen, um direkt Informationen darüber zu erhalten, ohne die aktuelle App verlassen zu müssen. Die Erweiterung um eine „Erstellen“-Funktion würde diesen Prozess logisch weiterführen.
Ein Nutzer könnte beispielsweise ein Bild in einer App einkreisen und dann direkt die KI-Bearbeitung starten. Die Analyse des Codes zeigt, dass die „Erstellen“-Schaltfläche bereits in der Oberfläche von Circle to Search vorbereitet wird. Im aktuellen Entwicklungsstand ist diese Schaltfläche jedoch noch nicht funktionsfähig. Sie reagiert nicht auf Eingaben, was darauf hindeutet, dass sich diese Integration in einer früheren Phase als die von Google Lens befindet.
Entwicklungsstand im Vergleich
- Google Lens: Die Integration scheint weit fortgeschritten. Die Benutzeroberfläche ist vorhanden, inklusive einer animierten Einführung und einem funktionierenden Eingabefeld für Bearbeitungsbefehle.
- Circle to Search: Die Entwicklung befindet sich in einem frühen Stadium. Die „Erstellen“-Option ist zwar sichtbar, aber noch ohne Funktion. Dies deutet auf einen späteren Veröffentlichungszeitpunkt hin.
Googles Strategie zur weitreichenden KI-Verfügbarkeit
Die parallele Entwicklung für Google Lens und Circle to Search ist kein Zufall. Sie ist Teil einer umfassenden Strategie, generative KI-Funktionen so vielen Nutzern wie möglich und an möglichst vielen Stellen im Android-System zur Verfügung zu stellen. Anstatt eine separate App für die Bildbearbeitung zu entwickeln, integriert Google die Technologie direkt in bestehende und häufig genutzte Werkzeuge.
Dieser Ansatz hat mehrere Vorteile:
- Niedrige Einstiegshürde: Nutzer müssen keine neue Anwendung erlernen, sondern können auf vertraute Funktionen zugreifen.
- Kontextbezogene Nutzung: Die Bearbeitung kann direkt dort stattfinden, wo ein Bild entdeckt oder aufgenommen wird.
- Stärkung des Ökosystems: Die Integration macht bestehende Google-Dienste leistungsfähiger und attraktiver im Wettbewerb.
Die Hinweise deuten auf eine konzertierte Anstrengung hin, ‚Nano Banana‘ an so vielen Stellen wie möglich zu platzieren. Es ist zu hoffen, dass wir bald aktualisierte und vor allem funktionale Fortschritte teilen können.
Die breite Integration könnte die Art und Weise, wie Millionen von Android-Nutzern mit Bildern interagieren, grundlegend verändern. Anstatt nur Informationen aus Bildern zu extrahieren, können sie diese bald mühelos an ihre Wünsche anpassen und kreativ verändern. Der Fokus liegt klar darauf, KI-gestützte Werkzeuge allgegenwärtig und intuitiv bedienbar zu machen.
Ausblick und nächste Schritte
Obwohl die neuen Funktionen bereits detailliert im Code der Google-App erkennbar sind, gibt es noch keinen offiziellen Zeitplan für die Veröffentlichung. In der Regel testet Google solche tiefgreifenden Änderungen zunächst intern und dann mit einer kleinen Gruppe von Beta-Testern, bevor sie für die Allgemeinheit freigeschaltet werden.
Es ist wahrscheinlich, dass die Integration in Google Lens zuerst erfolgen wird, da die Entwicklung hier am weitesten fortgeschritten scheint. Die Erweiterung von Circle to Search könnte einige Wochen oder Monate später folgen. Nutzer von Android-Geräten, insbesondere von Googles eigenen Pixel-Smartphones, dürften als Erste von den neuen KI-Funktionen profitieren.
Die Entwicklungen zeigen, dass Google seine Investitionen in künstliche Intelligenz weiter ausbaut und bestrebt ist, die Technologie nicht nur in spezialisierten Produkten, sondern als fundamentalen Bestandteil seiner Kernanwendungen zu etablieren. Die Zukunft der mobilen Fotografie und Bildbearbeitung wird damit zunehmend von intelligenten, sprachgesteuerten Assistenten geprägt sein.





