
Erkennt Google bald ganze Szenen statt Objekte? Definitiv.

Markus Seyfferth
Autor Dr. WebGoogle aktualisiert Circle to Search und Lens mit einem Multi-Objekt-Modus. Statt einzelner Treffer liefert die KI jetzt gleichzeitig Ergebnisse für alle Elemente in einem Bild. Für Unternehmen mit visuellen Produkten ändert sich damit die Spielregel der Auffindbarkeit.
Kommt Ihnen das bekannt vor? Sie sehen ein perfekt eingerichtetes Wohnzimmer auf Instagram und wollen wissen, woher Lampe, Teppich und Sessel stammen. Bisher hieß das: jedes Objekt einzeln einkreisen, einzeln suchen, einzeln vergleichen. Die visuelle Suche von Google macht das ab sofort in einem Schritt.
Das Wichtigste in Kürze
- Circle to Search analysiert ab sofort mehrere Objekte in einem Bild gleichzeitig
- Googles Gemini-3-Modell steuert die neue Fan-out-Technik, die im Schnitt 10,7 parallele Suchanfragen pro Bild auslöst
- Google Lens verarbeitet inzwischen über 20 Milliarden visuelle Suchanfragen pro Monat
- Der AI Mode verbindet Text- und Bildersuche nahtlos miteinander

Was genau hat Google an Circle to Search verändert?
Bisher funktionierte Circle to Search nach dem Prinzip „ein Kreis, ein Treffer“. Sie markierten ein Objekt auf dem Bildschirm, und Google suchte nach genau diesem einen Element. Das Update vom Februar 2026 hebt diese Beschränkung auf. Kreisen Sie jetzt ein komplettes Outfit ein, erkennt die KI Jacke, Schuhe und Hut separat und liefert Ergebnisse für jedes Teil. Verfügbar ist das Ganze zunächst auf dem Samsung Galaxy S26 und den Pixel-10-Geräten.
Wie funktioniert die Fan-out-Technik dahinter?
Die Technik heißt intern „Query Fan-out“. Gemini 3 zerlegt ein Bild in seine Bestandteile, erkennt die einzelnen Objekte und startet für jedes eine eigene Suchanfrage. Laut Google-Vizepräsident Nick Fox löst das Modell dabei durchschnittlich 10,7 parallele Abfragen pro Eingabe aus. Die Ergebnisse fasst die KI anschließend in einer einzigen, strukturierten Antwort zusammen. Dounia Berrada, Senior Engineering Director bei Google Search, beschreibt das Zusammenspiel so: „Das KI-Modell ist das Gehirn, das das Bild versteht, während das visuelle Such-Backend die Bibliothek mit Milliarden von Web-Ergebnissen ist.“
„Visuelle Produkte ohne optimierte Bilder verlieren ab sofort Sichtbarkeit. Multi-Objekt-Suche belohnt, was einzeln erkennbar und sauber ausgezeichnet ist.“
— Michael Dobler, Chefredakteur Dr. Web
Was bedeutet das für Unternehmen mit Online-Shop?
Die Anforderungen an Bild-SEO steigen spürbar. Bisher reichte ein sauber indexiertes Produktfoto mit strukturierten Daten. Jetzt muss jedes einzelne Objekt in einem Kontextbild erkennbar und zuordenbar sein. Shops für Mode, Möbel oder Einrichtung sollten ihre Produktbilder mit aussagekräftigen Dateinamen, präzisem Alt-Text und Schema-Markup versehen. Google zieht nach eigenen Angaben bereits über 50 Milliarden Produktlistings aus dem Shopping Graph heran, um visuelle Treffer mit Preis, Verfügbarkeit und Bewertungen anzureichern.
Brauchen Sie jetzt eine neue Bildstrategie?
Der AI Mode in der Google-Suche funktioniert auch ohne Startbild. Tippen Sie eine Textsuche wie „Büro-Outfit für den Sommer“ ein, zeigt Google visuelle Ergebnisse. Gefällt Ihnen ein Vorschlag, genügt ein Tipp auf das Bild, und der Fan-out-Prozess startet von dort. Text und Bild verschmelzen so zu einem nahtlosen Suchpfad. Die Trennung zwischen Text-SEO und Bild-SEO löst sich auf. Beide Disziplinen gehören ab sofort zusammen gedacht.
Mehr #Google News
Zum Newsletter anmelden
Kommen Sie wie über 6.000 andere Abonnenten in den Genuss des Dr. Web Newsletters. Als Dankeschön für Ihre Anmeldung erhalten Sie das große Dr. Web Icon-Set: 970 Icons im SVG-Format – kostenlos.






Schreiben Sie einen Kommentar