Google hatte auf der Entwicklerkonferenz I/O 2025 einige spannende KI-Neuerungen im Gepäck und zudem die eigene, KI-zentrierte Zukunftsvision präsentiert. Im Zentrum stand das bereits zuvor vorgestellte multimodale KI-Modell Gemini 2.5 Pro, das als Grundlage für einen universellen digitalen Assistenten dienen soll.
Google spricht von einem "World Model", das die Welt um sich herum verstehen und entsprechend reagieren kann. Für diesen Zweck entwickelt das Unternehmen die Gemini-App weiter und spendiert ihr unter anderem Funktionen wie Sprachverarbeitung, Videoverständnis und ein Langzeitgedächtnis. "Unsere ultimative Vision ist es, die Gemini-App in einen universellen KI-Assistenten zu verwandeln, der alltägliche Aufgaben für uns erledigt, sich um unsere Verwaltungsaufgaben kümmert und uns attraktive neue Empfehlungen gibt – der uns also produktiver macht und unser Leben bereichert", erklärt Google Deepmind-CEO Demis Hassabis in einem
Blog-Beitrag. Damit starte man nun im Zuge neuer Fähigkeiten wie Videoverständnis, Bildschirmfreigabe und einer Gedächtnis-Funktion. Zudem spricht Hassabis davon, diese Möglichkeiten auch auf neue Formfaktoren zu übertragen, beispielsweise Smart Glasses (mehr dazu lesen Sie weiter unten).
Projet Mariner: mehr Human-Agent-Interaction
Unter dem Namen Project Mariner arbeitet
Google parallel zudem an einem System, das Nutzer beim Multitasking unterstützen soll, vorerst vor allem im Browser. Das System aus KI-Agents kann aktuell zehn Aufgaben gleichzeitig erledigen und beispielsweise Informationen sammeln, Buchungen übernehmen oder für den Nutzer shoppen. Der Zugang ist allerdings zunächst auf die USA und die englische Sprache beschränkt.
Hassabis spricht im Zuge der KI-Ankündigungen vollmundig von einem "neuen goldenen Zeitalter der Entdeckungen und Wunder". Darunter stellt sich Google vor allem eine sukzessive Integration der maschinellen Helfer in den Alltag vor.
AI Mode: KI-Funktionen für die Suche
Aber auch die klassische Suche hat
Google mit neuen KI-Funktionen ausgestattet, und das nicht zu knapp. Der sogenannte AI Mode soll tiefergehende Suchergebnisse und multimodale Eingaben bieten, hinzu kommt die Möglichkeit, Themen durch Folgefragen weiter aufzuschlüsseln. Als Teil des AI Mode kann Deep Search laut Google zudem noch gründlichere Antworten liefern und diese in einem entsprechenden Bericht zusammenfassen, das auch auf Basis von hochgeladenen Bildern und Dokumenten. Aber auch die Kamera wird einbezogen: Als Quasi-Nachfolge für Lens führt Google mit Search Live die Möglichkeit ein, Echtzeitaufzeichnungen mithilfe der KI zu analysieren und darüber zu sprechen. "Wenn Sie zum Beispiel bei einem Projekt nicht weiterkommen und Hilfe brauchen, tippen Sie einfach auf das Live-Symbol im KI-Modus oder im Objektiv, richten Sie die Kamera aus und stellen Sie Ihre Frage. So wird die Suchfunktion zu einem Lernpartner, der sieht, was Sie sehen. Sie erklärt knifflige Konzepte und bietet Vorschläge sowie Links zu verschiedenen Ressourcen, die Sie erkunden können", führt Google Anwendungsszenarien aus.
Darüber hinaus hatte das Unternehmen noch einige weitere KI-Neuheiten auf der Entwicklerkonferenz in petto, darunter ein Agent Mode für komplexe Aufgaben, eine Gemini-Integration für Chrome sowie ein Create-Menü in Canvas für interaktive Timelines, Rätsel oder Audio-Zusammenfassungen im Podcast-Format. Das Bilderstellungsmodell Imagen 4 soll Bilder zudem zehnmal schneller generieren als die Vorgängerversion. Veo 3 stattet Videos nun erstmals auch mit Audio aus. Last but not least liefert Google mit Flow ein KI-basiertes Werkzeug speziell für Filmemacher.
Und wer wirklich alles aus seiner KI rausholen möchte, kann (vorerst nur in den USA) rund 250 Dollar in das Premium-Abo Gemini Ultra investieren. Mit diesem soll dann "maximaler Zugang" zu Google KI-Modellen und -Funktionen einhergehen. Und wer es personalisierter mag, dem eröffnet der Konzern auf Wunsch die Möglichkeit, auf Google-Informationen des Nutzers zuzugreifen, um die KI an diesen auszurichten.
Google Glasses 2.0
Die grösste Überraschung der I/O 2025 war fernab der KI-Modelle sicherlich die detailiertere Vorstellung von Googles Android XR. Nach den wenig erfolgreichen
Google Glasses feiert Google mit der Software-Plattform den Wiedereinstieg in den Markt für Smart Galsses. Allerdings liefert der Konzern nur die Software, die Hardware kommt von Partnern wie Xreal und Samsung. Die Brillen sollen mit Kamera, Mikrofonen und Lautsprechern sowie in Varianten mit und ohne Display kommen. Mit Display können dann Navigationsinformationen oder Nachrichten angezeigt werden, die Brille erlaubt zudem durch die Interaktion mit dem Smartphone den Zugriff auf Apps. Und natürlich ist auch hier Gemini mit an Bord, um direkt zu analysieren, was auch die Nutzer sehen.
Der chinesische Hersteller Xreal hat parallel zur Android XR-Präsentation direkt ein passendes erstes Android XR-Brillenmodell namens Project Aura vorgestellt. Wann die Smart Glasses auf den Markt kommen und was sie kosten sollen, steht allerdings noch nicht fest.
(sta)