Alles, was auf der Google I/O 2024 angekündigt wurde, einschließlich Gemini AI, Project Astra, Android 15 und mehr


Am Ende der I/O, der jährlichen Entwicklerkonferenz von Google im Shoreline Amphitheatre in Mountain View, gab Google-CEO Sundar Pichai bekannt, dass das Unternehmen 121 Mal „KI“ gesagt hatte. Das war im Wesentlichen der Kernpunkt der zweistündigen Keynote von Google: KI in jede Google-App und jeden Google-Dienst zu stopfen, die von mehr als zwei Milliarden Menschen auf der ganzen Welt genutzt werden. Hier sind alle wichtigen Updates, die Google auf der Veranstaltung angekündigt hat.

Zwillinge ProZwillinge Pro

Google

Google hat ein brandneues KI-Modell namens Gemini 1.5 Flash angekündigt, das angeblich auf Geschwindigkeit und Effizienz optimiert ist. Flash liegt zwischen Gemini 1.5 Pro und Gemini 1.5 Nano, dem kleinsten Modell des Unternehmens, das lokal auf dem Gerät läuft. Google gab an, Flash entwickelt zu haben, weil die Entwickler ein leichteres und kostengünstigeres Modell als Gemini Pro wollten, um KI-gestützte Apps und Dienste zu erstellen und dabei einige Dinge wie ein langes Kontextfenster von einer Million Token beizubehalten, das Gemini Pro von Konkurrenzmodellen unterscheidet. Später in diesem Jahr wird Google das Kontextfenster von Gemini auf zwei Millionen Token verdoppeln, was bedeutet, dass es in der Lage sein wird, zwei Stunden Video, 22 Stunden Audio, mehr als 60.000 Zeilen Code oder mehr als 1,4 Millionen Wörter gleichzeitig zu verarbeiten .

Projekt AstraProjekt Astra

Google

Google stellte Project Astra vor, eine frühe Version eines universellen, auf KI basierenden Assistenten, von dem Demis Hassabis, CEO von Google DeepMind, sagte, es handele sich um Googles Version eines KI-Agenten, „der im Alltag hilfreich sein kann“.

In einem Video, das laut Google in einer einzigen Einstellung aufgenommen wurde, bewegt sich ein Astra-Nutzer durch das Londoner Büro von Google, hält sein Telefon hoch und richtet die Kamera auf verschiedene Dinge – einen Lautsprecher, einen Code auf einem Whiteboard und aus einem Fenster – und hat einen natürliche Konversation mit der App darüber, was es scheint. In einem der beeindruckendsten Momente des Videos teilt sie dem Benutzer korrekt mit, wo sie zuvor ihre Brille gelassen hat, ohne dass der Benutzer die Brille jemals zur Sprache gebracht hat.

Das Video endet mit einer Wendung: Als der Benutzer die fehlende Brille findet und trägt, erfahren wir, dass sie über ein integriertes Kamerasystem verfügt und Project Astra verwenden kann, um nahtlos ein Gespräch mit dem Benutzer fortzusetzen, was möglicherweise darauf hindeutet, dass Google möglicherweise funktioniert über einen Konkurrenten der Ray-Ban-Datenbrille von Meta.

Fragen Sie nach FotosFragen Sie nach Fotos

Google

Google Fotos war bereits intelligent, wenn es um die Suche nach bestimmten Bildern oder Videos ging, aber mit KI geht Google noch einen Schritt weiter. Wenn Sie Google One-Abonnent in den USA sind, können Sie Google Fotos eine komplexe Frage stellen, z. B. „Zeigen Sie mir das beste Foto aus jedem Nationalpark, den ich besucht habe“, wenn die Funktion in den nächsten Monaten eingeführt wird. Google Fotos verwendet GPS-Informationen sowie sein eigenes Urteil darüber, was „am besten“ ist, um Ihnen Optionen zu präsentieren. Sie können Google Fotos auch bitten, Bildunterschriften zu erstellen, um die Fotos in sozialen Medien zu veröffentlichen.

VeoVeo

Google

Die neuen KI-gestützten Medienerstellungs-Engines von Google heißen Veo und Imagen 3. Veo ist Googles Antwort auf Sora von OpenAI. Es kann „hochwertige“ 1080p-Videos produzieren, die „mehr als eine Minute“ dauern können, sagte Google, und kann filmische Konzepte wie einen Zeitraffer verstehen.

Imagen 3 hingegen ist ein Text-zu-Bild-Generator, von dem Google behauptet, dass er Text besser verarbeitet als seine Vorgängerversion Imagen 2. Das Ergebnis ist das qualitativ hochwertigste Text-zu-Bild-Modell des Unternehmens mit „unglaublichem Detaillierungsgrad“ für „ fotorealistische, lebensechte Bilder“ und weniger Artefakte – im Wesentlichen im Vergleich zu DALLE-3 von OpenAI.

Google-SucheGoogle-Suche

Google

Google nimmt große Änderungen an der grundsätzlichen Funktionsweise der Suche vor. Die meisten der heute angekündigten Updates umfassen die Möglichkeit, wirklich komplexe Fragen zu stellen („Finden Sie die besten Yoga- oder Pilates-Studios in Boston und zeigen Sie Details zu ihren Einführungsangeboten und der Gehzeit von Beacon Hill an.“) und die Verwendung der Suche zur Planung von Mahlzeiten und Urlauben Es ist nur verfügbar, wenn Sie sich für Search Labs anmelden, die Plattform des Unternehmens, auf der Benutzer experimentelle Funktionen ausprobieren können.

Aber eine große neue Funktion, die Google AI Overviews nennt und die das Unternehmen nun seit einem Jahr testet, wird endlich für Millionen von Menschen in den USA eingeführt. Die Google-Suche zeigt jetzt standardmäßig KI-generierte Antworten zusätzlich zu den Ergebnissen an, und das Unternehmen gibt an, dass es die Funktion bis Ende des Jahres mehr als einer Milliarde Nutzern auf der ganzen Welt zugänglich machen wird.

Zwillinge auf AndroidZwillinge auf Android

Google

Google integriert Gemini direkt in Android. Wenn Android 15 später in diesem Jahr veröffentlicht wird, erkennt Gemini die App, das Bild oder das Video, die Sie ausführen, und Sie können es als Overlay aufrufen und ihm kontextspezifische Fragen stellen. Wo bleibt Google Assistant, der dies bereits tut? Wer weiß! Google hat es in der heutigen Keynote überhaupt nicht zur Sprache gebracht.

Es gab auch eine Reihe anderer Updates. Google sagte, es würde digitale Wasserzeichen zu KI-generierten Videos und Texten hinzufügen, Gemini im Seitenbereich in Gmail und Docs zugänglich machen, einen virtuellen KI-Teamkollegen in Workspace unterstützen, Telefonanrufe abhören und erkennen, ob man in Wirklichkeit betrogen wird Zeit und vieles mehr.

Informieren Sie sich über alle Neuigkeiten von Google I/O 2024 Hier!

source-115

Leave a Reply