Google hat gerade Gemini eingeführt, seine lang erwartete Antwort auf ChatGPT


Laut Google gibt es drei Versionen von Gemini: Ultra, die größte und leistungsfähigste; Nano, der deutlich kleiner und effizienter ist; und Pro, von mittlerer Größe und mittlerer Leistungsfähigkeit.

Ab heute wird Googles Bard, ein Chatbot ähnlich wie ChatGPT, mit Gemini Pro betrieben, eine Änderung, die das Unternehmen nach Angaben des Unternehmens in die Lage versetzen wird, fortgeschrittenere Überlegungen und Planungen durchzuführen. Heute wird eine spezielle Version von Gemini Pro in eine neue Version von integriert AlphaCode, ein generatives „Forschungsprodukt“-Tool für die Codierung von Google DeepMind. Die leistungsstärkste Version von Gemini, Ultra, wird 2024 in Bard integriert und über eine Cloud-API verfügbar gemacht.

Sissie Hsiao, Vizepräsidentin bei Google und General Managerin von Bard, sagt, dass die multimodalen Fähigkeiten des Modells Bard neue Fähigkeiten verliehen und ihn bei Aufgaben wie dem Zusammenfassen von Inhalten, Brainstorming, Schreiben und Planen verbessert haben. „Das sind die größten Qualitätsverbesserungen von Bard seit unserer Einführung“, sagt Hsiao.

Neue Vision

Google zeigte mehrere Demos, die die Fähigkeit von Gemini veranschaulichen, mit Problemen im Zusammenhang mit visuellen Informationen umzugehen. Man sah, wie das KI-Modell auf ein Video reagierte, in dem jemand Bilder zeichnete, einfache Rätsel erstellte und nach Spielideen für eine Weltkarte fragte. Zwei Google-Forscher zeigten außerdem, wie Gemini bei der wissenschaftlichen Forschung helfen kann, indem sie Fragen zu einer Forschungsarbeit mit Grafiken und Gleichungen beantworteten.

Collins sagt, dass Gemini Pro, das Modell, das diese Woche eingeführt wird, das frühere Modell namens GPT-3.5, das ursprünglich ChatGPT unterstützte, bei sechs von acht häufig verwendeten Benchmarks zum Testen der Intelligenz von KI-Software übertroffen hat.

Laut Google erzielt Gemini Ultra, das Modell, das nächstes Jahr auf den Markt kommt, eine Punktzahl von 90 Prozent, mehr als jedes andere Modell, einschließlich GPT-4 Massive Multitask Language Understanding (MMLU) Benchmark, entwickelt von akademischen Forschern, um Sprachmodelle zu Fragen zu Themen wie Mathematik, US-Geschichte und Recht zu testen.

„Gemini ist in einer Vielzahl von Benchmarks auf dem neuesten Stand – 30 von 32 der in der Forschungsgemeinschaft für maschinelles Lernen am häufigsten verwendeten Benchmarks“, sagte Collins. „Wir sehen also, dass es auf ganzer Linie Grenzen setzt.“

source-114

Leave a Reply