Microsoft demonstriert, wie es kleine Sprachmodelle trainiert, besser zu argumentieren als ChatGPT und Copilot


Was du wissen musst

  • Microsoft hat kürzlich einen neuen Blogbeitrag veröffentlicht, in dem seine Bemühungen hervorgehoben werden, kleinen Sprachmodellen das Denken beizubringen.
  • Es stellte Orca 2 vor, ein kleines Sprachmodell, das starke Denkfähigkeiten demonstriert, indem es die schrittweisen Argumentationsspuren leistungsfähigerer LLMs wie ChatGPT und Copilot nachahmt.
  • Benchmarks zufolge weist Orca 2 im Vergleich zu anderen LLMS fortschrittliche Leistungsfähigkeiten auf, wenn es zur Bewältigung komplexer Aufgaben auf die Probe gestellt wird.
  • Microsoft beabsichtigt, kleinere Sprachmodelle mithilfe von LLMs zu trainieren und so letztendlich deren Fähigkeiten zu erweitern.

Es besteht kein Zweifel, dass Microsoft voll und ganz auf generative KI gesetzt hat, insbesondere nachdem es mehrere Milliarden Dollar in die Technologie investiert und seine Partnerschaft mit OpenAI weiter ausgebaut hat.

Apropos OpenAI: Wir haben erlebt, was die meisten als Paradigmenwechsel bezeichnen würden, der sich auf das Top-Management des Technologieunternehmens auswirkt. Der Vorstand von OpenAI entzog Sam Altman seine Position und begründete dies mit mangelndem Vertrauen in seine Führungsqualitäten. Kurz darauf wurde Altman eine Stelle bei Microsoft angeboten, wo er neben Greg Brockman (ehemaliger OpenAI-Mitbegründer, der kurz nach Altmans Absetzung zurücktrat) das Advanced AI-Team leitete.



source-108

Leave a Reply