News

GPT-4o: OpenAI präsentiert Omni-Modell mit Sprachfunktion

Die Tech-Welt wartet seit Wochen auf ein Lebenszeichen vom neuesten Sprachmodell GPT-5. Doch OpenAI überraschte bei einer spontanen Live-Präsentation mit einer ganz anderen Sache – GPT-4o.

OpenAI bezeichnet GPT-4o als Omni-Modell

Im Rahmen seiner spontan anberaumten Präsentation hat KI-Vorreiter OpenAI mit GPT-4o ein neues Feature vorgestellt. Das Unternehmen selbst bezeichnet das Ganze als ein „Omni-Modell“. Doch was steckt dahinter?Was ist ein Omni-Modell? Der Begriff „Omni“ stammt aus dem Lateinischen und steht für „Alles“. Und genau das soll GPT-4o wohl bieten können. Zumindest, wenn es um Kommunikation geht.

Das neue Sprachmodell soll „Audio, Text und Video“ auf „native Art“ miteinander vereinen. Vereinfacht gesagt, soll man mit GPT-4o nicht nur über Maus und Tastatur kommunizieren können. Auch ein Gespräch soll möglich sein. Laut OpenAI CTO Mira Murati soll das neue Feature schon bald Einzug in ChatGPT halten. Für die Nutzer bedeutet das Omni-Modell in erster Linie eine geringere Latenz und einen besseren Workflow.

Schließlich müssen nicht mehr mehrere Sprachmodelle miteinander kommunizieren, da GPT-4o ja gewissermaßen alles in sich vereint. Vorteile dürften aber nicht nur die Nutzer selbst spüren. Auch auf Seiten des Unternehmens wird man sich über deutlich geringere Kosten freuen dürfen, da die Arbeit Ressourcen schonen dürfte.

Google-Pendant steht vor der Tür

Die Möglichkeiten, die GPT-4o bieten können soll, klingen indes wirklich spannend. Insbesondere Smartphone-User dürften mit dem neuen Sprachmodell viele neue Nutzungsmöglichkeiten entdecken. So lässt sich wohl beispielsweise mittels Smartphone-Kamera eine mathematische Aufgabe fotografieren und anschließend vom Assistenten bearbeiten.

Laut OpenAI soll GPT-4o sogar menschliche Gesichter erkennen und deren Mimik verarbeiten können. Dabei soll das Omni-Modell auch Emotionen erkennen können. Doch nicht nur auf dem Smartphone gibt es Neuheiten. Wer ChatGPT auf dem Desktop nutzt, soll ebenfalls von Neuerungen profitieren. Bis auf die Möglichkeit eine Bedienleiste ausblenden zu können, war davon aber nichts zu sehen.

Dass es zum spontanen Live-Event kam, dürfte indes kein Zufall sein. Schließlich will Google heute, am 14. Mai 2024, seine Google I/O eröffnen. Im Rahmen der Präsentationen des Tech-Konzerns wird selbstverständlich auch das Thema KI im Fokus stehen. Was genau wir auf der hauseigenen Messe des Suchmaschinengiganten zu sehen bekommen werden, ist derzeit noch ungewiss.

Jens Scharfenberg

Gaming und Technik waren stets meine Leidenschaft. Dies hat sich bis heute nicht geändert. Als passionierter "Konsolero" und kleiner "Technik-Geek" begleiten mich diese Themen tagtäglich.

Ähnliche Artikel

Neue Antworten laden...

Avatar of Basic Tutorials
Basic Tutorials

Gehört zum Inventar

13,773 Beiträge 3,160 Likes

Die Tech-Welt wartet seit Wochen auf ein Lebenszeichen vom neuesten Sprachmodell GPT-5. Doch OpenAI überraschte bei einer spontanen Live-Präsentation mit einer ganz anderen Sache – GPT-4o. OpenAI bezeichnet GPT-4o als Omni-Modell Im Rahmen seiner spontan anberaumten Präsentation hat KI-Vorreiter OpenAI mit GPT-4o ein neues Feature vorgestellt. Das Unternehmen selbst bezeichnet das Ganze als ein „Omni-Modell“. Doch was steckt dahinter?Was ist ein Omni-Modell? Der Begriff „Omni“ stammt aus dem Lateinischen und steht für „Alles“. Und genau das soll GPT-4o wohl bieten können. Zumindest, wenn es um Kommunikation geht. Das neue Sprachmodell soll „Audio, Text und Video“ auf „native Art“ miteinander vereinen. … (Weiterlesen...)

Antworten Like

Zum Ausklappen klicken...
Schaltfläche "Zurück zum Anfang"