AI
OpenAI stellt neues Flaggschiff-Modell GPT-4o vor
OpenAI präsentiert GPT-4o: Neues KI-Modell für Text, Sprache und Video – schrittweise Einführung geplant.
Die in San Francisco ansässige OpenAI hat am Montag das neue generative KI-Modell GPT-4o vorgestellt. Das "o" steht für "omni" und bezieht sich auf die Fähigkeit des Modells, Text, Sprache und Video zu verarbeiten. GPT-4o wird in den nächsten Wochen schrittweise in den Entwickler- und Endkundenprodukten des Unternehmens eingeführt.
OpenAI-CTO Mira Murati erklärte, dass GPT-4o die Intelligenz von GPT-4 aufweist, aber die Fähigkeiten in mehreren Modalitäten und Medien verbessert. "GPT-4o kann über Sprache, Text und Visionen hinaus denken", sagte Murati während einer Präsentation in den OpenAI-Büros. "Dies ist von großer Bedeutung, da wir die Zukunft der Interaktion zwischen Mensch und Maschine gestalten."
Das vorherige Modell, GPT-4 Turbo, war darauf ausgelegt, Bilder und Text zu analysieren. GPT-4o erweitert diese Fähigkeiten um Sprache. Dies ermöglicht eine Vielzahl neuer Anwendungen, darunter eine verbesserte Nutzererfahrung im AI-gestützten Chatbot ChatGPT.
Mit GPT-4o wird ChatGPT benutzerfreundlicher, da Nutzer nun Fragen stellen und ChatGPT während der Antwort unterbrechen können. Das Modell reagiert in Echtzeit und kann sogar Nuancen in der Stimme eines Nutzers erkennen und entsprechend in verschiedenen emotionalen Stilen antworten, einschließlich Gesang.
Zudem verbessert GPT-4o die visuellen Fähigkeiten von ChatGPT. Das Modell kann nun auf Fragen zu einem Foto oder einem Bildschirm antworten, beispielsweise „Was passiert in diesem Softwarecode?“ oder „Welche Marke trägt dieses Hemd?“
Diese Funktionen sollen laut Murati weiterentwickelt werden. Künftig könnte GPT-4o ChatGPT ermöglichen, beispielsweise ein Live-Sportspiel zu "sehen" und die Regeln zu erklären.
GPT-4o ist auch mehrsprachiger und zeigt laut OpenAI in etwa 50 Sprachen eine verbesserte Leistung. In der OpenAI-API und im Azure OpenAI Service von Microsoft ist GPT-4o doppelt so schnell, halb so teuer und hat höhere Ratenlimits als GPT-4 Turbo.
Aktuell ist die Sprachfunktionalität von GPT-4o noch nicht für alle Kunden in der API verfügbar. OpenAI plant, die neuen Audio-Fähigkeiten zunächst einer kleinen Gruppe vertrauenswürdiger Partner bereitzustellen.
GPT-4o ist ab heute in der kostenlosen Version von ChatGPT verfügbar und für Abonnenten der Premium-Pläne ChatGPT Plus und Team mit „5x höheren“ Nachrichtenlimits. Die verbesserte ChatGPT-Spracherfahrung wird in den nächsten Monaten in einer Alpha-Version für Plus-Nutzer verfügbar sein.
Zusätzlich hat OpenAI eine überarbeitete ChatGPT-Benutzeroberfläche im Web angekündigt, die eine "konversationsorientiertere" Startseite und Nachrichtenlayout bietet. Eine Desktop-Version von ChatGPT für macOS ermöglicht es Nutzern, über eine Tastenkombination Fragen zu stellen oder Screenshots zu machen und zu besprechen. ChatGPT Plus-Nutzer erhalten ab heute Zugang zur App, eine Windows-Version folgt später im Jahr.
Schließlich ist der GPT Store, OpenAIs Bibliothek und Erstellungstool für Drittanbieter-Chatbots, jetzt auch für Nutzer der kostenlosen ChatGPT-Version verfügbar. Kostenlose Nutzer können nun auch Funktionen nutzen, die zuvor hinter einer Paywall waren, wie eine Gedächtnisfunktion, die es ChatGPT ermöglicht, Präferenzen für zukünftige Interaktionen zu speichern, Dateien und Fotos hochzuladen und im Web nach Antworten auf aktuelle Fragen zu suchen.