OpenAI hat das neue Modell GPT-4 nun veröffentlicht, das eine bessere Leistungsfähigkeit als sein Vorgänger GPT-3.5 aufweist. GPT-4 ist ein großes „multimodales Modell“, das bedeutet, dass sowohl Text- als auch Bildinformationen verarbeiten werden können.
Obwohl GPT-4 einige große Verbesserungen aufweisen kann, so wurden dennoch nicht alle Erwartungen erfüllt.
GPT-4 versus GPT-3: Was wurde verbessert?
Hier ein schneller Überblick zu GPT-4:
- GPT-4 ist die neueste Generation des KI-Sprachmodells von OpenAI
- Das neue Modell ist multimodal und kann neben Text auch Bilder verarbeiten.
- GPT-4 wurde mit Text-Daten
bis August 2022 trainiert (ist also deutlich aktueller als GPT-3). Es ist derzeit noch unklar, ob GPT-4 tatsächlich aktuellere Datensätze enthält, als GPT-3! - GPT-4 soll kreativer und technisch versierter sein als GPT-3.
- Das Modell kann Texte mit bis zu 25.000 Wörter verarbeiten und generieren (also ca. 8 mal so viel wie GPT 3.5).
- GPT-4 kann also längeren Output generieren und ist somit noch besser als KI-Assistent für z.B. Bücher und anderen Long-Form-Content geeignet.
- Es gibt eine höhere Wahrscheinlichkeit für richtige Fakten und eine geringere Wahrscheinlichkeit für unerwünschte Inhalte als bei GPT-3.
- GPT-4 ist derzeit nur in ChatGPT Plus (bezahlten Version) verfügbar und wird auch als API für Entwickler erhältlich sein.
- Der neue Bing-Chat läuft bereits auf GPT-4.
Lese-Tipp: KI-Texte schreiben – Tipps für besseren Output
Verbesserte Leistung in traditionellen Benchmarks
GPT-4 übertrifft den Vorgänger GPT-3 in traditionellen Benchmarks (Texterzeugung, Berechnungen, Coding). Es zeigt auch eine bessere Leistung in anderen Sprachen als Englisch. Insbesondere bei Sprachen von denen bis Dato wenige Trainingsdaten vorhanden waren (wie z.B. Lettisch, Walisisch und Swahili) wurde der der Output deutlich verbessert.
GPT-4 und Bilder
Das Modell kann auch Bilder als Eingabe akzeptieren und Textausgaben zu den Bildern generieren. Allerdings sind die Bildeingabe-Fähigkeit derzeit noch nicht öffentlich verfügbar.
Und um ein Missverständnis vorzubeugen: GPT-4 kann keine Bilder erstellen, sondern nur Bilder interpretieren, analysieren und als Input nutzen.
Input: Bilder & Text
Output: Text
Zugang zu GPT-4
Stellt sich nur die Frage, wie du GPT-4 nutzen kannst?
Leider gibt es derzeit noch keinen kostenlosen Zugriff zu GPT-4. Allerdings können Abonnenten von ChatGPT Plus GPT-4 bereits auf Chat.openai.com mit einer Nutzungsobergrenze (25 Eingaben / Nachrichten alle 3 Stunden) verwenden.
Und auch über die API wird GPT-4 bald verfügbar sein: Entwickler können sich für den Zugriff auf die GPT-4-API anmelden (hier der Link zur Warteliste). Die Preise für den Zugriff auf die GPT-4-Modelle liegen zwischen 0,03 USD und 0,12 USD pro 1000 Tokens, abhängig von der Kapazität.
Auch Bing-Chat soll im Edge-Browser bereits mit GPT-4 laufen. Allerdings ist Bing-Chat speziell auf Suchergebnisse angepasst und deswegen nicht unbedingt eine direkte ChatGPT Alternative.
Ob und wann (und vor allem in welchem Umfang) GPT-4 in der kostenlosen Version von ChatGPT verfügbar sein wird, ist derzeit noch nicht bekannt.
Mehr Details zu GPT-4 findest du hier im offiziellen Blogbeitrag von OpenAI (Englisch).
GPT-4 kostenlos nutzen
Eigentlich steht GPT-4 derzeit nur Nutzern von ChatGPT Plus zur Verfügung. Trotzdem gibt es eine Möglichkeit, wie du GPT-4 kostenlos nutzen kannst!
Und zwar indem du einfach die kostenlose Version von Neuroflash nutzt. Neuroflash ist ein KI-Textgenerator, der bereits GPT-4 integriert hat. Hier kannst du Neuroflash kostenlos nutzen*.
Ernüchterung über GPT-4 – doch nicht so gut?
Im Vorfeld wurde ja viel spekuliert und die Erwartungen waren (extrem) hoch! In der Community macht sich nach dem Release von GPT-4 nun aber durchaus auch an manchen Stellen eine gewisse Ernüchterung breit.
Kritisiert werden unter anderem folgende Aspekte:
- Es kann immer noch nicht auf das Internet zugegriffen werden.
- GPT-4 ist (noch) nicht in der kostenlosen Version von ChatGPT integriert und es gibt auch noch keine konkrete Aussage von OpenAI ob und wann GPT-4 integriert wird.
- Weitere Erwartungen, wie z.B. dass GPT-4 auch direkt Bilder und Videos generieren könnten, sind nicht eingetroffen.