Gestern hat OpenAI die neue Version seines GPT Sprachmodells vorgestellt. Im Gegensatz zu seinem Vorgänger GPT-3.5 soll GPT4 in den folgenden Bereichen deutlich besser sein:
Kreativität 🖌
Visuelles Verständnis 🖼
Kontext 🔄
Was bedeutet das in der Praxis?
GPT4 kann nun auch Bilder als Input verarbeiten (z.B. eine ganze Website auf Basis einer Zeichnung umsetzen), den Schreibstil des Nutzers adaptieren und längere Texte mit bis zu 25.000 Wörtern verstehen – sowohl aus der direkten Eingabe als auch aus Weblinks.
Insgesamt ist GPT4 deutlich intelligenter als sein Vorgänger – bei einer US-Anwaltsprüfung erreichte das Sprachmodell eine Punktzahl in den oberen 10%, während sein Vorgänger noch in den unteren 10% platziert war.
Dadurch ist die neue Version auch nicht mehr so leicht auszutricksen und kann Zusammenhänge oftmals noch besser deuten.
Als ChatGPT Pro Nutzer könnt ihr das schon testen, nur auf die Bildeingabe müsst ihr noch warten.
Aber Achtung: Das Sprachmodell basiert weiterhin größtenteils auf Daten bis September 2021 und lebt somit knapp zwei Jahre in der Vergangenheit – es weiß immer noch nicht, dass Olaf Scholz inzwischen Bundeskanzler ist. 😉
In den nächsten Monaten werden wir eine KI-Welle erleben: Google hat gestern neue KI-Integrationen für Google Docs und Co. präsentiert und Microsoft hält am Donnerstag ein Event zum Thema „The Future of Work with AI“.