GPT-3, die neuste KI von OpenAI, ist der wohl komplexeste und stärkste Textgenerator derzeit. Die Einsatzmöglichkeiten sind vielfältig.
OpenAI: KI aus dem Silicon Valley
OpenAI ist eine (teilweise) Non-Profit-Organisation aus dem kalifornischen Silicon Valley. Ziel dieser Organisation ist es, künstliche Intelligenz (KI) so zu gestalten, dass diese für die gesamte Menschheit nützlich und vorteilhaft ist. Zentral dabei ist die Sorge, dass KI irgendwann ein Problem für die Menschen werden könnte. Mit dieser Agenda konnte OpenAI prominente Geldgeber für sich gewinnen. So konnte die Organisation vor einigen Jahren u.a. von Elon Musk, Peter Thiel und Reid Hoffmann insg. ca. 1 Mrd. US-Dollar als Investition erhalten. Mit diesem Geld realisierten sie bereits diverse KI-Projekte (OpenAI Gym, OpenAI Five).
GPT
Die neuste KI von OpenAI ist die dritte Version ihres Textgenerators GPT: GPT-3. Bereits den Vorgänger GPT-2 bewunderte die Fachwelt. Die Einsatzmöglichkeiten schienen unendlich zu sein. Aus diesem Grund veröffentlichte OpenAI auch niemals die vollständige Version ihrer KI, sondern nur eine abgespeckte Variante, da die Sorge bestand, dass das System für boshafte Zwecke missbraucht werden könnte. Aber was genau ist jetzt dran an GPT und warum ist diese KI so besonders?
GPT steht für Generative Pretrained Transformer. Im Grunde wird damit ein Machine Learning-Modell beschrieben, welches durch Training und der Einspielung von enormen Datenmengen statistische Merkmale identifizieren kann, um anhand dessen Texte zu generieren. Es findet eine Berechnung statt, die feststellt, wie wahrscheinlich es ist, dass ein bestimmtes Wort auf ein anderes folgt. Das ist erstmal nichts besonderes, da alle Textgeneratoren so arbeiten. Besonders bei GTP-3 ist allerdings, dass bei der Vorhersage von Textbausteinen auf viel mehr Daten, Möglichkeiten, Wörter, Absätze, Codebausteine usw. zugegriffen wird.
Durch das Training, bei welchem der KI immer wieder lückenhafte Texte vorgelegt wurden, die ergänzt werden mussten, konnte GPT-3 eine umfassende Kategorisierung, Anordnung und sinnvolle Zusammenfassung von Begriffen, Codes o.ä. erstellen und in den künstlichen neuronalen Netzwerken speichern. Dieses neuronale Netz besteht aus 175 Mrd. Parametern und wurde mit 570 Gigabyte an Text (ca. 1 Billionen Wörter) trainiert. Damit ist es GTP-3 möglich, sehr schnell Kontexte zu verstehen und neue Aufgaben zu begreifen. Das ist ein enormer Vorteil gegenüber anderen Textgeneratoren, da diese meist auf jede neue Aufgabe neu eingestellt werden müssen. Bei GPT-3 handelt es sich somit um ein hoch flexibles und enorm leistungsfähiges Sprachmodell. Etwas, was es so vorher noch nicht gab.
Anwendungsmöglichkeiten von GPT-3
GPT-3 kann Texte schreiben, die sich kaum von menschlichen Schriftstücken unterscheiden. Durch simple Vorgaben kann das Modell ganze Blog-Einträge schreiben, lustige Tweets verfassen, absurde Märchen erfinden und bei online Rollenspielen mitwirken. Ebenso kann die KI bei interaktiven Kunstwerken eingesetzt werden. Auch der Einsatz in diversen Apps ist möglich, bei der GPT-3 bspw. Albert Einstein imitiert und die Grundlagen der Physik vermittelt. Des Weiteren kann das Modell bei Programmierungsarbeiten Einsatz finden. Denn Programm-Code ist letztendlich auch „nur“ Text, für den GPT-3 Wahrscheinlichkeiten berechnen kann. So können mit simplen Befehlen Layouts programmiert oder diverser Code generiert werden. Dadurch kann GPT-3 ganze Apps und Webseiten anhand einfacher Beschreibungen erstellen (Hier gibt es noch weitere Anwendungsmöglichkeiten).
Durch GPT-3 könnten in Zukunft also viele Schreibarbeiten übernommen sowie Programme erstellt werden, ohne, dass es dafür noch besondere Fachkenntnisse benötigt.
GPT-3 = Super-KI?
Im Internet findet man auch Stimmen, die behaupten, dass GPT-3 einen enormen Schritt in Richtung menschenähnlicher KI macht. Müssen wir uns also Sorgen machen, dass GPT-3 irgendwann ein Bewusstsein entwickelt?
Bis dato gibt es noch keinen Grund Angst zu haben. GPT-3 ist lediglich ein System, dass auf eine enorme Datenbank zugreifen kann und anhand dessen einfache Wahrscheinlichkeiten berechnet. Und auch diese Wahrscheinlichkeiten sind nicht immer korrekt oder sinnvoll. Noch gibt es also einigen Verbesserungsbedarf und von einem Bewusstsein kann noch lange nicht gesprochen werden.