OpenAI und die KI zur Texterzeugung
Die OpenAI hat eine Künstliche Intelligenz entwickelt, die so gut ist, dass man sich Sorgen um einen Missbrauch macht.
Die Organisation OpenAI wurde gegründet, um die Technologie der Künstlichen Intelligenz zu nutzen, um sie für das Gute einzusetzen. Doch eine Künstliche Intelligenz, die Texte schreibt, zeigt ein Dilemma auf.
Der Textgenerator von OpenAI, GPT-2, ist so gut, dass man sich Sorgen um einen Missbrauch macht. Tatsächlich gab es zuvor Forderungen, das Projekt einzustampfen. Doch OpenAI hat es zu Ende gebracht. Jedoch will man die Technik vorerst nicht veröffentlichen.
Das System GPT-2 wurde darauf trainiert, das nächste Wort in einer Stichprobe vorherzusagen. Dafür hat man eine Datenbank von 40 Gigabyte an Texten bereitgestellt. Dabei kann sich GPT-2 sogar am Stil und am Inhalt des Geschriebenen orientieren und eine realistische und kohärente Fortsetzung schreiben.
Die Angst ist nun, dass die Künstliche Intelligenz für die Produktion von Fake-News eingesetzt werden kann. Der Einsatz des Bots wäre dann in den sozialen Medien möglich und könnte, wie man es bei den rechtsextremen Kräften bereits gesehen hat, missbraucht werden.
Das System könnte eine Antwort auf Thesen liefern, die schlicht falsch sind. Auch die Argumentation ist nicht gegeben, aber die Formulierung klingt, als hätte es ein Mensch geschrieben. Ein Beispiel dafür nennt die Quelle.
Daher will man nur eine abgespeckte Version des Modells der Öffentlichkeit vorstellen. Die Entscheidung ist mit Blick auf die Gründungscharta der Organisation gefallen. Allerdings gab es dagegen ebenfalls eine Welle an Beschwerden – schließlich sei das nicht gerade “open”. Die Leitung der Organisation verwies auf einen Balanceakt, den man vollführe.
In einem halben Jahr wolle man erneut über die Veröffentlichung von GPT-2 entscheiden. In der Zwischenzeit sollten die Regierungen und Unternehmen einen Diskurs im Umgang mit der Technologie anschieben.