GPT-2: Sprachfelder

Ali Nikrang (AT), Florian Berger (AT)

Die Fähigkeit, Sprache zu erzeugen und zu verstehen, wird häufig als besonderes Merkmal des Menschen betrachtet. Doch die KI-Forschung steht auch in diesem Bereich nicht still. GPT-2 ist ein Machine-Learning-Modell, welches darauf trainiert worden ist, englischsprachige Texte selbstständig zu vervollständigen. Die Software wurde 2019 von OpenAI veröffentlicht und steht im Kontext eines größeren Ziels: die allgemeine künstliche Intelligenz, die nicht auf spezielle Aufgaben beschränkt ist. GPT-2 ist mit 40 Gigabyte Text aus verschiedensten Bereichen trainiert und kann zu jeglicher Texteingabe einige Sätze formulieren. Die Installation GPT-2: Sprachfelder gibt Ihnen die Möglichkeit, das Programm auszuprobieren und auch die Grenzen seiner Verständnisfähigkeit zu entdecken. Der Mensch hat die Nase (noch) voraus. Er kann mit wenigen Worten logische Schlüsse ziehen und große Zusammenhänge in Texten in Beziehung zueinander setzen. Sprache ist eben ein abstrakter Spiegel der menschlichen Welt, um diese wirklich zu verstehen, müssten künstliche Systeme auch all ihre Komplikationen nachvollziehen können. Aber die Frage bleibt: Wie wird sich etwa unser Journalismus und generell die Art zu schreiben ändern, wenn sie immer mehr durch KI gestützt wird? 

 

 

Project Credits / Acknowledgements:
OpenAI: GPT-2