• Keine Ergebnisse gefunden

Wie „künstlich intelligent“ ist genuine Content-Generierung

8 Top-Challenges für die Forschung

8.2 Zweite Challenge: Content-Generierung

8.2.4 Wie „künstlich intelligent“ ist genuine Content-Generierung

8.2.4.1 Die Realität: Templates

Journalistische automatisierte Texte basieren derzeit praktisch ausschließlich auf regelbasierten NLG-Verfahren (Natural Language Generation). Vereinfacht formuliert erstellen Redakteurinnen und Redakteure dabei Lückentexte und formulieren Regeln, die bei Eingang von Echtdaten exekutiert werden. Dies erfordert hohes Know-how im Medienunternehmen betreffend Daten, Entwicklung, Fachwissen und Sprachkompetenz.

Auf dem deutschsprachigen Markt gibt es mehrere Anbieter von NLG-Lösungen, als aktiv auch am österreichischen Markt sind Retresco und AX-Semantics zu nennen.

Beide Unternehmen können auf hohe Kompetenz hinsichtlich deutscher Sprache auf der Ebene der Lexik, Semantik sowie Syntax verweisen. Doch beide Unternehmen haben ihren Schwerpunkt in der Textautomatisierung für E-Commerce (Katalogtexte / Produktbe-schreibungen). Dies bringt entscheidende Limitierungen für den journalistischen Einsatz mit sich. Denn die Medienschaffenden müssen bei der Konfiguration der Algorithmen mögliche künftige Erzählungen antizipieren und mit dem Regelwerk abbilden. Für das er-zählerische Schreiben sind diese Software-Lösungen aber nicht ausreichend ausgestattet.

Dies gilt für die lexikalische Ebene, auf der bei Eigennamen, Personennamen etc. rasch die Grenze erreicht ist, ebenso wie für die narrative Perspektive, bei der aus notwendigem mechanischen „if-then“-Verfahren zwangsläufig jene „Aneinanderreihung von Textbausteinen“ resultiert, die von Anwender:innen – wie im weiter oben zitierte Interview – als Defizit definiert wurde. Die Sprachmodelle weisen ebenso Einschrän-kungen auf, die auf den ersten Blick geringfügig erscheinen mögen, ein „natürliches“, journalistisches Erzählen aber verunmöglichen.

Ähnliches trifft auf Videogenerierung bzw. automatisierten Videoschnitt zu: Die ver-füg baren Verfahren bieten das Befüllen von Templates oder die Bebilderung aufgrund des gesprochenen Textes oder Skripts.

8.2.4.2 Der Hype und die Utopie: Lernende Schreibmaschinen

Im Herbst 2020 schlug ein Artikel der renommierten britischen Tageszeitung „The Guardian“

Wellen48. „Diesen ganzen Artikel hat ein Roboter geschrieben. Fürchtest du dich schon, Mensch?“ lautete der Titel. Der Claim: Der sprachlich durchaus fesselnde Essay, gespickt mit Zitaten berühmter Denker und cleveren Referenzen auf das Altgriechische, entstand ohne jegliches menschliches Zutun – allein auf Basis eines Inputs („Prompt“) und einer

48 theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3 (21.06.2021).

formulierten Aufgabe. Als Freelancer dafür engagierte „The Guardian“ das mittlerweile hinlänglich berüchtigte Sprachmodell GPT-3 von OpenAI. Wenn eine KI so kluge Texte ausspucken kann – wofür braucht es dann noch einen Menschen? So lautete die bange Frage, die daraufhin landauf, landab diskutiert wurde … allerdings verkürzt.

Denn wie die Redaktion selbst darlegte, wurde der veröffentlichte Text von Men-schen redigiert und montiert. Acht Essays habe die Maschine ausgespuckt, jeder hätte für sich stehen können, wurde versichert, dennoch wurde ein menschlich kuratiertes

„Best-of“ veröffentlicht. Der Redaktionsprozess habe „weniger Zeit gebraucht als bei einem von einem Menschen veröffentlichten Kommentar“, hielt „The Guardian“ noch fest.

Nichtsdestotrotz wurden in der Anmerkung der Redaktion damit zwei Kernprobleme adressiert, die als wesentliche Hürden für den Durchbruch von auf Machine Learning basierenden Algorithmen für das journalistische Schreiben gelten müssen.

Die finnische Nachrichtenagentur STT arbeitete mehrere Jahre lang an einem

„Textroboter“, der auf Basis vorhandener Meldungen „lernte“, wie neue Storys zu er-stellen sind. Doch „Scoopmatic“ wird so schnell keinen Job im Newsroom bekommen.

Obwohl er das Finnische überraschend gut meisterte – mit dem Journalismus klappte es nicht so ganz.

Zwei Hauptprobleme zeigten sich im Rahmen des Forschungsprojekts der Nach-richtenagentur: zum einen in der frühen Phase des Projekts eine „Data Bias“ basierend auf den Trainingsdaten. Das alte Motto „only bad news are good news“ manifestiert sich in der medialen Realität, folglich tendierte „Scoopmatic“ zu einer depressiven Weltsicht – zu „bad news“. Die STT beschloss daher, das Modell für Sport, vor allem Eishockey, zu trainieren. Dies führte zur zweiten Einsicht: Das für den Journalismus im Allgemeinen und eine Nachrichtenagentur im Besonderen zwingend notwendige „factual storytelling“

war nicht „factual“ genug. Im Klartext: „Scoopmatic“ hatte nicht immer die korrekten Informationen zur Hand. Journalismus auf Basis von nicht korrekten Informationen ist allerdings eine absolute „Red Line“. „85 Prozent des generierten Contents war faktisch korrekt. 85 Prozent richtig – das ist nicht genug“, hielt STT-Business-Developer Maija Paikkala bei einer nicht öffentlichen Präsentation der Nachrichtenagentur-Vereinigung MINDS [Paikkala, 2021] fest.

Was den Bogen zum „Op-Ed“, also „Meinungsstück“, im „The Guardian“ schließt:

Dieses Format ist eine der wenigen Spielarten des journalistischen Erzählens, die eben nicht faktenbasiert operieren, sondern Standpunkte allenfalls mit Referenzen auf Fakten artikulieren. Im weiten Feld der journalistischen Gestaltungsformen ist der Kommentar jenes, das, wiewohl Fakten darlegend und abwägend, doch auch mit sprachlicher Ge-wandtheit zu brillieren sucht. Mit Sprache kennen sich Modelle vom Zuschnitt eines GPT-3 aus: Sie wissen, nein, sie können vorhersagen, welche sprachlichen Konstrukte am gebräuchlichsten – und somit am wahrscheinlichsten – sind, und können dieses Wissen effektiv umsetzen. Nachprüfbare Fakten allerdings spielen hierbei keine Rolle.

AI.AT.Media – Endbericht 96

Dass sich AI schwer damit tut, die Geschichte in den Daten zu finden, zeigt auch der Showcase der spanischen NLG-Plattform Narrativa49. Das Unternehmen wirbt mit einer Lösung auf Machine-Learning-Basis ohne Notwendigkeit von Templates. Frühere Beispiele zeigten Schwächen im korrekten Erfassen von z. B. den Namen von Fußballclubs. Ein aktueller Blick auf die automatisiert generierten Covid-19-Updates (siehe Abbildung 52) zeigt: Die Daten (zum Einsatz kommt der Bestand der Johns Hopkins University) sind hier korrekt. Doch die Story hat journalistisch betrachtet Schwächen. „Zusätzliche 1.499 Infektionen bedeuten eine Steigerung von 0 Prozent“, diese Formulierung würde keinem Redakteur und keiner Redakteurin von der Hand gehen. Der Aufmacher wäre wohl viel-mehr: „Corona-Infektionslage weltweit praktisch stabil“.

Ein amüsanter Erfahrungsbericht langte zuletzt aus der Welt der Literatur ein: Der Autor Daniel Kehlmann experimentierte mit dem Literatur-Algorithmus CTRL [Kaskar u. a., 2019].

Abgesehen davon, dass die Maschine nur Englisch sprach und nach ca. einer Seite Text-produktion abstürzte, gab Kehlmann einen zentralen Befund zu Protokoll: Sprachmodelle haben kein narratives Wissen und auch kein Wissen über die Welt. „Solche Algorithmen

49 covid19tracking.narrativa.com/index_en.html (10.05.2021).

Abbildung 52: Automatisiert erstellte Covid-19-Updates der Firma Narrativa (Screen-shot)

produzieren statistisch erwartbare Sprachmuster – mit großem Erfolg. Aber Erzählen funktioniert anders. […] Das größte Problem, das CTRL als literarischer Autor hatte, war jedenfalls narrative Konsistenz.“ [Kreye und Kehlmann, 2021]