RJ: Interview

„Die automatisierten Helfer sollten den eigentlichen Journalisten unterstützen“

Interview mit Jan Georg Plavec von der Stuttgarter Zeitung

ALEXANDER LEITSCH UND JOHANNA SCHULZE

Jan Georg Plavec ist Redakteur im Ressort Multimedia/Reportage bei der Stuttgarter Zeitung/Stuttgarter Nachrichten. Er erstellt dort multimediale Geschichten zu Politik, Kultur sowie Netzthemen und auch immer wieder zum Thema Datenjournalismus. Im Interview berichtet der Journalist über den Redaktionsalltag mit seinem „Roboter-Kollegen“. Angst, dass dieser ihm irgendwann den Arbeitsplatz streitig machen könnte, hat Plavec nicht – eigentlich ist er sogar recht froh, dass ihm die Software bei der täglichen Arbeit zur Hand geht.

Redaktion: Wie genau hat das mit dem Roboterjournalismus bei der Stuttgarter Zeitung angefangen? Stand da jemand plötzlich im Büro und hat den Vorschlag gemacht?
Jan Georg Plavec: Bei uns begann alles mit der PR-Offensive der Firma AX Semantics, von der wir uns bei der Stuttgarter Zeitung die Texte erzeugen lassen. Den ersten Kontakt mit der Firma hatten wir beim Frankfurter Tag des Online-Journalismus im Jahr 2015. Sie ist an unsere Werbeabteilung herangetreten und hat uns ein Angebot gemacht, ihre Software zu nutzen. Es gibt natürlich mehrere Firmen, die solche Programme anbieten, aber in erster Linie hat AX Semantics dafür gesorgt, dass die Textgenerierung heute im Medienbereich eingesetzt wird. Sie haben viele verschiedene Medienhäuser angesprochen, als sie bemerkt haben, dass Roboterjournalismus eventuell ein Thema werden könnte. Ursprünglich generierte die Firma lediglich automatisierte Texte für Produkte und Webshops, wo die Texte hauptsächlich aus Daten bestehen. Sie kamen dann darauf, dass man auch im Journalismus viel mit Daten zu tun hat und viele Texte auch automatisch g

enerieren könnte. Eine andere Firma, mit der wir uns viel beschäftigt haben, ist Retresco. Sie haben die automatische Textgenerierung ebenfalls stark vorangetrieben, vor allem mit ihrem Portal FuPa. Das ist ein Amateur-Fußballportal, wo beispielsweise Spielberichte automatisch erstellt werden.

Mit dem Portal haben wir uns auch beschäftigt. Da kann man ja auch kostenfrei Texte generieren lassen, um sich mal mit dem Thema auseinanderzusetzen.
Genau. Das ist eines ihrer Erfolgsrezepte. Im Prinzip sind diese beiden Firmen die größten Vertreter. Wir haben uns dann jedoch für AX Semantics entschieden.

Eingesetzt werden die automatisierten Texte ja vor allem in den Bereichen Wetter, Sport und bei Finanzberichten. Nutzen Sie noch andere Bereiche?
Im Prinzip wird die Software genau in den genannten Bereichen eingesetzt. Bei der Zentrale von FuPa kann man zum Beispiel Lizenzen erwerben und sich dann für Amateur-Ligen Vorschautexte generieren lassen. Das nutzen unsere Kollegen auch. Jedoch läuft dies vollkommen unabhängig von unserem Einsatz der Technik. Wir haben zum Beispiel seit November 2017 unser Feinstaub-Projekt, bei dem wir die Automatisierung nutzen. Auf stuttgarter-zeitung.de/feinstaub gibt es tägliche Berichte auf Grundlage der Daten, die wir in Stuttgart sammeln. Das geht ein wenig über die klassischen Einsatzgebiete der Textgenerierung hinaus, weswegen wir auch immer mehr mediales Interesse am Roboterjournalismus wecken – Feinstaub ist in Stuttgart ja ein sehr politisches Thema. Zusammen mit OK Lab Stuttgart, ein Teil der Open Knowledge Foundation Deutschland, die sich für Open Data einsetzt, haben wir günstige Messgeräte an viele Bewohner verkauft, die dann überall die Feinstaubwerte messen können. Das musste gemacht werden, weil es bis dato nur wenige Messstellen der Umweltbehörde gab. Wenn diese Geräte dann mit dem Wlan verbunden sind, senden sie die Daten direkt weiter. Diese Daten werten wir dann aus und schicken sie weiter an die Text-Maschine, die daraus automatisch Berichte über die Feinstaubbelastung erstellt und veröffentlicht.

Also darf die Software ganz selbstständig publizieren? Werden die Texte vor der Veröffentlichung noch einmal gegengelesen?
Am Anfang habe ich immer über die Texte drüber geschaut, inzwischen aber nicht mehr. Ich kann jetzt vor allem für unser Feinstaub- Projekt sprechen. Wir haben nach einer Einweisung von AX Semantics die Maschine so eingestellt, dass sie unsere Daten nutzen kann und dann nur noch einen etwas intelligenteren Lückentext ausfüllt. Außerdem haben wir ihr beigebracht, welche Feinstaubkonzentrationen als relativ unbedenklich oder besonders hoch einzustufen sind. Man bringt der Maschine Regeln bei und nach ein paar Wochen „Try and Error“ weiß diese dann auch, was sie tun soll. Das geht so lange gut, wie die Maschine eine Verbindung zu den Daten hat. Sobald diese getrennt wird, kommt natürlich nur noch Quatsch aus der Generierung raus.

Ist Roboterjournalismus aus Ihrer Sicht dann überhaupt noch echter Journalismus? Immerhin werden die bereits vorhandenen Informationen ja nur noch in Texte eingegliedert.
Da waren wir uns in Berlin (Anm. d. Redaktion: Mediensalon des Deutschen Journalistenverbands am 9. Mai) alle einig, dass das dem Journalismus nur ähnlich ist. Wir haben uns auf den Begriff „Textautomatisierung“ geeinigt. Ich kann mir zwar vorstellen, dass diese Systeme zukünftig noch weiterentwickelt werden, sodass sie auch für komplexere Felder des Journalismus interessant werden. Ich würde aber trotzdem unterschreiben, dass man das bis jetzt noch nicht wirklich Journalismus nennen kann.

Wie weit konnte das noch führen? Und welche Gebiete des Journalismus könnten das sein?
Es gibt schon die Seite Tag24, die versucht, mit möglichst wenig Manpower möglichst viele Artikel zu erzeugen und sogar nur mit Bannerwerbung noch im Plus zu landen, um das mal ganz plakativ zu sagen. Die Maschine versucht über semantische Analysen Sinnzusammenhänge und Kernaussagen aus Texten herauszuziehen und in einen eigenen einzubauen. Eingesetzt wird das zum Beispiel bei Polizeimeldungen. Das ist neu und auch interessant, weil Polizeimeldungen näher am Journalismus sind als Wetter- und Finanzberichte. Diese Vorgehensweise bietet meiner Meinung nach noch mehr Potential: Wenn die Maschine es schaffen würde, den Sinn eines Textes zu extrahieren und diesen neu zusammenzusetzen, wäre das dann schon etwas komplett anderes. Betrachtet man zum Beispiel die Huffington Post, die bis heute davon lebt, bei anderen Seiten abzuschreiben und nur wenig Inhalt und die Überschrift zu verändern. So etwas ließe sich in ein paar Jahren bestimmt automatisiert machen, man muss nur die richtigen Quellen einstellen. So könnten dann tausende Artikel veröffentlicht werden, wo dann der Redakteur nur noch die Überschrift anpassen muss, weil Menschen das tendenziell einfach besser können.

Aber immerhin für den Grundtext, also die ursprüngliche Quelle, braucht man dann ja immer noch Menschen. Ersetzt werden Journalisten also wohl auch zukünftig nicht, oder?
Ich bin ja auch kein Mensch, der sich wünscht, die Arbeit anderer Menschen abzuschaffen, im Gegenteil. Ich wollte nur einmal zeigen, was für mich als aktueller Anwender denkbar erscheint. Das Haupteinsatzgebiet dieser automatisierten Helfer sollte darin liegen, den eigentlichen Journalisten zu unterstützen. Am besten bei der Recherche, wie jetzt zum Beispiel bei den Panama Papers. Da war es aufgrund der Datenmenge besser, ein Programm über Wochen zu trainieren und es dann auswerten zu lassen, als selber mit dieser Auswertung zu beginnen. Außerdem könnte ich mir vorstellen, dass es bei der persönlichen Textgenerierung für den Nutzer einen guten Einsatzbereich gibt. So kann man einer Person direkt die wichtigsten Berichte für das eigene Dorf oder den Verbreitungsbereich des Mediums zusammenstellen, zum Beispiel über das Wetter, oder andere kleinere Meldungen. So könnte in Zukunft jeder Nutzer seinen automatisch generierten, auf seine eigenen Interessen zugeschnittenen Newsletter beziehen – so etwas ist zumindest vorstellbar. Allerdings wird so nichts wirklich Neues generiert, sondern es werden nur viele kleine Berichte erstellt, für die es sonst keine Möglichkeit gegeben hätte, weil sie zu unwichtig und die Zielgruppe zu klein wäre.

Also erwarten sie keine großen Einschränkungen im Bereich der Arbeitsplätze von Journalisten?
Es werden keine oder zumindest so gut wie keine Arbeitsplätze wegfallen. Bei uns in der Redaktion gibt es zum Beispiel eine Stelle, wo Leute sieben Stunden am Tag damit beschäftigt sind, Polizeiberichte umzuschreiben. Wenn eine Firma mit einem Programm käme, das mehr Texte generiert als der Journalist, dann könnte es mit dieser Stelle eng werden. Das ist aber auch eine Aufgabe, die man macht, jedoch ohne irgendeine Leidenschaft. Es ist dennoch unwahrscheinlich, dass deswegen jemand entlassen wird. Es drohen also keine Massenentlassungen. Aus meiner Sicht ist es aber auch so, dass ein Job, der auch von einem Roboter zuverlässig übernommen werden könnte, nichts für einen Menschen ist. Wenn wir es ein bisschen philosophisch sehen, hat Karl Marx ja gesagt: „Der Mensch wird entfremdet, wenn er am Fließband steht und immer nur eine Schraube dreht“. Deswegen sollte es uns mehr am Herzen liegen, dass der Mensch in Zukunft etwas Cooleres macht, als Meldungen umzuformulieren.

 

Infos zur Person
Jan Georg Plavec wurde 1984 in Tettnang im Bodenseekreis geboren. Er absolvierte ein Studium der Kommunikationswissenschaften mit dem Schwerpunkt Journalistik an der Universität Hohenheim und arbeitet seit 2007 als Journalist. Seit April 2016 ist er Redakteur im Ressort Multimedia/ Reportage bei der Stuttgarter Zeitung/ Stuttgarter Nachrichten. In seiner Freizeit spielt er Keyboard n der Band „Hawelka“. Weitere Informationen gibt es unter www.jangeorgplavec.de.