Wie das Forschungsprojekt news-polygraph mit einer KI-Plattform gegen Medienmanipulation vorgeht
Der Papst als Hip-Hop-Mogul in weißer Daunenjacke, die gewaltsame Festnahme Donald Trumps oder ein vermeintlicher Videocall zwischen der ehemaligen Regierenden Bürgermeisterin Franziska Giffey und Kiews Bürgermeister Vladimir Klitschko: Künstliche Intelligenz ist mittlerweile in der Lage, uns auf real erscheinenden Fotos oder Videos eine falsche, aber perfekt inszenierte Wirklichkeit zu suggerieren. Das hat zwar Unterhaltungswert, aber wir müssen bei vielen Artikeln oder Social-Media Beiträgen fragen: Was ist wahr und was nicht? Denn veröffentlichen kann heutzutage jede:r. Quellenangaben oder mehrstufige Verifizierungen braucht es in den sozialen Medien nicht. Eine Herausforderung für Journalist:innen und Medienhäuser – sie müssen innerhalb von Stunden entscheiden, ob ihnen zugespieltes Material Nachrichtenwert hat und in ihre Berichterstattung aufgenommen wird.
Wie verifiziert man diese Quellen? Welche Maßstäbe zur Einordnung setzt man an? Um gegen Propaganda und Fake News vorzugehen, braucht es gute Werkzeuge und Sensibilisierung durch alle Ebenen hinweg. Ein solches Werkzeugset entwickelt gerade das Forschungsprojekt news-polygraph, dessen Koordination bei transfermedia im Media Tech Hub angesiedelt ist. Die Plattform, quasi ein digitaler Lügendetektor, soll so zukünftig die Arbeit der Journalist:innen erleichtern.
Fakten checken ist und war schon immer eine der zentralen Aufgaben des Journalismus. Neu ist die massive Datenmenge – hier braucht es neben der Sensibilisierung gute, verlässliche Tools, um valide Aussagen treffen zu können. Viele Medienhäuser haben Faktencheck-Redaktionen oder bieten Weiterbildungen an. Und einige haben sich eine Art Werkzeugkasten selbst zusammengestellt, etwa einen Ordner mit verschiedenen Programmen. Diese müssen dann etwas umständlich selbst angewählt werden. news-polygraph setzt an bereits vorhandenen Prozessen an, optimiert diese und führt sie in einem Interface zusammen. Im Vorfeld hat sich das Forschungsbündnis mit Medienpartner:innen ausgetauscht und Bedarfe abgefragt. Ziel des Projektes ist es, eine Plattform zur Verfügung zu stellen, die eine schnelle, leichtere und intuitive Hilfestellung bietet.
Welche Inhalte sind manipuliert – welche nicht?
transfermedia COO Claudia Wolf, die als Bündniskoordinatorin für das Projekt fungiert, erklärt: „Auf die populäre Bezeichnung ‚Fake News‘ möchten wir bei unserem Forschungsprojekt aus wissenschaftlicher Sicht gern verzichten. Uns geht es darum, Informationen zu verifizieren. Die Entscheidung ob ‚fake‘ oder nicht, die trifft letztendlich immer der Mensch. Wir haben eine Plattform konzipiert, die den Medienschaffenden und Journalist:innen Werkzeuge an die Hand gibt, Texte, Video, Audio und Fotos schnell zu bewerten. Besonders für Newsredaktionen ist das wichtig.“
Über ein intuitiv bedienbares User-Interface können fragliche Medienausschnitte per Drag und Drop hineingegeben und von einer KI überprüfen lassen. Im Hintergrund laufen für sie unsichtbar Modelle und Dienste ab. Die Journalist:innen entscheiden nur vorab, was sie überprüfen möchten, bestimmen die Reihenfolge der Abfrage – und ob sie sogenannte Crowd-Panels integrieren.
Während die Text- und Bild-Verifikationen in Redaktionen bereits fortgeschritten sind, ist die Überprüfung von Video-Sequenzen um einiges komplexer. Hier kommt das Fraunhofer Institut als Partner ins Spiel. Dort ist man auf die Audio-Sequenzen spezialisiert und erstellt etwa für den kriminalistischen Bereich forensische Audio-Analysen. Andere Bündnispartner wie der rbb oder die Deutsche Welle bringen ebenfalls wichtige Schwerpunkte mit ein.
Die menschliche Crowd als Wahrheitsfinder
Der Faktencheck dank menschlicher Crowd-Unterstützung ist eine Besonderheit bei news-polygraph. Bekommen Nachrichtenredaktionen etwa Material von Whistleblower:innen zur Verfügung gestellt und haben keinen Zugang zu Kontaktpersonen im jeweiligen Land, die die Echtheit bestätigen, werden die integrierten Crowdpanels aktiv. Eine Gebirgskette, Bäume, Vegetation zu einer bestimmten Jahreszeit: Vor Ort lebende Menschen können Bilder und Videos ohne technische Hilfsmittel eindeutig bestimmen. Damit diese Abfrage funktioniert, werden Freiwillige vorab in Crowds zusammengefasst und qualifizieren sich nach einem Anmeldeprozess nach ihrem speziellen Wissen (via Abfragen). Die Zuarbeit durch die Crowd kommt aus dem wissenschaftlichen Umfeld, u.a. ist die TU Berlin involviert, die bereits während der Anfangsphase des Ukraine-Kriegs eine Testphase mit ukrainischen Muttersprachler:innen durchführte. Bei einer Crowdabfrage meldet das Programm dann zurück, ob eine vorab bestimmte, hohe Prozentzahl der Teilnehmenden die gleiche Aussage getroffen hat.
Auch hier gilt: Letztendlich entscheiden die Journalist:innen, ob sie der Bewertung zustimmen. Denn, so betont Claudia Wolf: „Entscheiden muss der Mensch.“ Darauf verweise auch der Projekttitel „news-polygraph“. Wie ein Lügendetektor sei er nur Mittel zum Zweck. Die originäre Arbeit der Journalist:innen nehme man nicht ab, das wolle und könne man nicht: „Es liegt in der DNA der Journalist:innen, Inhalte einzuordnen und zu bewerten. Wir geben lediglich eine vereinfachte, schnelle, gut funktionierende und vertrauenswürdige Hilfestellung.“ Der verstärkte Ansatz durch die Crowdunterstützung gibt dabei nicht nur die Möglichkeit, zeitlich schnell zu reagieren, sondern mit einer Recherche auch sehr in die Tiefe zu gehen.
Ein Bündnis aus Spezialist:innen
Die semantische Verknüpfung übernimmt das Team von transfermedia, die bereits im dwerft-Forschungsprojekt eine Ontologie für Metadaten installiert haben und darüber hinaus für die Projektsteuerung und Koordination der zehn Partner:innen zuständig sind. Der technologische Part ist im Fraunhofer IDMT angesiedelt. Andere Partner:innenunternehmen sind Ubermetrics, die sich auf Social Media Ausschnitte spezialisiert haben, neurocat, die KI-Modelle auf Fehleranfälligkeit überprüfen sowie das Deutsche Forschungszentrum für Künstliche Intelligenz und Delphai, die eine Google-Alternative für B2B-Zwecke stellen.
Perspektivisch wird der MediaTech Hub für die technisch-mediale Ebene und die mabb für juristische Belange bei news-polygraph involviert sein. Mit erfolgreichem Abschluss des Forschungsprojekts ist eine marktreife Software geplant, die die Medienhäuser bei sich integrieren können und die kontinuierlich aktualisiert wird.
Das Projekt ging am 3. Mai 2023 offiziell in die Umsetzungsphase über. Medienschaffende können bereits in den November blicken: Dann nämlich werden die Projektpartner auf eine Veranstaltung vorstellen, was sie von news-polygraph in den kommenden Jahren erwarten dürfen.
Foto: DeepMind auf Unsplash