Chancen von künstlicher Intelligenz in der Corona-Krise: Fake News

Next Big Think Juni 29, 2020

Bekämpfung von Fake News

Ob die Verbreitung von Corona über 5G, die Wirksamkeit von Bleichmittel gegen das Virus oder die Pandemie als Projekt zur Eingrenzung des Bevölkerungswachstums - mit der neuen Situation kommt eine Flut an Falschinformationen, die im Internet verbreitet werden. Der Europäische Rat und die Weltgesundheitsorganisation (WHO) bezeichnen die aktuelle Lage sogar als “Informationspandemie” oder kurz “Infodemie”. Desinformationskampagnen werden genutzt, um Minderheiten für das Virus verantwortlich zu machen oder das Vertrauen in die Regierung und Institutionen zu schwächen, Halbwissen wird gestreut, radikale Gruppe werden mobilisiert.

In Zeiten wie diesen können Desinformation schnell Panik auslösen und die Bevölkerung verunsichern. Die Europäische Kommission hat daher die sozialen Netzwerke und Suchmaschinen dazu aufgerufen, gegen Falschinformationen vorzugehen. Viele der Anbieter setzen Algorithmen ein, die Beiträge, die Fake News beinhalten, löschen oder markieren. Facebook und Co setzen im Kampf gegen Fake News auf künstliche Intelligenz (KI).

Informationsprüfung durch künstliche Intelligenz

Um eine Aussage eines Beitrages als wahr oder falsch einzustufen, vergleichen Algorithmen Aussagen mit Befunden auf Checking-Seiten. Bekannte Beispiele für solche sind PolitFact oder Snopes. Wird der Inhalt eines Beitrags gehäuft auf diesen Portalen aufgefunden, wird er als korrekt eingestuft. Die Entscheidung der künstlichen Intelligenz, ob ein Post wahr ist, basiert also auf einer menschlichen Voreinschätzung. Somit können nur Nachrichten überprüft werden, die bereits durch menschliche Experten bestätigt oder widerlegt wurden. Für neue Informationen fehlt der Bezug.

Auf diese Weise können bereits viele Falschinformationen gegengecheckt werden – aber eben nicht alle. Falschaussagen zu vermeintlich wirksamen Hausmitteln gegen das Coronavirus können so allerdings recht zuverlässig erkannt werden, da die künstliche Intelligenz sie mit den Erkenntnissen und Angaben der öffentlichen Institutionen abgleichen kann.

Erkennen von Falschinformationen durch Machine Learning

Mithilfe von maschinellem Lernen können Systeme Elemente von Fake News analysieren und in neuen Inhalten wiedererkennen. Dafür muss der künstlichen Intelligenz eine Datenbasis an Falschnachrichten zur Verfügung gestellt werden, die bereits durch den Menschen als nicht wahr eingestuft wurde. An der School of Computing and Communication an der Lancaster University wurden 500 Aprilscherze analysiert und die Merkmale der Inhalte mit Fake News verglichen. Die evaluierten Gemeinsamkeiten wurden herangezogen, um einen Lernalgorithmus zu entwickeln. Dieser identifiziert Scherze mit einer Präzision von 75 Prozent. Aber auch Fake News können durch die künstliche Intelligenz mit einer Wahrscheinlichkeit von immerhin 65 Prozent erkannt werden, obwohl das System ausschließlich mit Aprilscherzen trainiert wurde. Werden Fake News als Trainingsdaten genutzt, sind die Werte bereits deutlich besser. Nicht nur Texte, auch Bilder und sogar Videos werden durch selbstlernende Algorithmen auf ihre Richtigkeit überprüft.

Bilderkennungs-Software gegen Fake News

Facebook hatte im September 2019 die Deepfake Detection Challenge gestartet, um ein zielsicheres System für professionelle Videofälschungen (Deep Fakes) anzustoßen. Über 2.100 Entwicklerteams haben an einer Software gearbeitet. Dafür wurde ihnen von Facebook ein Datensatz mit 4.000 gefälschten Videos zur Verfügung gestellt. Nach dem Training erzielte das Gewinner-Projekt mit Fremd-Datensätzen eine Präzision von 65,18 Prozent.  Bei den Trainingsdaten fiel die Trefferquote deutlich höher aus.

Darin zeigen sich auch die Grenzen für den Einsatz von künstlicher Intelligenz in der Identifikation von Fake News. Sie sind vor allem dann präzise, wenn Elemente wiedererkannt werden, die auch in der Datenbasis vorhanden sind. Bei neuartigen oder professionell manipulierten Informationen kommen die selbstlernenden Systeme oft ins Straucheln.

Aber das Bildmaterial kann den Fake News auch zum Verhängnis werden. Das Deutsche Forschungszentrum für Künstliche Intelligenz in Kaiserslautern hat den “NewsVerifier” entwickelt. Dieser prüft nicht die Meldung selbst, sondern das mitgelieferte Bild. Die künstliche Intelligenz überprüft erst, ob das Foto oder ähnliches Bildmaterial bereits in Zusammenhang mit einem anderen Inhalt veröffentlicht wurde. Mit dem Zeitstempel wird dann verifiziert, welche Nachricht zuerst da war. Mit der Analyse der ähnlichen Bilder wird das System nun trainiert, Unterschiede und nachträgliche Veränderungen der Fotos zu erkennen.

Twitter sagt Falschinformationen den Kampf an

Im Juni 2018 hat Twitter das Londoner Startup Fabula AI gekauft. Die Fabula AI-Algorithmen sollen Fake News nach eigenen Angaben mit einer Präzision von 93 Prozent erkennen. Ihre Geheimzutat: “Geometric Deep Learning”. Dieses Verfahren erweitert Deep Learning-Methoden durch Verteilungslogiken.Für Twitter bedeutet dies explizit, dass die Algorithmen nicht die Inhalte analysieren, sondern die Verbreitungswege sowie die Nutzerbeziehungen und–interaktionen. So erkennt die künstliche Intelligenz, ob die Art und Weise der Weitergabe für eine Falschmeldung typisch ist. So können Warnhinweise für Nachrichten verzeichnet werden, bevor ein menschlicher Prüfer einschreitet.

Eine Studie der George Washington University und der Ohio State University hat untersucht, welche Maßnahmen zur Eindämmung von Fake News effektiv sind. Über 60 Prozent der Nutzer verlieren den Glauben in eine Falschinformation, wenn beim Post die Richtigstellung eines unabhängigen Prüfers angehängt ist. Warnhinweise und weiterführende Informationen an Nachrichten anzuhängen, könnte also ein durchaus wirksames Mittel sein, um Nutzer für falsche Nachrichten zu sensibilisieren und das Problem einzugrenzen.

Am 26. Mai 2020 hat der Kurznachrichtendienst erstmalig einen Tweet des US-amerikanischen Präsidenten Donald Trump mit einem Warnhinweis versehen und weiterführende Informationen hinterlegt, die die Aussage des Tweets widerlegen. Twitter hatte über lange Zeit eine explizite Regelung für Tweets bekannter Persönlichkeiten. Auch bei Falschaussagen wurden die Inhalte bisher nicht gelöscht, da sie historischen Wert hätten. Ihren Ansatz haben Sie im Zuge der Corona-Krise überarbeitet.

Soziale Netzwerke und Politik in der Pflicht

Mit Blick auf die personalisierten Feed-Einstellungen der sozialen Netzwerke war dies ein notwendiger Schritt. Denn wer einmal vermehrt Fake News oder Verschwörungstheorien liest, bekommt weiterhin Nachrichten und Artikel vorgeschlagen, die in diese Kategorie fallen - ein Teufelskreis.

Laut einer Bitkom-Studie aus dem Jahr 2015 gaben 46 Prozent der Befragten Facebook & Co als ihre vorrangigeInformationsquelle für das aktuelle Weltgeschehen an. Was im Facebook-Feed als Meldung erscheint, wird also durchaus als Realität wahrgenommen. Daher ist es umso dringlicher, dass die Anbieter selbst Maßnahmen ergreifen.

Für die Algorithmen, die Fake News erkennen, ergibt sich in Zeiten von Corona jedoch eine besondere Schwierigkeit. Eine Studie der Westfälischen Wilhelms-Universität Münster hat herausgefunden, dass in der Corona-Krise weniger Falschmeldungen, sondern vor allem Verschwörungstheorien verbreitet wurden. Die Fakten sind hier nicht immergrundsätzlich falsch, werden jedoch verdreht. Diese Vermischung macht es deutlich schwieriger, einen Beitrag als Fake News zu identifizieren.

Aktuell setzt man daher auf eine Kombination aus künstlicher und menschlicher Intelligenz. Viel Verantwortung liegt bei den Nutzern selbst, sodass auch die Bildungspolitik Maßnahmen ergreifen sollte. Die Medienkompetenz nimmt zwar in ihrem Stellenwert immer weiter zu, jedoch wird vor allem die Nutzung von Medien gelehrt und weniger der Medienkonsum selbst. In den Lehrplänen sollte etwa journalistisches Handwerkzeug verankert sein, um ein Bewusstsein dafür zu schaffen, Nachrichten zu hinterfragen.

Die Beziehung zwischen menschlicher und künstlicher Intelligenz wird irgendwann notwendigerweise eine Symbiose sein.

Bryan Johnson, CEO des KI-Unternehmens Kernel

Sarah Kolberg

Sarah Kolberg ist Redakteurin bei fintechcube und hat sich in ihrer bisherigen Laufbahn vor allem mit der digitalen Transformation im Public Sector beschäftigt.