Das neue Informationschaos: Wie KI die Online-Desinformation verändert
Folgen Sie unseren sozialen Kanälen, um Desinformation zu bekämpfen, das Bewusstsein für neue Bedrohungen zu schärfen und Möglichkeiten zu ihrer Erkennung zu diskutieren
Eine N3XTCODER-Serie
KI für soziale Innovation implementieren
Willkommen zur N3XTCODER-Serie über die Implementierung von KI für soziale Innovation.
In dieser Serie untersuchen wir, wie Künstliche Intelligenz zum Nutzen der Gesellschaft und unseres Planeten eingesetzt werden kann - insbesondere die praktische Anwendung von KI für Projekte sozialer Innovation.
Desinformation im Internet und besonders in sozialen Medien ist in den letzten Jahren zu einem großen globalen Problem geworden. Viele Experten für Desinformation sowie KI-Experten warnen jetzt davor, dass KI uns in eine neue Ära des Informationschaos führen könnte. Viele dieser Warnungen stellen KI als zukünftige Bedrohung durch Desinformation dar, aber KI-generierte Desinformation verbreitet sich bereits jetzt im Internet und hat bereits erhebliche Auswirkungen auf unsere Informationslandschaft.
Dieser Artikel wird folgende Themen behandeln:
- Was Online-Desinformation ist, wie sie sich verbreitet und warum sie eine Bedrohung darstellt.
- Wie KI bereits genutzt wird, um neue Arten von gefälschten Inhalten in großem Umfang zu erstellen und Einflussnetzwerke vollständig zu automatisieren.
- Wie Sie KI-generierte Desinformation erkennen und was Sie dagegen tun können.
Was ist Desinformation?
Bevor wir uns mit KI befassen, sollten wir erklären, was wir unter Desinformation verstehen.
Desinformation ist die absichtliche Verbreitung falscher Informationen. Dies geschieht natürlich schon seit Tausenden von Jahren, aber für die Zwecke dieses Artikels konzentrieren wir uns auf Desinformation, die online geteilt wird. Und wenn wir sie als größeres globales Problem diskutieren, geht es uns hauptsächlich um organisierte Desinformation, d.h. Desinformation, die koordiniert verbreitet wird, um entweder eine bestimmte Gruppe zu erreichen oder eine möglichst weite Verbreitung zu erzielen.
Das bedeutet nicht, dass jeder, der Desinformation verbreitet, dies absichtlich tut - ganz im Gegenteil. Aber es bedeutet, dass diese Menschen, die die Desinformation teilen - ob wissentlich oder nicht - im Interesse eines größeren koordinierten Projekts handeln. Es ist auch wichtig zu beachten, dass wir uns nicht nur mit Menschen befassen, die Desinformation verbreiten; ein großer Teil der Online- und Social-Media-Aktivitäten wird entweder von Bots und Algorithmen erstellt oder verstärkt.
Desinformation ist aus drei Gründen zu einem großen Anlass zur Sorge geworden:
- Es gab sehr prominente Fälle, in denen sie offenbar erhebliche Auswirkungen auf Wahlen und andere politische Ereignisse weltweit hatte.
- Die Online-Kultur und der Diskurs sind für viele Menschen, insbesondere für gefährdete Gruppen, zunehmend toxisch geworden, und viele machen dafür Desinformation verantwortlich.
- Social-Media-Plattformen und die programmatischen Werbeplattformen, die ihre Einnahmen generieren, scheinen die Produktion und Verbreitung von Desinformation in unvorstellbarem Ausmaß zu ermöglichen.
Zwei Arten von Desinformation
Desinformation wird aus zwei Hauptgründen produziert: für Profit und für politischen Einfluss.
Kommerzielle Desinformation wird einfach erstellt, um "Engagement-Köder" zu generieren, also Inhalte, die einfach genug Interesse wecken, damit Menschen darauf klicken oder, noch besser, sie in ihren Netzwerken teilen. Durch die Erstellung vieler sehr ähnlicher Websites mit sehr ähnlichen Inhalten oder Facebook-Seiten können "Content-Farmen" Traffic aufbauen, der genutzt werden kann, um über die Werbeplattformen von Facebook und Google Einnahmen zu generieren. Neben den Inhalten bauen diese Desinformationsnetzwerke auch Netzwerke von nicht authentischen Konten auf, die sich gegenseitig liken und teilen. Dies schafft weitere Verstärkung und stellt sicher, dass in diesen Netzwerken geteilte Inhalte viral gehen.
Desinformation wird auch für politischen Einfluss erstellt, mit falschen politischen Botschaften, Verschwörungstheorien und gefälschten Fotos, die in bestimmten politischen Netzwerken geteilt werden, um eine Reaktion zu provozieren, Engagement zu erzeugen und entweder eine politische Agenda voranzutreiben oder eine gegnerische Agenda zu verwirren und zu stören. Normalerweise funktionieren, wie bei kommerzieller Desinformation, Posts besonders gut, die eine starke Reaktion wie Wut oder Ekel hervorrufen; diese Posts erzeugen mehr Engagement. Wie bei kommerzieller Desinformation werden nicht authentische Netzwerkprofile aufgebaut und verwaltet, um die Reichweite und das Engagement bei Desinformationsinhalten massiv zu verstärken.
Diese Netzwerke werden von staatlichen Organisationen, politischen Netzwerken und auch kriminellen Netzwerken an vielen verschiedenen Orten der Welt eingerichtet. Wenn Sie mehr erfahren möchten, zeigt diese ausführliche Untersuchung des MIT Review, wie die Desinformationsnetzwerke funktionieren.
Der wichtige Punkt hier ist, dass es praktisch keinen Unterschied zwischen den kommerziellen und politischen Desinformationsnetzwerken gibt, tatsächlich sind sie mehr oder weniger austauschbar. Ein kommerzielles Netzwerk kann aufgebaut werden, um Traffic in einem bestimmten Land zu generieren, mit einem nicht authentischen Netzwerk von Konten, und seine schiere Größe kann das Interesse von Millionen echter Menschen wecken. Wenn es ein großes politisches Ereignis gibt, zum Beispiel eine Wahl oder einen Skandal, kann dieses Netzwerk sofort umfunktioniert werden, um politische Desinformation zu verbreiten, wenn jemand bereit ist, dafür zu bezahlen.
Diese Desinformationsindustrie - und es ist eine Industrie - entwickelt sich seit vielen Jahren. Sie ist für einige Menschen sehr profitabel und/oder politisch nützlich, wie wird KI sie also beeinflussen?
Es gibt mehrere Möglichkeiten, wie wir sehen können, dass KI bereits große Auswirkungen hat, einige davon können Sie wahrscheinlich sogar in Ihren eigenen Social-Media-Feeds sehen.
Das Internet wird mit KI-generierten Holzhundeskulpturen überflutet
Ein Bericht in 404 Media berichtet, dass Facebook in den letzten Wochen eine riesige Anzahl gefälschter Holzhundebilder gesehen hat, von denen viele viral gehen. Alle sind sehr ähnlich und basieren eindeutig auf der Arbeit eines Künstlers in Schottland.
Warum tun Content-Farmen das? Diese Bilder werden eindeutig verwendet, um Traffic zu generieren. Andere scheinbar banale Bilder werden mit den gleichen Methoden verbreitet - in der Hoffnung, viral zu gehen und damit Werbeeinnahmen zu generieren. KI ermöglicht es diesen Content-Farmen, riesige Mengen dieser Bilder zu produzieren, die Plagiatfilter umgehen können und auch die Plattform-Algorithmen, die übermäßige Wiederholung des gleichen Bildes unterdrücken.
Viele werden diese Bilder als harmlos ansehen, und natürlich gibt es sicherlich schädlichere Inhalte, wie wir noch sehen werden. Aber es gibt sicherlich Gründe zur Besorgnis:
- Erstens degradieren riesige Mengen banaler Inhalte unsere Informationsumgebung.
- Zweitens könnten die Netzwerke und Follower, die mit diesen scheinbar harmlosen Inhalten aufgebaut wurden, sofort auf andere Agenden umgelenkt werden, mit weitaus schädlicheren Folgen.
KI für Voiceovers
KI wird zunehmend verwendet, um lebensechte Kommentare zu verschiedenen Social-Media-Inhalten zu generieren. Dies wurde zum Beispiel von Politikern genutzt, wie der New Yorker Bürgermeister Eric Adams, dessen Verwaltung KI für Tausende von Roboanrufen an New Yorker Bürger verwendete, die wie Adams' Stimme klangen, aber in Sprachen, die er nicht spricht, wie Hindi, Kantonesisch und Spanisch.
Auch die Stimmen anderer Politiker wurden aus verschiedenen Gründen mit KI manipuliert. In Indien erreichte ein Clip eines Bollywood-Hits, der scheinbar vom Premierminister Modi gesungen wurde, 3,5 Millionen Aufrufe. Obwohl es keine Hinweise darauf gab, dass Modi oder seine Partei daran beteiligt waren, hat es Modis Profil sicherlich nicht geschadet. In Pakistan wurde die Stimme des inhaftierten ehemaligen Premierministers Imran Khan verwendet, um eine Rede zu generieren, die bei einer Kundgebung vor seinen Anhängern abgespielt wurde. Es sollte erwähnt werden, dass die Stimme im begleitenden Video als KI-generiert gekennzeichnet war.
KI-Voiceovers wurden auch kürzlich in einer Welle von bizarren Verschwörungstheorie-TikTok-Videos verwendet, wie zum Beispiel einem, das behauptet, die Komikerin Joan Rivers sei ermordet worden, nachdem sie enthüllt hatte, dass der damalige Präsident Barack Obama eine Liebesaffäre hatte. Das ist natürlich völliger Unsinn, und es ist schwer vorstellbar, dass jemand das glaubt, aber diese Videos erreichen enorme Zuschauerzahlen. Die Organisation, die sie identifiziert hat, NewsGuard, führte die generierten Stimmen auf ein Unternehmen namens Eleven Labs zurück, wo sich jeder kostenlos anmelden und Voiceovers generieren kann.
KI-generierte Videos in politischen Kampagnen
Deepfakes sind seit einiger Zeit ein großes Problem. Es gab in letzter Zeit viele Beispiele für politische Kampagnen, die sie einsetzen, wenn auch meist transparent, zum Beispiel dieses Extinction Rebellion Video der belgischen Premierministerin Sylvie Wilmes, das Covid mit dem Klimawandel in Verbindung bringt. Extinction Rebellion gab sehr schnell bekannt, dass sie das Video mit Deepfake-Technologie erstellt hatten. 2023 veröffentlichte das Republican National Committee ein Video, das spekuliert, was passieren könnte, wenn Präsident Biden wiedergewählt wird. Auch dieses Video wurde als KI-generiert gekennzeichnet.
Es sollte erwähnt werden, dass Deepfake und andere KI-Videotechnologien zu den wenigen Bereichen der digitalen Medien gehören, in denen die erforderliche Rechenleistung und Technologien nicht schnell, einfach und billig zu nutzen sind. Das ändert sich jedoch schnell.
In Bangladesch, wo für Januar 2024 eine Wahl angesetzt ist, werden gefälschte Videos weithin verwendet, um Politiker von ihren Gegnern zu diskreditieren und zu untergraben. Eine Untersuchung der Financial Times ergab, dass viele Videos Tools wie Heygen nutzten, um unbegrenzt KI-generierte Nachrichtenclips zu erstellen, für nur 24 Dollar pro Monat.
Das größere Problem mit Deepfake-Videos und anderen nicht authentischen Inhalten ist nicht nur der gefälschte Inhalt, sondern wie er sich auf alle Inhalte auswirkt. Es ist mittlerweile üblich, dass Politiker und andere Persönlichkeiten jeden schädlichen Inhalt als gefälscht bezeichnen, und es wird zunehmend schwieriger, ihnen das Gegenteil zu beweisen.
Diese Verwirrung kann enorme Konsequenzen haben. In Gabun wurde 2018 ein Video des kranken Präsidenten Ali Bongo von vielen als Fälschung bezeichnet, die die Öffentlichkeit beruhigen sollte, und wurde schnell von einem gescheiterten Putsch gefolgt. Ali Bongo wurde wieder an die Macht gebracht (obwohl er 2023 erneut gestürzt wurde). Bis heute hat niemand eindeutig festgestellt, ob das Video echt war oder nicht.
KI-Einflussnetzwerke
Während KI-generierte Inhalte ein großes Problem darstellen, fügen KI-generierte Einflussnetzwerke der Bedrohung eine weitere Dimension hinzu. Eine australische Untersuchung im Dezember 2023 fand über 4.500 KI-generierte Videos auf 30 YouTube-Kanälen mit insgesamt über 730.000 Abonnenten. Bei dieser Kampagne war es jedoch nicht nur der Inhalt, sondern das Netzwerk selbst wurde auch von KI-Algorithmen verwaltet, um YouTubes ebenfalls KI-gesteuerte Verstärkungsalgorithmen auszunutzen.
Bei diesem Netzwerk war, wie bei vielen, unklar, ob es sich um eine staatlich unterstützte politische Kampagne oder eine kommerzielle Operation handelte. Ebenso möglich war es irgendwo dazwischen - eine kommerzielle Kampagne mit einigen Verbindungen zu staatlichen Stellen.
Dies scheint also eine frühe Warnung vor dem Albtraum-Szenario einiger Desinformationsforscher zu sein: ein KI-verwaltetes nicht authentisches Netzwerk, das die KI-generierten Systeme ausnutzt, die Plattformen zur Verwaltung von Desinformation eingerichtet haben. Dies könnte zu einem eskalierenden Wettrüsten zwischen zwei konkurrierenden KI-Systemen führen. Das Risiko hier ist, dass ein solches Szenario möglicherweise zu einer exponentiellen Verstärkung führen könnte, mit potenziell verheerenden Folgen für die Integrität von Inhalten auf Social-Media-Plattformen.
KI-Lösungen gegen Desinformation
Angesichts der eskalierenden Bedrohungen durch KI-Desinformation entwickeln nicht überraschenderweise viele Unternehmen und Organisationen KI-Tools zur Bekämpfung von Desinformation. Logically zum Beispiel ist ein solches Tool, das auf Desinformation trainiert wird, um verdächtige Inhalte nach ihrer Wahrscheinlichkeit für Desinformation zu bewerten. Es gibt viele andere Tools, wie Adverif.ai, die eine KI-gesteuerte "FakeRank"-Bewertung anbieten.
Bisher sind die meisten KI-Tools entweder in der Entwicklung oder Beta, daher ist unklar, wie effektiv sie sind.
Die ungelöste Frage für all diese Produkte ist: Kann man KI mit KI bekämpfen? Oder wird mehr Abhängigkeit von KI das Problem nur weiter eskalieren?
Wie man KI-Desinformation erkennt
Je besser KI-Desinformation wird, desto schwieriger wird es, sie zu identifizieren. Aber es gibt Ressourcen, um informiert zu bleiben:
- Full Fact, eine Desinformations-Non-Profit-Organisation, erklärt Ihnen, wie Sie Deepfake-Videos erkennen.
- Modul 1 in diesem Online Digital Enquirer Course von GIZ und Tactical Tech zeigt Strategien zur Erkennung gefälschter Inhalte auf.
Treten Sie der AI for Impact Community bei, um Ihre Tools und Strategien zur Bekämpfung von Desinformation zu teilen.
Fazit
KI-Desinformation wird oft als zukünftige Bedrohung angesehen. Es gibt ausreichend Beweise dafür, dass sie bereits jetzt existiert. Obwohl die Muster, die wir in der KI-Desinformation sehen, sich noch in einem frühen Entwicklungsstadium befinden, können wir sicher sein, dass sie sich sehr bald weiter verbreiten werden.
Es bleibt abzuwarten, wie groß die Bedrohung für uns sein wird. Die meisten Beispiele waren bisher ziemlich offensichtlich, wir können sehen, wie KI-generierte Informationen allgegenwärtiger werden.
Wenn Politiker und andere KI-generierte oder KI-verstärkte Inhalte verwenden, ist es überhaupt Desinformation? Sicherlich würden viele argumentieren, dass es keine Desinformation ist, wenn sie es in irgendeiner Weise kennzeichnen. Die Grenzen zwischen echten und nicht authentischen Inhalten werden jedoch zunehmend schwieriger zu definieren - da KI-verstärkte Inhalte immer häufiger werden.
Das birgt einige schwerwiegende und möglicherweise weniger erwartete Risiken, die wir möglicherweise nur schwer bewältigen können:
- Erstens wird die Grenze zwischen authentischen und nicht authentischen Inhalten zunehmend verwischt, wenn Stimmen verbessert oder Video-Interviews übersetzt werden - oder vielleicht Composite-Bilder erstellt werden - was potenziell alle Inhalte verdächtig macht.
- Zweitens könnten wir, wenn sich KI-generierte Inhalte weiter verbreiten, feststellen, dass wir zunehmend davon ausgehen, dass alle Informationen und Nachrichten, die wir sehen, mit hoher Wahrscheinlichkeit nicht authentisch sind - das könnte das öffentliche Vertrauen und unsere kollektive Fähigkeit, politische Herausforderungen zu bewältigen, weiter erodieren.
2024 wird als das größte Wahljahr aller Zeiten angekündigt, mit nationalen Wahlen in Dutzenden von Ländern, darunter Großbritannien, Indien und natürlich die USA. Im Laufe des Jahres 2024 werden wir ein viel besseres Bild davon bekommen, wie gut wir wirklich auf KI-generierte Desinformation vorbereitet sind und hoffentlich auch, wie wir unsere Widerstandsfähigkeit dagegen aufbauen können.