Unruhen wie derzeit in Großbritannien zeigen, dass Desinformation und Fakenews zunehmend zu einem gesamtgesellschaftlichen Sicherheitsproblem werden. Die Suche nach Gegenmaßnahmen läuft.
Automatisierte Propaganda-Netzwerke missbrauchen für ihre Zwecke aktuelle technische Möglichkeiten wie künstliche Intelligenz. Dabei haben sie nur ein Ziel: demokratische Gesellschaften zu unterminieren. Der Ukraine-Krieg hat die Aktivitäten beflügelt. Inzwischen beschäftigen sich sogar Geheimdienste mit dem Thema Desinformation. Die möglichen Gegenmaßnahmen sind allerdings noch überschaubar und nicht immer ungefährlich.
Im aktuellen Superwahljahr fahren die Betreiber von Fakenews-Netzwerken ihre Aktivitäten hoch. Teilweise machen sie sogar gemeinsame Sache mit Cyber-Kriminellen: „Sie hacken beispielsweise den Account eines Politikers oder einer Politikerin, über den sie Falschnachrichten versenden“, warnt das BSI. Entscheidungen am Wahltag hängen oftmals davon ab, welche Informationen vor der Wahl zur Verfügung stehen. Fakenews stellen somit „eine große Gefahr für die Demokratie“, so das BSI.
Die vielfältigen Manipulationsmöglichkeiten im Cyberspace rufen massenhaft fragwürdige Akteure auf den Plan, die häufig im Auftrag autokratischer Regime keine Mühen scheuen, Menschen und Meinungen zu manipulieren. Ein spektakuläres Beispiel für den Aufwand, der dabei getrieben wird und das, was damit möglich ist, liefert die sogenannte Doppelgänger-Kampagne.
Als „größte und aggressivste Operation russischen Ursprungs“ bezeichnete der Meta-Konzern die sogenannte Doppelgänger-Operation. Mit großem Aufwand imitierten mutmaßlich russische Akteure namhafte Medien-, Ministerien- und Regierungs-Webseiten. Sie gingen dabei sehr geschickt vor, zum Beispiel wurde aus „t-online.de“ das so ähnlich klingende „t-online.online“ oder aus der Webseite des Nachrichtenmagazins „spiegel.de“ die gefälschte Seite „spiegel.ltd“. Auf den gefälschten Webauftritten stellten sie nicht einfach nur mit Fakenews garnierte Kopien der originalen Nachrichtenseiten ein, sondern unter anderem auch jede Menge manipulierte Fotos. Desweiteren produzierten sie mit spezifischen KI-Plattformen Deepfake-Videos und publizierten diese auf den gefälschten Webseiten. (Wie sich ein Experte mit Deepfake-Videos zum CEO machen konnte, schildert der Beitrag „Freundliche Übernahme“.)
Die Untergrundakteure führten sogar eigene Interviews mit Politikern und Wissenschaftlern, machen dabei jedoch falsche Angaben über das Medium und die wahren Hintergründe. Die Inhalte werden anschließend aus dem eigentlichen Zusammenhang gerissen und mit ganz anderen Bezügen dargestellt. Massen von Social Media Bots sorgen für Verbreitung und Aufmerksamkeit über die sozialen Netzwerke.
“Der Boden soll schwanken“
Das bleibt nicht ohne Erfolg: „Wir sehen die Wirkung von Desinformation“ überall in der Gesellschaft, sagte Sinan Selen während der Potsdamer Konferenz für nationale Cyber-Sicherheit des Hasso-Plattner-Instituts (HPI) kürzlich. Fakenews und Desinformation war ein großes Thema der diesjährigen Veranstaltung. „Wir sehen eine Erosion des Vertrauens“, konstatiert der Vizepräsident des Bundesamtes für Verfassungsschutzes (BfV), „und das hat etwas mit Desinformation zu tun“. Das bestätigt auch Christian Dörr, Professor am HPI und Leiter des Fachgebiets „Cybersecurity und Enterprise Security“: „Die Resultate sehen wir beispielsweise in einer Radikalisierung der Gesellschaft oder in Schwierigkeiten, einen offenen Diskurs zu führen“.
Diese Wirkungen sind von den Akteuren beabsichtigt. Sie wollen Vertrauen in gesellschaftliche und politische Institutionen sowie die Medien zersetzten, die Gesellschaft polarisieren und aufwiegeln. Dazu versuchen sie, die politische Stimmung zu manipulieren, insbesondere vor Wahlen. Dabei verändern sich die Aktionen durch neue Technologien: „Während Desinformation früher eingesetzt wurde, damit die Menschen etwas Bestimmtes glauben, geht es heute darum, dafür zu sorgen, dass man gar nichts mehr glaubt. Der Boden soll schwanken“, erläutert der Journalist und ehemalige Chefredakteur des Nachrichtenmagazins „Der Spiegel“, Georg Mascolo, während der HPI-Veranstaltung. Für den Grünen-Politiker Konstantin von Notz „geht es vor allem darum, der Rechtsstaatlichkeit das Vertrauen zu entziehen“.
Algorithmen als Waffe
Diese Radikalisierung der Ziele bei der Verbreitung von Falschinformationen wird durch technische Fortschritte – von Social Media bis zu künstlicher Intelligenz. Sie erlauben die wesentlich effektivere Maßnahmen als etwa zu Zeiten des Kalten Krieges. „Desinformation ist kein neues Thema, aber jetzt kann ich skalieren und individuell zuschneiden; ich weiß genau, was ich Ihnen zuspielen muss, damit es wirkt“, erklärt Christian Dörr dazu. Er fügt noch hinzu: „Neu ist, dass wir im Prinzip gezielt gesteuert werden können“.
Die Macher der Fakenews-Kampagnen nutzen dabei geschickt die Interessen der Betreiber von Social-Media-Plattformen. Die Logik dieser Plattformen sei eine Logik der Gewinnmaximierung, bringt es Konstantin von Notz auf den Punkt. Die Basis dazu bilden Algorithmen, die „alles, was aufregend, beleidigend oder sensationell ist, hoch ranken“, also priorisieren, erläutert Mascolo. Für die Plattformen ist „Polarisierung ein sehr gutes Geschäftsmodell“, deshalb hätten sie kein Problem mit Desinformation, ergänzt er. BKA-Chef Holger Münch fasst die Situation so zusammen: „Wir laufen einem Problem hinterher, dass man Menschen mit einseitigen Informationen versorgt, um mit Klicks Geld zu verdienen“. BND-Vizepräsident Dag Baehr spricht sogar von „Weaponization of Algorithms“.