Nachricht schreiben an

Sie haben keinen Betreff angegeben, möchten Sie die Nachricht ohne Betreff versenden?
Bitte beachten Sie, dass Ihre Nachricht maximal 1000 Zeichen lang sein darf
Sonderzeichen '<', '>' sind im Betreff und in der Nachricht nicht erlaubt
reCaptcha ist ungültig.
reCaptcha ist aufgrund eines Serverproblems gescheitert.

Ihre Nachricht wurde gesendet

Sie finden die Nachricht jetzt in Ihrem persönlichen Bereich unter „Meine Nachrichten“.

Es ist ein Fehler aufgetreten

Bitte versuchen Sie es nochmal.

Termin vereinbaren mit

Damit Sie einen Termin vereinbaren können, wird der Kalender auf dem persönlichen Profil Ihres Ansprechpartners in einem neuen Tab geöffnet.

Vor-Ort-Termin vereinbaren mit

Damit Sie einen Vor-Ort-Termin vereinbaren können, wird die Terminanfrage in einem neuen Tab geöffnet.

Symbolbild: Manipulierte Inhalte im Internet
  • Branchennews
  • Management, Awareness und Compliance
  • Künstliche Intelligenz (KI)

Algorithmen als Waffe gegen die Demokratie

Automatisierte Propaganda-Netzwerke nutzen KI, um demokratische Gesellschaften zu unterminieren. Gezielt eingesetzte Desinformation und Fakenews erschüttern das Vertrauen der Gesellschaft in Institutionen und die Medien. Im Superwahljahr steigen die Aktivitäten von Fakenews-Netzwerken, während es besonders auf Social-Media-Plattformen an Regulierungen hierfür mangelt. Die Frage ist, wie wir uns gegen diese Bedrohung wehren können, ohne unsere offene Gesellschaft zu gefährden.

Unruhen wie derzeit in Großbritannien zeigen, dass Desinformation und Fakenews zunehmend zu einem gesamtgesellschaftlichen Sicherheitsproblem werden. Die Suche nach Gegenmaßnahmen läuft.

Automatisierte Propaganda-Netzwerke missbrauchen für ihre Zwecke aktuelle technische Möglichkeiten wie künstliche Intelligenz. Dabei haben sie nur ein Ziel: demokratische Gesellschaften zu unterminieren. Der Ukraine-Krieg hat die Aktivitäten beflügelt. Inzwischen beschäftigen sich sogar Geheimdienste mit dem Thema Desinformation. Die möglichen Gegenmaßnahmen sind allerdings noch überschaubar und nicht immer ungefährlich.

Im aktuellen Superwahljahr fahren die Betreiber von Fakenews-Netzwerken ihre Aktivitäten hoch. Teilweise machen sie sogar gemeinsame Sache mit Cyber-Kriminellen: „Sie hacken beispielsweise den Account eines Politikers oder einer Politikerin, über den sie Falschnachrichten versenden“, warnt das BSI. Entscheidungen am Wahltag hängen oftmals davon ab, welche Informationen vor der Wahl zur Verfügung stehen. Fakenews stellen somit „eine große Gefahr für die Demokratie“, so das BSI.

Die vielfältigen Manipulationsmöglichkeiten im Cyberspace rufen massenhaft fragwürdige Akteure auf den Plan, die häufig im Auftrag autokratischer Regime keine Mühen scheuen, Menschen und Meinungen zu manipulieren. Ein spektakuläres Beispiel für den Aufwand, der dabei getrieben wird und das, was damit möglich ist, liefert die sogenannte Doppelgänger-Kampagne.

Als „größte und aggressivste Operation russischen Ursprungs“ bezeichnete der Meta-Konzern die sogenannte Doppelgänger-Operation. Mit großem Aufwand imitierten mutmaßlich russische Akteure namhafte Medien-, Ministerien- und Regierungs-Webseiten. Sie gingen dabei sehr geschickt vor, zum Beispiel wurde aus „t-online.de“ das so ähnlich klingende „t-online.online“ oder aus der Webseite des Nachrichtenmagazins „spiegel.de“ die gefälschte Seite „spiegel.ltd“. Auf den gefälschten Webauftritten stellten sie nicht einfach nur mit Fakenews garnierte Kopien der originalen Nachrichtenseiten ein, sondern unter anderem auch jede Menge manipulierte Fotos. Desweiteren produzierten sie mit spezifischen KI-Plattformen Deepfake-Videos und publizierten diese auf den gefälschten Webseiten. (Wie sich ein Experte mit Deepfake-Videos zum CEO machen konnte, schildert der Beitrag „Freundliche Übernahme“.)

 Die Untergrundakteure führten sogar eigene Interviews mit Politikern und Wissenschaftlern, machen dabei jedoch falsche Angaben über das Medium und die wahren Hintergründe. Die Inhalte werden anschließend aus dem eigentlichen Zusammenhang gerissen und mit ganz anderen Bezügen dargestellt. Massen von Social Media Bots sorgen für Verbreitung und Aufmerksamkeit über die sozialen Netzwerke.

 

“Der Boden soll schwanken“

Das bleibt nicht ohne Erfolg: „Wir sehen die Wirkung von Desinformation“ überall in der Gesellschaft, sagte Sinan Selen während der Potsdamer Konferenz für nationale Cyber-Sicherheit des Hasso-Plattner-Instituts (HPI) kürzlich. Fakenews und Desinformation war ein großes Thema der diesjährigen Veranstaltung. „Wir sehen eine Erosion des Vertrauens“, konstatiert der Vizepräsident des Bundesamtes für Verfassungsschutzes (BfV), „und das hat etwas mit Desinformation zu tun“. Das bestätigt auch Christian Dörr, Professor am HPI und Leiter des Fachgebiets „Cybersecurity und Enterprise Security“: „Die Resultate sehen wir beispielsweise in einer Radikalisierung der Gesellschaft oder in Schwierigkeiten, einen offenen Diskurs zu führen“.

Diese Wirkungen sind von den Akteuren beabsichtigt. Sie wollen Vertrauen in gesellschaftliche und politische Institutionen sowie die Medien zersetzten, die Gesellschaft polarisieren und aufwiegeln. Dazu versuchen sie, die politische Stimmung zu manipulieren, insbesondere vor Wahlen. Dabei verändern sich die Aktionen durch neue Technologien: „Während Desinformation früher eingesetzt wurde, damit die Menschen etwas Bestimmtes glauben, geht es heute darum, dafür zu sorgen, dass man gar nichts mehr glaubt. Der Boden soll schwanken“, erläutert der Journalist und ehemalige Chefredakteur des Nachrichtenmagazins „Der Spiegel“, Georg Mascolo, während der HPI-Veranstaltung. Für den Grünen-Politiker Konstantin von Notz „geht es vor allem darum, der Rechtsstaatlichkeit das Vertrauen zu entziehen“.

 

Algorithmen als Waffe

Diese Radikalisierung der Ziele bei der Verbreitung von Falschinformationen wird durch technische Fortschritte – von Social Media bis zu künstlicher Intelligenz. Sie erlauben die wesentlich effektivere Maßnahmen als etwa zu Zeiten des Kalten Krieges. „Desinformation ist kein neues Thema, aber jetzt kann ich skalieren und individuell zuschneiden; ich weiß genau, was ich Ihnen zuspielen muss, damit es wirkt“, erklärt Christian Dörr dazu. Er fügt noch hinzu: „Neu ist, dass wir im Prinzip gezielt gesteuert werden können“.

Die Macher der Fakenews-Kampagnen nutzen dabei geschickt die Interessen der Betreiber von Social-Media-Plattformen. Die Logik dieser Plattformen sei eine Logik der Gewinnmaximierung, bringt es Konstantin von Notz auf den Punkt. Die Basis dazu bilden Algorithmen, die „alles, was aufregend, beleidigend oder sensationell ist, hoch ranken“, also priorisieren, erläutert Mascolo. Für die Plattformen ist „Polarisierung ein sehr gutes Geschäftsmodell“, deshalb hätten sie kein Problem mit Desinformation, ergänzt er. BKA-Chef Holger Münch fasst die Situation so zusammen: „Wir laufen einem Problem hinterher, dass man Menschen mit einseitigen Informationen versorgt, um mit Klicks Geld zu verdienen“. BND-Vizepräsident Dag Baehr spricht sogar von „Weaponization of Algorithms“.

Je tiefer Desinformation in die Gesellschaft vordringt, desto wichtiger wird die Suche nach Gegenmaßnahmen. Der Blick wendet sich dazu sofort auf das Thema Regulierung. „Jede Würstchenbude wird schärfer reguliert als die Social-Media-Plattformen“, kritisiert von Notz. Die Erfahrungen aus der deutschen Vergangenheit sollten uns seiner Meinung nach eine Warnung sein: „Wir haben nach dem Nationalsozialismus den öffentlichen Rundfunk mit einem harten Regulierungsrahmen belegt. Im Bereich von Social Media gibt es das nicht. Das ist verrückt“, so von Notz. 

Die Schwierigkeit der Regulierungsansätze besteht jedoch darin, dass es sich fast ausschließlich um US-amerikanische Betreiber handelt. „Das Thema Desinformation werden wir alleine nicht lösen können“, schlussfolgert daher Markus Richter, Staatssekretär im Bundesinnenministerium, denn es habe nicht nur eine föderale Dimension, sondern auch eine europäische. Er sieht aber „dafür in der EU eine große Zustimmung“. Die EU fördert bereits verschiedene Projekte gegen Desinformation und hat mit „euvsdisinfo.eu“ eine Plattform zur Analyse von Fakenews-Kampagnen eingerichtet. „Ich glaube, dass wir auf EU-Ebene bald zu einer gemeinsamen Lösung kommen können“, ist Richter überzeugt.

Daneben bleiben Aufklärungskampagnen wichtig, wie sie beispielsweise von der Bundeszentrale für politische Bildung (bpb) betrieben werden. Ebenso notwendig ist die Steigerung der Medienkompetenz. So fordert etwa Georg Mascolo, Medienkompetenz in den Schulunterricht zu integrieren. BND-Vize Baehr wünscht sich hingegen einen „Mechanismus, um mehr Wahrheit unter das Volk zu bringen“, lässt jedoch unklar, wie dieser aussehen soll.

Bei allen Maßnahmen ist Vorsicht geboten, damit man nicht das zerstört, was man eigentlich bewahren will. „Wir müssen aufpassen, dass wir bei der Abwehr von Desinformation nicht das abschaffen, was unsere Gesellschaft ausmacht. Das könnte Ziel der Angreifer sein“, warnt deshalb Martin Wolff, Leiter des internationalen Clausewitz Zentrums an der Führungsakademie der Bundeswehr. Denn „Desinformation ist immer ein Angriff auf die offene Gesellschaft. Machen Sie die dicht und eine Diktatur daraus, dann haben Sie die Probleme nicht“, fügt er hinzu. Da das aber nicht gewollt sein kann, endet er mit der Frage: „Welche Normen wollen wir uns geben, um das zu verteidigen, was uns wichtig ist?“

Was Sie über den Einsatz von KI wissen sollten!

Im Cyber-Untergrund existieren KI-Systeme, die auf unterschiedliche Angriffsszenarien spezialisiert sind. Damit werden beispielsweise Social Engineering oder Phishing-Angriffe noch gefährlicher. Aber auch in der Cybersecurity wird KI inzwischen intensiv eingesetzt. KI steigert also auch die Effizienz der Abwehrmaßnahmen in Security-Lösungen wie Threat Detection, Incident Response, Phishing-Schutz oder SIEM.

 
close

Diese Inhalte oder Funktionen stehen der it-sa 365 Community zur Verfügung. 
Bitte registrieren Sie sich oder melden Sie sich mit Ihren Login-Daten an.