Die bevorstehende deutsche Bundestagswahl 2025 hat Bedenken hinsichtlich des Einflusses digitaler Technologien auf die Legitimität des demokratischen Prozesses geweckt. Die bedeutenden Entwicklungen im Bereich der Künstlichen Intelligenz (KI) in den letzten Jahren haben gezeigt, in welchem Ausmaß KI als effizientes Instrument zur Verbreitung von Desinformation und zur Manipulation von Wahlergebnissen dienen kann. Desinformation durch KI stellt eine erhebliche Bedrohung für die politische Meinungsbildung und damit für den demokratischen Rechtsstaat dar.

Neue KI-Systeme ermöglichen bislang beispiellose politische Manipulation

Die KI-gestützte Wahlbeeinflussung wird immer ausgefeilter und ist durch Cloud-Technologien zudem problemlos skalierbar. Die Verbreitung von maschinengenerierter Desinformation – bei der Social Bots und KI-erzeugtes Material gezielt falsche Informationen in sozialen Medien verbreiten – ist seit Jahrzehnten ein Problem. Durch algorithmische Verstärkung erreichen solche Inhalte große Zielgruppen und können die öffentliche Meinung innerhalb von Minuten beeinflussen. KI-Systeme können Inhalte generieren, die gezielt auf spezifische Wählergruppen zugeschnitten sind, indem sie emotionale Reaktionen auslösen und bestehende Vorurteile verstärken. Zudem sind KI-gestützte Bots in der Lage, mit echten Nutzern auf sozialen Medien in einer hochinteraktiven und dynamischen Weise zu kommunizieren, was es für die breite Bevölkerung äußerst schwierig macht, zwischen menschlichen Nutzern und KI-gesteuerten Bots zu unterscheiden. Für Laien ist es nahezuh unmöglich echte Menschen von KI-gestützten Bots zu unterscheiden.

Die Gefahren der Deepfake-Technologie bei Wahlmanipulation

Eine der gefährlichsten Formen der Wahlbeeinflussung ist der Einsatz von Deepfake-Technologie. Fortschrittliche KI-Programme sind in der Lage, täuschend echte Video- oder Audiomaterialien zu erstellen, sodass es äußerst schwierig ist, Wahrheit und Fiktion zu unterscheiden. Politischen Führungspersonen können Aussagen untergeschoben werden, die sie nie getätigt haben, oder sie können in kompromittierende Situationen gebracht werden. Die vermeintliche visuelle und auditive Glaubwürdigkeit solcher Materialien führt in der Regel dazu, dass sie sofort akzeptiert und rasch verbreitet werden.
Mithilfe von Big Data und maschinellem Lernen können politische Akteure maßgeschneiderte Desinformationskampagnen durchführen. Diese beruhen auf der Überwachung des Online-Verhaltens, der Interessen und Interaktionen von Individuen und ermöglichen es so, gezielt auf bestimmte Wählergruppen einzuwirken – oft ohne dass die manipulierten Personen sich dessen bewusst sein könnten.

Historische Präzedenzfälle: Die Auswirkungen KI-gesteuerter Manipulation

Der Einsatz von KI-gestützter Manipulation hat bereits erhebliche politische Umwälzungen ausgelöst, wie das Beispiel des Brexit-Referendums 2016 zeigt. Hier wurde die immense Wirkung gezielter Desinformationskampagnen über soziale Medien auf Wahlentscheidungen deutlich. Besonders ältere Bevölkerungsgruppen wurden mit KI-gesteuerten Falschinformationen über die wirtschaftlichen Folgen des EU-Austritts Großbritanniens sowie über die britische Souveränität konfrontiert. Zudem verstärkten algorithmische Filterblasen auf sozialen Medien die gesellschaftliche Polarisierung und führten führten zu massiven, teils gewalttätigen Protesten nach der Wahl.
Ebenso waren die US-Präsidentschaftswahlen 2016 von massiver Einflussnahme durch eine Vielzahl (mutmaßlich russisch kontrollierter) Social Bots betroffen, die Plattformen wie Facebook und Twitter mit Desinformation überschwemmten. Untersuchungen ergaben, dass insbesondere konservative Wählergruppen mit gezielten Falschinformationen angesprochen wurden, um die Wahlchancen von Donald Trump zu verbessern. Diese Manipulationen verzerrten politische Stimmungen und schürten Misstrauen gegenüber traditionellen Medien und politischen Institutionen.
Ein weiteres Beispiel sind die brasilianischen Präsidentschaftswahlen 2018 und 2022, bei denen KI-gestützte Desinformation über angebliche Wahlmanipulationen verbreitet wurde. Die hochorganisierten Kampagnen untergruben das Vertrauen der Bürger in demokratische Prozesse und führten nach den Wahlen zu massiven, teilweise gewaltsamen Protesten.

Soziale Medien als Vehikel für KI-gesteuerte Wahl-Desinformation

Plattformen wie Facebook, Instagram, TikTok und X (ehemals Twitter) sind äußerst effektive, fast dankbare Kanäle für KI-gestützte Wahlmanipulation. Diese Plattformen priorisieren Inhalte mi hohen Interaktionsraten (Liken, Kommentieren, Teilen), dadurch verbreitet sich polarisierende Desinformation deutlich schneller als neutrale oder faktenbasierte Berichterstattung. Das Geschäftsmodell dieser Plattformen basiert darauf, Nutzerengagement zu maximieren – und fördert daher emotional aufwühlende und kontroverse Inhalte.
KI-gestützte Empfehlungssysteme präsentieren Nutzern bevorzugt Inhalte, die ihre bestehenden Ansichten bestätigen, was zur Polarisierung der Gesellschaft beiträgt, indem die Konfrontation mit gegensätzlichen Meinungen minimiert wird. Dies erleichtert es, bestimmte Gruppen gezielt mit Desinformationskampagnen anzusprechen. Zudem ermöglicht KI die massenhafte Erstellung gefälschter Konten, die politische Falschinformationen in scheinbar echten Diskussionen verbreiten. In anderen Fällen werden politische Debatten durch koordinierte Aktionen dieser Fake-Accounts manipuliert, indem dieselben Bots eine große Anzahl an Nutzern gleichzeitig mit identischen Nachrichten beeinflussen – um eine künstliche Mehrheit vorzutäuschen. Kurz gesagt: KI-gestützte Bots interagieren dynamisch, gruppiert und auf natürlich anmutende Weise mit echten Benutzern.

Für Laien ist es nahezuh unmöglich echte Menschen
von KI-gestützten Bots zu unterscheiden.

Es gibt bereits Hinweise darauf, dass externe Akteure gezielt Desinformation in Deutschland verbreiten. Russland spielte in der Vergangenheit eine Schlüsselrolle bei der Verbreitung solcher Inhalte in Europa und den USA. Doch auch lokale Gruppen nutzen zunehmend KI-gestützte Methoden zur Verbreitung politischer Desinformation.

Angesichts dieser wachsenden Bedrohung sind dringend (Gegen-)Maßnahmen erforderlich. Regulierungen wie der Digital Services Act (DSA) der EU sind ein erster Schritt, um soziale Medienplattformen in die Verantwortung zu nehmen. Allerdings müssen robustere Durchsetzungsmechanismen und klare Sanktionen für Plattformen geschaffen werden, die Desinformation nicht ausreichend eindämmen.
Gleichzeitig müssen technologische Gegenmaßnahmen verstärkt werden – insbesondere KI-basierte Systeme zur Erkennung und Offenlegung von Deepfakes. Mit der Abkündigung von sogenannten Faktenchecks wird ein wichtiges Instrument zur Bekämpfung wegfallen und mangels hinreichender Medienkompetenz sind Nutzer so ein leichtes Ziel.

Die Bundestagswahl 2025: Ein Test für die Demokratie

Wie unschwer zu erkennen ist: KI ist eine Dual Use Technologie, sie kann Dämon oder Heilsbringer sein. Die Bundestagswahl 2025 könnte die erste Wahl in Deutschland sein, die in bisher unbekanntem Ausmaß mit KI-gesteuerter Desinformation konfrontiert wird. Die Erfahrungen mit dem Brexit und den US-Wahlen zeigen das enorme Potenzial für schwerwiegenden Folgen der KI-gestützten Dynamiken. Einzeln sind KI-Systeme bereits beeindruckend. Kombiniert ergeben sie eine gefährliche Waffe.
Nur durch entschlossenen politischen Willen, gesellschaftlichem Zusammenhalt und Schulterschluss, technologische Gegenmaßnahmen und einer kritischen Öffentlichkeit kann die Integrität der Demokratie und unseres Rechtsstaates bewahrt werden.
Die Entwicklung von noch leistungsfähigeren KI-Modellen (z. B. GPT-5, Sora) wird die Bedrohung weiter verschärfen. Gleichzeitig könnten Gegenmaßnahmen durch KI verbessert werden, würden sie denn eingesetzt. Es bleibt die Frage, ob Regulierungen mit der technologischen Entwicklung mithalten können.

Letztendlich: Künstlich intelligente Systeme gehören zu den Dual Use Technologien. Die Gefahr ist real und betrifft uns alle. Die Zeit zum Handeln ist jetzt.


Kurz und knackig:

Wie KI für Desinformation genutzt wird

  • KI-generierte Videos oder Audiodateien (Deepfakes), lassen Personen Dinge sagen oder tun, die sie nie gesagt oder getan haben (z. B. manipulierte Reden von Politikern).
  • KI-gesteuerte Fake-Accounts (Social Bots), die automatisch Inhalte verbreiten, Trends manipulieren und politische Diskussionen beeinflussen.
  • KI-gestützte Analyse von Nutzerdaten zur gezielten Verbreitung von Falschinformationen in bestimmten Communities (Targeted Propaganda).
  • Generative KI kann täuschend echte Fake-News-Artikel oder Social-Media-Posts erstellen und in hoher Frequenz verbreiten.
  • KI-gestützte Social Bots interagieren dynamisch mit echten Benutzern.
  • Algorithmische Verstärkung durch KI-gestützte Empfehlungssysteme (z. B. von YouTube oder TikTok) können unabsichtlich Verschwörungstheorien und Falschinformationen verstärken.

Wer nutzt KI für Desinformation?

  • Staatliche Akteure (Regierungen oder Geheimdienste) nutzen KI für Einflusskampagnen (z. B. Russland, China oder Iran).
  • Parteien oder Interessengruppen versuchen, Meinungen gezielt zu beeinflussen.
  • Einzelpersonen (Trolle) oder (Aktivisten-)Gruppen nutzen KI-gesteuerte Bots für koordinierte Angriffe auf Personen oder Institutionen.

Gefahren & Konsequenzen

  • Manipulierte Wahlkämpfe oder Referenden (z. B. Brexit, US-Wahlen 2016).
  • Falschinformationen verstärken Polarisierung und Misstrauen gegenüber Medien.
  • Zielgerichtete Desinformationskampagnen können das Vertrauen in Regierungen, Wissenschaft oder Unternehmen erschüttern.
  • Induziert Demonstrationen, Unruhe, Aufruhr

Welche Bedrohungen für Unternehmen durch missbräuchliche eingesetzte KI-Systeme ausgeht (z.B. durch Kriminelle), haben wir in unserem Jahresrückblick 2024 behandelt. Über Mythen und Fakten zu Cybercrime können Sie sich in diesem Blogartikel informieren.