# KI in Politik und Desinformation
Die Integration von Künstlicher Intelligenz in politische Prozesse und die Verbreitung von Informationen hat weitreichende Auswirkungen auf die öffentliche Meinung, die Demokratie und die gesellschaftliche Stabilität. KI-generierte Inhalte, insbesondere im Bereich der Desinformation und Propaganda, können die Wahrnehmung der Realität verzerren und gezielt Meinungen beeinflussen. Dies stellt eine ernsthafte Herausforderung für Regierungen, Plattformbetreiber und die Zivilgesellschaft dar.
## Ursprung und Beschreibung des Phänomens
KI-Technologien, insbesondere generative Modelle, ermöglichen die automatisierte Erstellung und Verbreitung von Inhalten in einem Umfang und mit einer Überzeugungskraft, die zuvor undenkbar waren. Dies wird in der politischen Arena auf verschiedene Weisen genutzt:
* **Automatisierte Propaganda:** KI kann verwendet werden, um grosse Mengen an Texten, Bildern und Videos zu generieren, die politische Botschaften verbreiten, Narrative verstärken oder Gegner diskreditieren. Diese Inhalte können so gestaltet sein, dass sie spezifische Zielgruppen ansprechen und deren Überzeugungen manipulieren.
* **Deepfakes in der Politik:** Die Fähigkeit, realistische Audio- und Videoaufnahmen von Politikern oder öffentlichen Personen zu erstellen, die Dinge sagen oder tun, die nie stattgefunden haben, birgt ein enormes Potenzial für Desinformation und Skandale. Dies kann das Vertrauen in Medien und Institutionen untergraben.
* **Meinungsbeeinflussung durch Bots:** KI-gesteuerte Social-Media-Bots können eingesetzt werden, um Debatten zu dominieren, bestimmte Hashtags zu pushen oder die Illusion einer breiten Unterstützung für eine bestimmte Position zu erzeugen. Sie können auch dazu dienen, Zwietracht zu säen und gesellschaftliche Spaltungen zu vertiefen.
* **Gezielte Desinformation:** KI kann dabei helfen, Desinformationskampagnen zu personalisieren und auf die psychologischen Profile einzelner Nutzer zuzuschneiden, um deren Anfälligkeit für bestimmte Botschaften auszunutzen.
## Psychologische Aspekte der KI-gestützten Desinformation
Die Wirksamkeit von KI-gestützter Desinformation beruht auf mehreren psychologischen Mechanismen:
* **Bestätigungsfehler (Confirmation Bias):** Menschen neigen dazu, Informationen zu suchen und zu interpretieren, die ihre bereits bestehenden Überzeugungen bestätigen. KI-Algorithmen können diese Tendenz ausnutzen, indem sie Nutzern gezielt Inhalte präsentieren, die ihre Vorurteile verstärken und alternative Perspektiven ausblenden.
* **Glaubwürdigkeit und Vertrauen:** Wenn KI-generierte Inhalte überzeugend und realistisch erscheinen, können sie leicht als authentisch wahrgenommen werden. Dies gilt insbesondere für Deepfakes, die das menschliche Vertrauen in visuelle und auditive Beweise ausnutzen.
* **Emotionale Ansteckung:** Desinformation ist oft darauf ausgelegt, starke Emotionen wie Angst, Wut oder Empörung hervorzurufen. KI kann Inhalte generieren, die emotional aufgeladen sind und sich schnell viral verbreiten, was zu einer emotionalen Ansteckung in der Bevölkerung führen kann.
* **Kognitive Überlastung:** Die schiere Menge an Informationen und Desinformation, die durch KI generiert und verbreitet werden kann, kann zu einer kognitiven Überlastung führen. Menschen haben Schwierigkeiten, die Flut von Inhalten zu verarbeiten und zwischen Wahrheit und Fiktion zu unterscheiden.
* **Illusion der Wahrheit (Illusory Truth Effect):** Die wiederholte Exposition gegenüber falschen Informationen, selbst wenn sie als solche erkannt werden, kann dazu führen, dass sie mit der Zeit als wahrer empfunden werden. KI ermöglicht eine massenhafte Wiederholung von Desinformation.
## Risiken und Herausforderungen
Die gezielte Beeinflussung des öffentlichen Diskurses durch KI birgt erhebliche Risiken:
* **Bedrohung der Demokratie:** KI-gestützte Desinformation kann Wahlen manipulieren, die öffentliche Meinung spalten und das Vertrauen in demokratische Prozesse untergraben.
* **Erosion des Vertrauens:** Wenn die Grenzen zwischen Fakten und Fiktion verschwimmen, kann dies zu einem allgemeinen Misstrauen gegenüber allen Informationsquellen führen, was die Grundlage einer informierten Gesellschaft gefährdet.
* **Soziale Polarisierung:** KI kann dazu beitragen, Echokammern und Filterblasen zu verstärken, indem sie Nutzern nur Inhalte präsentiert, die ihre bestehenden Ansichten bestätigen. Dies kann die soziale Polarisierung vorantreiben und den Dialog zwischen verschiedenen Gruppen erschweren.
* **Schwierigkeiten bei der Erkennung:** Die zunehmende Raffinesse von KI-generierten Inhalten macht es immer schwieriger, Desinformation zu erkennen und zu entkräften. Dies erfordert neue Ansätze in der Medienkompetenz und der technologischen Erkennung.
## Gegenmassnahmen und Regulierung
Um die Risiken von KI in Politik und Desinformation zu mindern, sind koordinierte Anstrengungen erforderlich:
* **Technologische Erkennung:** Entwicklung und Einsatz von KI-Tools zur Erkennung von Deepfakes und automatisiert generierten Inhalten.
* **Medienkompetenz:** Stärkung der Medienkompetenz in der Bevölkerung, um kritische Denkfähigkeiten zu fördern und die Fähigkeit zu verbessern, Desinformation zu identifizieren.
* **Regulierung und Gesetzgebung:** Schaffung von Gesetzen und Vorschriften, die den Missbrauch von KI für Desinformationszwecke unterbinden und Plattformbetreiber in die Pflicht nehmen.
* **Zusammenarbeit:** Enge Zusammenarbeit zwischen Regierungen, Technologieunternehmen, Forschungseinrichtungen und der Zivilgesellschaft, um Strategien zur Bekämpfung von Desinformation zu entwickeln.
* **Transparenz:** Forderung nach mehr Transparenz bei der Erstellung und Verbreitung von KI-generierten Inhalten, z.B. durch Kennzeichnungspflichten.
## Weiterführende Links
* https://hai.stanford.edu/policy/how-persuasive-ai-generated-propaganda
* https://cset.georgetown.edu/publication/ai-and-the-future-of-disinformation-campaigns/
* https://cset.georgetown.edu/publication/ai-and-the-future-of-disinformation-campaigns-2/
* https://arxiv.org/abs/2408.12603
* https://journals.sagepub.com/doi/10.1177/2056305120903408