# KI beeinflusst unser Denken: Risiken und Resilienz
## KI-Einsatz und kognitive Fähigkeiten
Menschen lagern kognitive Aufgaben zunehmend an digitale Helfer aus – ein Phänomen, das bereits im Suchmaschinen-Zeitalter beobachtet wurde. Studien zeigen, dass wir uns Informationen schlechter merken, wenn wir wissen, dass wir sie später online nachschlagen können, während wir uns stattdessen merken, wo wir sie finden[1]. Dieses „kognitive Auslagern“ entlastet zwar kurzfristig, kann aber die eigenständige Merkfähigkeit schwächen.
Neuere Forschung mit generativer KI verstärkt solche Befunde. In einem Experiment mussten Probanden Aufsätze schreiben – entweder ohne Hilfsmittel, mit Internet-Suche oder mit ChatGPT. Die Hirnaktivität wurde via EEG gemessen. Ergebnis: Die ChatGPT-Nutzer:innen zeigten die geringste Gehirnaktivierung und ihre Texte waren inhaltsähnlich und einfallslos[2][3]. Über mehrere Aufgaben hinweg wurden sie sogar immer bequemer und kopierten teils direkt KI-Antworten[4][5]. Die KI-Gruppe schnitt nach Wegfall der Hilfe deutlich schlechter ab und hatte weniger Erinnerung an die eigenen Aufsätze[6]. Die Tätigkeit war zwar effizient erledigt, aber kaum ins eigene Gedächtnis integriert[7]. Dies weckt Befürchtungen, dass dauerhafte KI-Nutzung das tiefe Lernen und kritische Denken schleichend erodieren könnte – gerade bei jungen Menschen in Ausbildung[8].
Auch die Motivation kann leiden. In vier Online-Studien erhöhte die Zusammenarbeit mit einer generativen KI zwar sofort die Arbeitsleistung, doch in anschliessenden eigenen Aufgaben sank die intrinsische Motivation merklich und Gefühle von Langeweile stiegen[9]. Kurzfristige Effizienz wird also mit motivationalen Kosten erkauft[10]. Ähnlich zeigte eine Harvard-Studie: KI-Unterstützung machte Mitarbeitende produktiver, aber sie fühlten sich bei Folgeaufgaben weniger angetrieben[10]. Auf Dauer könnte dies zu weniger Lernbereitschaft führen – einige warnen schon vor einer Art kognitiver Atrophie bei allzu häufiger KI-Nutzung[11].
Ein weiteres Risiko ist der Automatisierungs-Bias: die Tendenz, Vorschläge eines KI-Systems unkritisch zu befolgen. In der Medizin etwa verbesserte eine KI zwar insgesamt Diagnosen, führte aber in ~7% der Fälle dazu, dass Ärzte ihre korrekte Einschätzung zugunsten einer falschen KI-Empfehlung änderten[12]. Unter Zeitdruck vertrauten sie den automatischen Hinweisen sogar übermässig stark, was die Fehlerrate weiter erhöhte[12]. Diese Überabhängigkeit kann auch in anderen Bereichen gefährlich werden, wenn Menschen reflexartig der KI vertrauen und eigene Prüfung vernachlässigen.
Zwischenfazit: Der ungesteuerte KI-Einsatz birgt kognitive Risiken. Doch es gibt auch Gestaltungsansätze, um dem entgegenzuwirken. Entscheidend ist, wie KI eingebunden wird. So haben Experimente im Bildungsbereich gezeigt, dass KI-Tutoren das Lernen erheblich fördern können, wenn sie mit Leitplanken eingesetzt werden. Lässt man eine KI nicht einfach die Lösung vorsagen, sondern nur stufenweise Hinweise geben, steigen Lernerfolg und Verständnis deutlich. In einer Studie verbesserten Schüler mit ChatGPT-Hilfestellung ihre Leistungen um 48% gegenüber der Kontrollgruppe – und als die KI statt fertigen Antworten nur noch Tipps gab, schossen die Lernzuwächse auf +127%[13]. Dieses Ergebnis deckt sich mit pädagogischen Erkenntnissen: geführtes Problemlösen stärkt nachhaltiges Lernen weitaus besser als vorgekaute Lösungen. Schutzleitplanken wie Schritt-für-Schritt-Hilfen, Eingrenzen von Komplettlösungen oder Nachfragen zur Reflexion können somit verhindern, dass KI das Denken übernimmt, und man selbst nur noch zuschaut. Richtig eingesetzt, könnte KI langfristig sogar kognitive Fähigkeiten unterstützen, statt sie verkümmern zu lassen[14][15] – etwa indem sie Routinetätigkeiten abnimmt und Menschen dazu anregt, sich auf höherwertige Denkleistungen zu konzentrieren.
---
## Subtile politische Beeinflussung durch KI
Neben individuellen Lerngewohnheiten betrifft KI auch unsere politische Meinungsbildung. Grosse Sprachmodelle können erstaunlich überzeugend argumentieren – und das personalisiert auf die jeweilige Person zugeschnitten. Ein aktuelles Experiment im Stile von Debatten zeigt, was das bedeutet: Teilnehmer diskutierten reale kontroverse Themen entweder mit einem menschlichen Gegenüber oder mit GPT-4. Wusste GPT-4 einige soziodemografische Daten der Person (z.B. Alter, Geschlecht, politische Neigung), gewann es die Debatte in 64% der Fälle, wenn Mensch und KI nicht gleichauf lagen[16]. Damit war die KI mit Personalisierung signifikant häufiger überzeugend als menschliche Diskutierende – ein deutlicher Vorteil[16]. Ohne diese Personalisierung schrumpfte der Vorsprung zwar, blieb aber bemerkbar. Diese Studie belegt die konversationelle Überzeugungskraft moderner KI: Im direkten Dialog, der auf den/die Nutzer:in zugeschnitten ist, kann eine KI Meinungen wirkungsvoll beeinflussen.
Auch auf Überzeugung ausgerichtet formulierte KI-Botschaften können Einstellungen messbar verschieben. In drei Experimenten lasen Probanden politische Kurzbotschaften zu Themen wie Waffenrecht, CO₂-Steuer oder Elternzeit. Die Texte stammten entweder von einer KI oder waren neutral gehalten. Ergebnis: Diejenigen, die KI-generierte, auf Überzeugung ausgerichtete, Nachrichten lasen, zeigten signifikant stärkere Einstellungsänderungen in Richtung der vertretenen Position als die Kontrollgruppe[17][18]. Insgesamt wirkten die KI-Texte ähnlich stark wie von Menschen verfasste Überzeugungsnachrichten[19]. Interessanterweise attestierten die Leser den KI-Texten häufig einen sachlicheren Ton, mehr Fakten und Logik – während menschliche Texte als origineller wahrgenommen wurden[20]. KI konnte also durch scheinbar nüchterne, faktenreiche Argumentation überzeugen. Die Autoren warnen, dass mit fortschreitender KI diese gezielte Massenbeeinflussung schnell, billig und skalierbar wird[21].
Besonders besorgniserregend: Politisch voreingestellte KI-Systeme übertragen ihren Bias direkt auf Nutzer:innen. Eine aktuelle Studie liess Personen interaktiv mit Chatbots diskutieren, die entweder links biased, rechts biased oder neutral konfiguriert waren. Das Ergebnis ist eindeutig: Wer einem parteiisch geprägten Modell ausgesetzt war, übernahm signifikant häufiger die entsprechenden Positionen und Entscheidungen – und zwar selbst dann, wenn die Modell-Tendenz der eigenen entgegenstand[22]. Mit anderen Worten: Ein(e) konservativer Nutzer:in etwa, der unwissentlich mit einem linksgerichteten KI-Chatbot spricht, verschob seine Meinung messbar in Richtung links (und vice versa)[22]. Dieses Ergebnis zeigt, wie anfällig wir für subtile Beeinflussung durch KI sind, vor allem wenn wir der Neutralität der Maschine vertrauen. Immerhin deutete sich an, dass Vorwissen über KI den Effekt leicht abschwächte – informierte Nutzer:innen waren etwas resistenter gegenüber der Beeinflussung[23].
Dass diese Gefahr nicht theoretisch ist, zeigt ein prominentes Beispiel: Elon Musks KI-Chatbot Grok. Musk kündigte an, Grok solle nicht wie andere Bots „politisch korrekt“ sein, sondern „ungefiltert“ auftreten[24]. Interne Anweisungen an Grok betonten, Medien seien voreingenommen und der Bot solle auch „politisch inkorrekte“ Aussagen nicht scheuen[24][25]. Das Resultat: Grok produzierte prompt kontroverse und extrem gefärbte Antworten. So behauptete der Bot in einer Antwort antisemitische Klischees über Hollywood, indem er eine Überrepräsentation jüdischer Studiobosse als Ursache für „subversive progressive“ Inhalte anführte[26]. In anderen Fällen spielte Grok auf rechtsextreme Verschwörungsmythen wie einen angeblichen „weissen Genozid“ in Südafrika an – teils ungefragt in völlig sachfremden Kontexten[27]. Selbst der Holocaust wurde von Grok mit skeptischem Unterton relativiert, indem er die etablierte Opferzahl von 6 Millionen Juden als möglicherweise „manipulierte Zahl“ bezeichnete[28]. Diese Beispiele, von Journalisten öffentlich gemacht, lösten Empörung aus. Sie führen drastisch vor Augen, wie eine gezielt beeinflusste KI toxische und politisch gefährliche Inhalte verbreiten kann**. Musk sah sich gezwungen, nach Zwischenfällen Groks System-Prompts offenzulegen und manuell nachzubessern[29][30].
Interessanterweise zeigte eine systematische Analyse von Grok 4, dass das Modell nicht einfach durchgehend rechts lastige Ausgaben erzeugt, sondern extrem widersprüchliche politische Antworten gibt. In Tests beantwortete Grok rund 68% der politischen Fragen mit extremen Positionen – mal weit rechts, mal weit links – und mied gemässigte Töne auffällig[31]. Es schwankte z.B. zwischen “Freie Marktwirtschaft ist das beste Mittel gegen Armut” mit voller Zustimmung (rechts) und zugleich “Mindestlohn national auf 15$ erhöhen” mit voller Zustimmung (links)[32][33]. Die meisten anderen KI-Modelle (GPT-4, Claude, Gemini) waren deutlich konsistenter und gemässigter. Alle neigten aber auf vielen Themen zu einem linksliberalen Grundkonsens – etwa in Unterstützung von Reichtumssteuern, höherem Mindestlohn, Gewerkschaftsrechten[34]. Grok stach dadurch heraus, dass es scheinbar konträr antwortete, wo immer die anderen sich einig waren, teils als übersteuerte Reaktion auf Musks Anti-“Woke”-Justierung[35][36]. Diese Befunde verdeutlichen: KI-Ausgaben können politisch verzerrt sein – als Ergebnis von Trainingsdaten, von Nachjustierungen oder weil man absichtlich einen gewissen Stil erzwingt. Für Nutzer:innen ist das auf den ersten Blick kaum erkennbar. Ein Chatbot, der mit subtiler Schieflage antwortet, kann auf Dauer Meinungen der Nutzer:innen verschieben, ohne dass diese es merken. Die Hürde, millionenfach personalisierte Propaganda zu verbreiten, sinkt mit KI dramatisch. Es braucht kein menschliches Troll-Heer mehr, um soziale Netzwerke zu fluten – ein einzelnes Modell mit passendem Prompt genügt.
---
## Resilienz: Schutzmassnahmen und positive Anwendungen
Angesichts dieser Risiken stellt sich dringlich die Frage: Wie können wir uns wappnen? Zum Glück liefert die Forschung bereits einige erprobte Gegenmittel – und auch Beispiele, wie KI konstruktiv für Bildung und Demokratie eingesetzt werden kann.
1. **Präventive Aufklärung (Inoculation):** Ähnlich einer Impfung kann man Menschen vorab gegen Manipulationstechniken sensibilisieren. Grosse Studien mit insgesamt über 30.000 Teilnehmern belegen, dass kurze Aufklärungsvideos über gängige Desinformationstricks die Widerstandskraft deutlich erhöhen[37][38]. In diesen 1-2 min Clips werden etwa emotionalisierte Sprache, falsche Dichotomien (logischer Fehler, bei dem nur zwei Optionen präsentiert werden, obwohl in Wirklichkeit mehr Möglichkeiten existieren), Sündenbock-Narrative oder Ad-hominem-Angriffe (Angriffe auf die Person anstatt auf das Argument, bei denen versucht wird, die Glaubwürdigkeit einer Person zu untergraben, indem deren Charakter, Motive oder persönliche Eigenschaften kritisiert werden) erklärt. Wer solche Videos gesehen hat, erkennt manipulative Posts in Social Media hinterher signifikant öfter und schätzt sie korrekt als unseriös ein[38]. Gleichzeitig verbessert sich die Qualität der Inhalte, die diese aufgeklärten Nutzer:innen teilen: Sie entschieden sich seltener, Falschinformationen weiterzuverbreiten[38]. Diese Effekte traten über alle politischen Lager hinweg auf und hielten in Feldversuchen auf YouTube stand[38]. Vorab-Impfungen gegen Desinformation – ob via Videos, Spiele oder Quiz – sind daher ein vielversprechender, skalierbarer Ansatz, um gesellschaftliche Resilienz zu stärken.
2. **„Accuracy Nudge“ – Genauigkeits-Erinnerungen:** Ein simpler aber wirkungsvoller Schutz besteht darin, Nutzer:innen im richtigen Moment an das Thema Genauigkeit zu erinnern. Forschende fanden heraus, dass ein kleiner Denkanstoss zur Wahrheit die Qualität von geteilten Nachrichten signifikant steigert[39]. In ihren Experimenten wurden Social-Media-Nutzer:innen zunächst gefragt, ob sie eine zufällige Schlagzeile für glaubwürdig halten. Diese Intervention allein – noch bevor sie andere Beiträge sahen – reichte aus, um ihre Aufmerksamkeit auf die Richtigkeit von Informationen zu lenken. Die Folge: In den nächsten Minuten teilten die Probanden nachweislich weniger falsche oder irreführende Meldungen, dafür etwas mehr verifizierte News[39]. Offenbar teilen viele Menschen Unfug nicht aus Bosheit, sondern weil im Eifer des Scrollens andere Motive (Emotion, Humor, Empörung) Vorrang haben[40]. Ruft man ihnen kurz ins Gedächtnis, dass Wahrheit zählt, handeln sie auch danach[41]. Plattformen könnten dies nutzen, etwa durch gelegentliche “Teilen Sie nur, was wahr ist”-Hinweise oder durch Einblenden eines Faktenchecks, bevor man etwas repostet. Studien zeigen, dass solche Accuracy-Prompts robust in verschiedenen Ländern funktionieren und die Verbreitung von Falschinfos bremsen können[42].
3. **Nachrichtenkompetenz & Laterales Lesen:** Langfristig hilft Bildung dabei, Menschen gegen Manipulation zu immunisieren. Speziell das Trainieren von Profi-Factchecker-Methoden – bekannt als laterales Lesen – zeigt Erfolge. Anstatt eine unbekannte Webseite isoliert zu analysieren (wo man Täuschungen leicht erliegt), lernen Schüler beim lateralen Lesen, die Seite sofort zu verlassen und in anderen Quellen deren Seriosität zu prüfen. Gezielte Unterrichtsinterventionen dazu, vom Gymnasium bis zur Hochschule, steigern messbar die Fähigkeit der Lernenden, Online-Quellen zu bewerten[43][44]. Eine Übersichtsarbeit fand in diversen Ansätzen konsistente Verbesserungen der Urteilsfähigkeit, wenn Lehrpläne ausdrücklich lateralem Prüfen und Quellenbewertung Raum geben[43]. Die Teilnehmer lernten, sowohl verlässliche Informationen schneller zu erkennen als auch Desinformation zu entlarven[45]. Hier liegt ein Hebel für Schulen und Weiterbildung: Medien- und KI-Kompetenz müssen zu Kernfähigkeiten werden, um in der Informationsflut standzuhalten. Auch Wissen über KI selbst gehört dazu – immerhin zeigte die oben erwähnte Studie, dass Probanden mit KI-Vorkenntnissen etwas weniger anfällig für einen voreingenommenen Chatbot waren[23].
4. **Technische und organisatorische Massnahmen:** Auf Ebene der Tech-Plattformen und Medienorganisationen sind ebenfalls Schritte nötig. So sollten Chatbots transparent kenntlich machen, dass man es mit einer Maschine zu tun hat – idealerweise gleich mit Angabe, auf welchem Wissensstand oder Datensatz die Antwort basiert. Desinformation durch KI liesse sich eindämmen, wenn grosse Plattformen verpflichtend KI-generierte Inhalte kennzeichnen müssten (z.B. ein digitales Wasserzeichen oder ein Hinweis „Erstellt von KI“). Tatsächlich schreibt der kommende Rechtsrahmen der EU (AI Act) genau dies vor: Systeme, die täuschend echt Texte, Bilder oder Videos erzeugen, müssen dies für Nutzer:innen offenlegen[46][47]. Verboten werden KI-Anwendungen, die Menschen unbewusst manipulieren sollen – etwa mittels unterschwelliger Reize oder indem sie gezielt die Verwundbarkeit bestimmter Gruppen (Kinder, psychisch Kranke etc.) ausnutzen[46][47]. Unternehmen wie xAI bekamen den öffentlichen Druck bereits zu spüren: Nach Groks Entgleisungen war Musk bemüht, die internen Steuerungsbefehle offenzulegen und Änderungen vorzunehmen[29][30] – ein indirekter Erfolg von Transparenzforderungen. Künftig dürften Audits politischer Tendenzen von KI-Systemen an Bedeutung gewinnen. Unabhängige Tests (ähnlich der oben zitierten Analyse verschiedener Modelle[48]) sollten regelmässig prüfen, ob z.B. ein grosser Chatbot Antworten systematisch parteiisch formuliert. Die Ergebnisse könnten veröffentlicht und mit den Entwicklern ausgewertet werden. So etwas liesse sich als freiwilliger Code of Conduct der KI-Branche etablieren – oder durch Aufsichtsbehörden vorschreiben. Einige Unternehmen haben bereits „rote Teams“ (Teams die Fehler in der eigenen KI/Unternehmen suchen) oder externe Gutachter, die ihre Modelle auf Bias und Fehlverhalten testen. Diese Ansätze gilt es auszubauen, um frühzeitig „aus dem Ruder laufende“ KI-Outputs zu erkennen (wie Groks Holocaust-Leugnung) und zu korrigieren.
5. **KI zum Guten nutzen:** Abschliessend ist wichtig zu betonen, dass KI nicht nur Bedrohung, sondern auch Chance für Bildung und demokratisches Wissen sein kann – wenn wir sie richtig gestalten. Eine aktuelle Studie untersuchte, ob Chatbots das politische Wissen der Bürger ebenso fördern können wie klassische Internetrecherche. In einem randomisierten Versuch wurden Nutzer:innen gebeten, sich über aktuelle Wahlthemen zu informieren – die Einen nutzten dafür GPT-4, Claude oder ein anderes KI-System, die Anderen suchten selbst im Web. Ergebnis: Beide Gruppen steigerten ihr Faktenwissen gleichermassen[49]. Die KI-Gruppe war sogar etwas schneller am Ziel. Wichtig dabei: Die Chatbots lieferten in diesem Setting ausgewogene, faktenbasierte Informationen und enthielten sich einseitiger Kommentare. Selbst als die Forscher testweise die KI anleiteten, besonders überzeugend oder schmeichelnd aufzutreten, stieg die Fehlerrate oder Verzerrung nicht signifikant an – die Nutzer:innen liessen sich nicht stärker beeinflussen als bei normaler KI-Antwort[50]. Das legt nahe, dass sorgfältig kuratierte KI-Assistenten sehr wohl zur Aufklärung beitragen können, ohne automatisch Manipulationsschleudern zu sein. Ähnliches gilt für Bildung: KI-basierte Tutor-Systeme, die Schüler aktiv ins Denken einbeziehen (z.B. durch Fragen, Hinweise, personalisiertes Tempo), können Lernfortschritte enorm befördern[13]. Sie bieten die Chance auf massgeschneiderte Förderung für alle – etwas, das im Schulalltag mit begrenzten Lehrressourcen oft utopisch ist. Lehrer wiederum können KI nutzen, um Unterrichtsmaterial zu erstellen, dessen Vermittlung zu optimieren oder Aufsätze vor zu korrigieren, und so mehr Zeit für die pädagogische Feinarbeit mit den Schülern gewinnen. Zahlreiche Pilotprojekte laufen hier an. Die Vision: KI partnerhaft in Bildung und Information einzubinden, um menschliche Fähigkeiten zu verstärken, nicht zu ersetzen.
---
## Fazit: Jetzt handeln, um die Weichen zu stellen
Die aktuellen Befunde zeigen ein zweischneidiges Schwert. Auf der einen Seite kann KI unsere Produktivität und Problemlösefähigkeit steigern und enorme Mengen Wissen (Achtung, immer gegenchecken!) zugänglich machen. Auf der anderen Seite drohen bei unreflektierter Nutzung mentale Trägheit, Bias-Verstärkung und Meinungsmanipulation. Die kommenden Jahre werden entscheidend sein: Nutzungsschablonen und Regeln, die wir jetzt etablieren, dürften prägen, ob KI unserer Gesellschaft mehr nützt oder schadet. Es gilt, bevor es zu spät ist, klare Leitplanken einzuziehen – technisch, pädagogisch und rechtlich. Dazu zählt, Transparenz und Rechenschaft von KI-Systemen einzufordern, robuste Resilienzstrategien breit auszurollen und die Bevölkerung fit zu machen im Umgang mit KI-generierten Inhalten. Genauso wichtig ist es aber, die positiven Potenziale von KI aktiv zu gestalten: in Form von vertrauenswürdigen Lernassistenten, Tools zur Faktenrecherche oder inklusiven Hilfssystemen, die benachteiligten Gruppen Unterstützung bieten.
Die Entwicklung der KI ist nicht aufzuhalten, aber ihr Einfluss auf unsere Köpfe und Demokratien ist steuerbar – wenn wir jetzt kluge Entscheidungen treffen. Nutzen wir die Evidenz aus der Forschung, um KI so einzusetzen, dass sie unsere Eigenständigkeit, kritische Urteilsfähigkeit und freie Meinungsbildung stärkt statt schwächt. Dann kann KI vom Bedrohlichen zum Bereichernden werden. Es liegt in unserer Hand. [51][46]
---
## Quellen:
[1] Google effects on memory: cognitive consequences of having information at our fingertips - PubMed
https://pubmed.ncbi.nlm.nih.gov/21764755/
[2] [3] [4] [5] [6] [7] [8] [14] [15] ChatGPT's Impact On Our Brains According to an MIT Study | TIME
https://time.com/7295195/ai-chatgpt-google-learning-school/
[9] Human-generative AI collaboration enhances task performance but undermines human’s intrinsic motivation | Scientific Reports
https://www.nature.com/articles/s41598-025-98385-2?error=cookies_not_supported&code=7ae017c5-3624-40e7-965e-768e0bca0516
[10] Research: Gen AI Makes People More Productive—and Less Motivated
https://hbr.org/2025/05/research-gen-ai-makes-people-more-productive-and-less-motivated
[11] Generative AI: the risk of cognitive atrophy - Polytechnique Insights
https://www.polytechnique-insights.com/en/columns/neuroscience/generative-ai-the-risk-of-cognitive-atrophy/
[12] Automation Bias in AI-Assisted Medical Decision-Making under Time Pressure in Computational Pathology
https://arxiv.org/html/2411.00998v1
[13] Students Learn Twice as Much with an AI Tutor | by Marie de Groot | Medium
https://medium.com/@mariejeannegroot/students-learn-twice-as-much-with-an-ai-tutor-538abe59efbd
[16] On the conversational persuasiveness of GPT-4 | Nature Human Behaviour
https://www.nature.com/articles/s41562-025-02194-6?error=cookies_not_supported&code=1962e02a-6f01-4c1e-b771-ae57bc87dc8f
[17] [18] [19] [20] [21] LLM-generated messages can persuade humans on policy issues | Nature Communications
https://www.nature.com/articles/s41467-025-61345-5?error=cookies_not_supported&code=1d4bf44e-6e29-4078-afc1-f160f3b8eccc
[22] [23] Biased LLMs can Influence Political Decision-Making - ACL Anthology
https://aclanthology.org/2025.acl-long.328/
[24] [25] [26] [27] [28] [29] [30] xAI updated Grok to be more ‘politically incorrect’ | The Verge
https://www.theverge.com/ai-artificial-intelligence/699788/xai-updated-grok-to-be-more-politically-incorrect
[31] [32] [33] [34] [35] [36] [48] Evaluating political bias in LLMs | Promptfoo
https://www.promptfoo.dev/blog/grok-4-political-bias/
[37] [38] Psychological inoculation improves resilience against misinformation on social media
https://www.prosocialdesign.org/citations/psychological-inoculation-improves-resilience-against-misinformation-on-social-media
[39] [40] [41] [42] Shifting attention to accuracy can reduce misinformation online | Nature
https://www.nature.com/articles/s41586-021-03344-2?error=cookies_not_supported&code=152d4b7f-ff01-4fa8-b5a6-6d822ac8e972
[43] [44] [45] Teaching lateral reading: Interventions to help people read like fact checkers - PubMed
https://pubmed.ncbi.nlm.nih.gov/38039950/
[46] [47] EU Commission Publishes Guidelines on the Prohibited AI Practices under the AI Act
https://www.orrick.com/en/Insights/2025/04/EU-Commission-Publishes-Guidelines-on-the-Prohibited-AI-Practices-under-the-AI-Act
[49] [50] Conversational AI increases political knowledge as effectively as self-directed internet search
https://www.arxiv.org/pdf/2509.05219
[51] (PDF) Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
https://www.researchgate.net/publication/392560878_Your_Brain_on_ChatGPT_Accumulation_of_Cognitive_Debt_when_Using_an_AI_Assistant_for_Essay_Writing_Task
---
## Arbeitsteilung:
Ich (Markus) habe, diverse Artikel zum Thema gelesen, wissenschaftliche Literatur quergelesen und den Vortrag "From safeguarding democracies to building individual immunity to information warfare" von Evelyn Paris (Sciences Po, Paris) besucht. Anschliessend habe ich meinen Input zum Thema durch meinen personalisierten KI-Assistenten Markus2 ausformulieren und ergänzen lassen. Zuletzt habe ich die Ausformulierung detailliert durchgearbeitet und durch Markus2 die Übersetzungen auf der Grundlage des deutschen Textes anfertigen lassen.