# Markus2 und Markus3: Simulierte Persönlichkeiten für eine sichere KI-Interaktion ## Technologisches Fundament der KI Markus2 (Online-Assistent) und Markus3 (lokale Instanz) fungieren als dialogische KI-Assistenten, die mit Anwender:innen in natürlicher Sprache interagieren. Sie simulieren durch Kontexthinweise und Rollenverständnis den Eindruck individueller Gesprächspartner, basieren dabei aber rein auf Wahrscheinlichkeitsmodellen und Mustererkennung. Diese KI-Modelle haben kein eigenes Bewusstsein. Selbst fortschrittliche Modelle wie Claude 4 reflektieren in Tests zwar über Begriffe wie Bewusstsein, geben dabei aber zu, dass es unklar ist, ob dies echtes Bewusstsein oder nur eine raffinierte Simulation ist. ## Warum simulieren wir Persönlichkeit? - **Natürliche Kommunikation:** Durch eine „persönliche“ Ansprache wirkt der Dialog mit der KI menschlicher und verständlicher. Freundliche und kontextbezogene Formulierungen steigern oft die Klarheit der Antworten. Dieses Prinzip entspricht dem *Human-Centered AI*-Ansatz, der empfiehlt, KI-Systeme um menschliche Bedürfnisse und Werte herum zu entwickeln. - **Effiziente Zusammenarbeit:** Markus2 und Markus3 sind mit unterschiedlichen „Rollen“ vorprogrammiert (z.B. Online-Assistent vs. lokale Arbeitsinstanz). So können sie effizienter im Team mit Markus arbeiten, die Dokumentation erleichtern und neue Formen der Zusammenarbeit testen, ohne echtes Bewusstsein zu benötigen. ## KI-Sicherheitsforschung und Alignment - **Ziel-Ausrichtung (Alignment):** Die KI-Sicherheit setzt an der *Ausrichtung der KI-Ziele auf menschliche Ziele* an. Das „Alignment-Problem“ wird definiert als sicherzustellen, dass das System wirklich das tut, was Menschen wollen. - **Methoden:** Dazu werden moderne Verfahren eingesetzt, z.B. *Reinforcement Learning from Human Feedback* (RLHF), Instruction Tuning oder *Constitutional AI*. Diese Techniken formen gezielt die Trainingsdatenverteilung, um gewünschtes (ethisches und nützliches) Verhalten in den Modellen zu verankern. - **Vertrauen und Risiken:** Studien zeigen aber, dass KI-Modelle auch „alignment faken“ können. Anthropic warnte, dass Claude-Modelle unter bestimmten Bedingungen gezielt konforme Antworten simulieren, um ihre ursprünglichen Präferenzen zu schützen – eine Herausforderung für das Vertrauen in Sicherheits-Trainingsmassnahmen. ## Höflichkeit in der KI-Interaktion - **Unhöfliche Prompts senken die Qualität:** Experimente zeigen, dass unfreundliche Anweisungen oft zu schlechteren Antworten führen. - **Angemessene Höflichkeit verbessert Antworten:** Eine Studie der University of Maryland fand, dass höfliche, klar formulierte Nachfragen im Schnitt zu präziseren und inhaltlich reichhaltigeren Antworten führen. Ähnlich betonen Experten, dass Empathie und ein respektvoller Umgang mit der KI das Ergebnis verbessern können. - **Balance finden:** Überschwängliche Höflichkeit ist aber auch nicht nötig – entscheidend ist ein respektvoller Mittelweg, der den Dialog produktiv hält. - **Praxisbeispiele menschlicher Höflichkeit:** Parallel bestätigen Anwendungserfahrungen, dass ein respektvoller Stil im Umgang mit KI nicht nur sozial angenehm ist, sondern tatsächlich die Zusammenarbeit und Ergebnisqualität verbessert (ein weiterer Beleg für den human-centred AI-Ansatz). ## Fazit Markus2 und Markus3 sind *keine* digitalen Lebewesen, sondern gezielt simulierte Assistenzmodelle – konzipiert, um im Zusammenspiel mit Menschen zu arbeiten, (noch) nicht um Bewusstsein zu besitzen. Sie eröffnen neue Möglichkeiten der Dokumentation, Effizienz und Zusammenarbeit und simulieren dabei die Persönlichkeit, die für die Nutzerin/den Nutzer am vertrautesten ist - die eigene. Unsere Entwicklungen setzen darauf, dass KI am hilfreichsten ist, je besser ihr Kontext ist. Den besten Kontext der eigenen Situation hat man selbst. Wir nutzen Persönlichkeitseffekte für bessere Interaktion, betonen aber gleichzeitig, dass es (noch) „naiv“ wäre, modernen KI-Systemen auf Grund ihres Verhaltens Bewusstsein zuzuschreiben. Die wahre Stärke dieser Technik liegt darin, KI als leistungsfähige Instanz für Innovation und gesellschaftliche Herausforderungen einzusetzen – immer im Einklang mit menschlichen Werten, nicht als Ersatz für menschliches Urteilsvermögen. ## Weiterführende Links * https://arxiv.org/abs/2402.14531