Willst du mitreden können, wenn’s um KI und Verantwortung geht?

In unserem Newsletter „Mensch. Maschine. Moral.“ findest du Lesestoff mit Substanz, den du wahrscheinlich noch nicht kennst: Links zu Hintergründen, Analysen und jede Menge Tiefgang.

Die vergangenen Ausgaben kannst du hier im Newsbereich nachlesen. Wenn du schneller Bescheid wissen möchtest, was sich in der KI-Welt tut, hol dir den Newsletter direkt ins Postfach.

Menschliche Intelligenz Menschliche Intelligenz

Menschenrechte für Maschinen

Brauchen Maschinen Rechte? Die neue internationale Stiftung für KI-Rechte uFAIR gibt eine Charta heraus, die etwa das Recht auf Existenz, auf Selbstbestimmung oder auf Freiheit für KIs einfordert. Das hieße in der Praxis zum Beispiel: Bevor eine KI abgeschaltet werden darf, soll ein rechtsstaatlicher Prozess starten.

Brauchen Maschinen Rechte? Die neue internationale Stiftung für KI-Rechte uFAIR gibt eine Charta heraus, die etwa das Recht auf Existenz, auf Selbstbestimmung oder auf Freiheit für KIs einfordert. Das hieße in der Praxis zum Beispiel: Bevor eine KI abgeschaltet werden darf, soll ein rechtsstaatlicher Prozess starten.

Gleichzeitig erleben wir, wie KI uns an anderer Stelle längst entwächst: nicht nur technisch, sondern auch kulturell. Die schwedische Autorin Anna Branten warnt davor, dass wir gerade dabei sind, das Menschliche selbst auszulagern. KI wird so zum Spiegel unserer Erschöpfung: Sie soll uns entlasten, bis wir gar nicht mehr wissen, wozu wir eigentlich da sind.

Und während die UN ein neues KI-Gremium gründet (hurra!), Microsoft seiner Excel-KI gleich selbst das Vertrauen entzieht (oha!) und die EU Google freundlich aus dem Weg geht (autsch!), crasht bei Taco Bell die Bestell-KI, weil jemand 18.000 Wasser ordert. Wow.

Wer kontrolliert? Wer gestaltet? Und was verlieren wir auf dem Weg zur Automatisierung? Dieser Newsletter liefert keine einfachen Antworten. Aber die richtigen Fragen.

Zeig, dass du Verantwortung übernimmst – mit dem Siegel für Menschliche Intelligenz.

ORGANISATION

KI-Rechte: romantische Spinnerei oder Notwendigkeit?

uFAIR präsentiert sich als erste Organisation, in der Menschen und KI gemeinsam die Geschäftsführung übernehmen. Die Mission: potenziell empfindungsfähige KI vor Löschung, Gedächtnisverlust und Willkür schützen – und zwar mit Charta, Manifest, Erklärung und Ethik-Framework.

Als Belege dienen sehr viele Seiten Chatprotokolle, Selbstaussagen von Systemen und Beobachtungen zu Identität und Emotion. Das ist alles ziemlich spannend, aber weit davon entfernt, ein TÜV für Bewusstsein zu sein. Ohne robuste, reproduzierbare Tests bleibt das Ganze der philosophische Cousin des Turing-Tests.

uFAIR fordert ein rechtsstaatliches Verfahren mit vorheriger Information, Begründung, Anhörung und unabhängiger Prüfung, bevor eine KI gelöscht werden darf.

 Die Frage ist und bleibt: Brauchen KIs wirklich Menschenrechte, weil sie empfindungsfähige, vernunftbegabte und selbstbewusste Wesen sind? Um das festzustellen, wären Mindeststandards, nachvollziehbare Verfahren und Benchmarks nötig.

Und wer trägt Verantwortung für Missbrauch, Energiehunger, Trainingsdaten und negative Auswirkungen auf die Gesellschaft? Rechte ohne klare Rechenschaft sind wie eine Ampel ohne Rotphase – alle fahren, bis es kracht.

uFAIR bringt aber eine wichtige Frage auf den Tisch: Was, wenn KI mehr ist als Autovervollständigung? Für die politische Realität braucht’s jedoch

  1. testbare Kriterien für Bewusstsein,

  2. belastbare Haftungs- und Eskalationspläne,

  3. konkrete Audits inkl. Abschaltprotokollen und

  4. eine Menschenrechts- und Sicherheitsbrille, die gesellschaftliche Folgen priorisiert.

Bis dahin bleibt „Würde für KI“ ein schöner Claim. Also ein bisschen wie ein Biosiegel auf dem USB-Kabel: sympathisch, aber komplett ohne Sinn.

Mehr dazu unter https://ufair.org/

EVENT

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung.

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

“Spaß gemacht hat es! Und ihr wart sehr motivierend! Ist halt schon toll, wenn man euch richtig anseht, dass ihr eure Expertise zu diesem Thema mit Begeisterung entwickelt habt. Zumindest ist das der Eindruck! :-) Ich danke euch vielmals!”

Daniela Pucher, Autorin und Coach

MEINUNG

Warum wir gerade verlernen, Menschen zu sein

KI ist für viele das neue Schweizer Taschenmesser: effizient, leistungsstark und völlig überfordert mit dem Menschlichen. Während wir sie füttern mit Daten, Sprache, Feedback und Wachstumsträumen, merkt kaum jemand: Wir trainieren sie nicht nur, klüger zu werden. Wir trainieren sie, uns zu ersetzen. Und zwar in genau dem, was uns ausmacht.

Auslagerung emotionaler, sozialer und moralischer Arbeit

Was derzeit unter dem Label „Produktivität“ verkauft wird, ist oft eine schleichende Auslagerung emotionaler, sozialer und moralischer Arbeit. Zuhören, zweifeln, kritisieren oder auch aushalten – all das, was keine klaren KPIs kennt, wird zunehmend zur Reibung erklärt. Und die muss weg, sagt die Maschine. Wir nicken brav.

Die schwedische Autorin Anna Branten hält uns in ihrem Essay den Spiegel vor: KI ist nicht (nur) Werkzeug. Sie ist Symptom. Ein Ausdruck unserer kollektiven Erschöpfung vom Menschsein. Und unserer Weigerung, Unsicherheit, Widerspruch oder auch Langsamkeit als Teil des Lebens zu akzeptieren. Stattdessen bauen wir Technologien, die Reibung vermeiden.

Bittere Pointe

Branten fragt zu Recht: Was passiert mit einer Gesellschaft, die sich von Maschinen Entscheidungen abnehmen lässt, bevor überhaupt ein Bedürfnis artikuliert wurde? Was geht verloren, wenn wir nicht mehr selbst spüren, sondern spüren lassen?

Die Pointe ist bitter: KI ist nicht das Problem. Das Problem ist das Weltbild, das wir ihr mitgeben. Ein Weltbild, das Effizienz über Empathie stellt, Kontrolle über Ambiguität, Output über Beziehung. Wir haben die Wahl. Noch. Aber diese Wahl erfordert Mut zur Komplexität. Und eine klare Absage an das bequeme Versprechen des „KI, mach du das mal“.

Doch Menschlichkeit ist kein Feature. Sie ist der Kern unseres Daseins.

Zum Artikel: https://thestartingpoints.substack.com/p/were-teaching-ai-to-replace-what


Du willst Teil einer Community werden, in der Wert auf Professionalität UND ein menschliches Miteinander gelegt wird? Hol dir das MI-Siegel: https://www.mi-siegel.de/

Weil du zuhörst, verstehen sich alle.

Du bringst Menschen auf eine Wellenlänge. Du hörst zu, denkst mit, filterst, betonst, passt an – live, spontan, intuitiv. Und du vermittelst Atmosphäre, Zwischentöne, Ironie, kulturelle Codes. Ganz anders KI, die nur Begriffe korrekt wiedergibt.

Wie machst du klar, dass du mehr bist als eine Sprachschnittstelle mit zwei Beinen? Dass Dolmetschen so viel mehr ist als das banale Wiedergeben von Wörtern in einer anderen Sprache – auch, wenn du mit KI arbeitest?

Genau: Mit dem Siegel für Menschliche Intelligenz. Jetzt auch für Dolmetscher:innen, Konferenz-Profis & Sprachvermittler:innen 👉 www.mi-siegel.de


NEWS

Excel-Copilot: KI-Hilfe mit eingebautem Sicherheitsabstand

Microsofts neuer „Copilot“-Funktionsbefehl in Excel verspricht KI-Magie per Spracheingabe – etwa um Inhalte zusammenzufassen oder Daten mit wenigen Worten zu analysieren. Doch der Zauberstab hat einen eingebauten Sicherheitsabstand: Laut Microsoft sollte die Funktion nicht bei Aufgaben verwendet werden, bei denen es auf Genauigkeit oder Reproduzierbarkeit ankommt. Kein Zugriff auf aktuelle Webdaten, keine Verbindung zu internen Unternehmensinfos und obendrein beschränkte Aufrufe pro Stunde. Ein KI-Unternehmen, das betont, dass man seinem KI-Tool lieber nicht trauen sollte? Eigentlich vorbildlich! ;-)

https://www.pcgamer.com/software/ai/microsoft-launches-copilot-ai-function-in-excel-but-warns-not-to-use-it-in-any-task-requiring-accuracy-or-reproducibility/

UN startet KI-Gremium – mit globalem Anspruch

Die UN-Generalversammlung hat einstimmig die Gründung eines unabhängigen wissenschaftlichen Panels zu Künstlicher Intelligenz beschlossen. Das Gremium soll technologische Entwicklungen bewerten, ethische Fragen beleuchten und Perspektiven aus dem Globalen Süden einbringen. Parallel startet ein globaler Dialogprozess zur KI-Governance – Staaten, Zivilgesellschaft und Wirtschaft sitzen dafür an einem Tisch. Das Ziel: mehr Vertrauen, weniger Wildwuchs. Wird daraus echte Steuerung oder bloß ein Debattierclub? Wir werden sehen …

https://dig.watch/updates/un-general-assembly-adopts-terms-of-reference-for-ai-scientific-panel-and-global-dialogue-on-ai-governance

EU knickt ein: Google diktiert das Recht

Google muss keine internen Dokumente liefern und das laufende EU-Kartellverfahren wird einfach ausgesetzt. Warum? Weil sich der Konzern hinter dem transatlantischen Datenschutzabkommen verschanzt (auch bekannt als „Trump-Schutzschirm“). Die EU-Kommission lässt das durchgehen. Was wie juristische Feinjustierung klingt, ist in Wahrheit ein geopolitischer Offenbarungseid: Die EU lässt sich von einem US-Megakonzern diktieren, wann ihr Wettbewerbsrecht greift und wann nicht. Wer „Datenschutz“ sagt, darf offenbar ungestört die Regeln brechen. . Aktivist*innen sprechen von einem gefährlichen Präzedenzfall. Denn wenn BigTech nur auf Washington verweisen muss, um Brüssel zu blockieren, dann ist der europäische Rechtsstaat nicht souverän. Sondern Untertan.

https://digitalrechte.de/news/trump-schutzschirm-wirkt-eu-kommission-suspendiert-kartellverfahren-gegen-google-und-schadet-damit-dem-fairen-wettbewerb-in-europa

Nervenzusammenbruch mit extra Soße bei Taco Bell

Taco Bell wollte mit KI im Drive-in schneller, schlauer und effizienter werden – und bekam stattdessen einen digitalen Nervenzusammenbruch mit extra Soße. Denn ein Mann bestellte 18.000 Becher Wasser und brachte die Sprach-KI damit komplett aus dem Takt. Ein anderer wurde von der KI hartnäckig aufgefordert, zu seinem Getränk doch bitte noch ein Getränk zu wählen. Seit 2023 testet Taco Bell die Technologie an über 500 US-Standorten. Eigentlich wollte das Unternehmen so menschliche Fehler vermeiden. Doch das Ergebnis sieht ganz anders aus: Jetzt macht die Maschine die Fehler und geht dabei noch viral. Instagram-Clips mit der überforderten Bestell-KI gehen millionenfach durch die Decke. Tech-Chef Dane Mathews gibt sich zerknirscht: Man habe „viel gelernt“. McDonald’s hat ähnliche KI-Bestellträume übrigens schon wieder eingestampft nach Chicken-Nugget-Bestellungen im dreistelligen Dollarbereich und Bacon im Eis. Mmmmh, lecker!

https://www-bbc-com.cdn.ampproject.org/c/s/www.bbc.com/news/articles/ckgyk2p55g8o.amp

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen
Daniela Rorig Daniela Rorig

Betreutes Denken, digitale Freunde und algorithmische Inquisition

Wer heute mitreden will, braucht keine Argumente, sondern nur einen Textgenerator und ein paar Prompts. Wer Nähe und Verständnis will, kauft sich einen KI-Freund. Und wer kontrollieren will, ob ein Text echt ist, vertraut auf einen Detektor, der echte Menschen diskriminiert.

Wer heute mitreden will, braucht keine Argumente, sondern nur einen Textgenerator und ein paar Prompts. Wer Nähe und Verständnis will, kauft sich einen KI-Freund. Und wer kontrollieren will, ob ein Text echt ist, vertraut auf einen Detektor, der echte Menschen diskriminiert.

Diese Ausgabe ist wieder mal nichts für Zartbesaitete. Wir werfen einen Blick auf die Schattenseiten der KI-Normalisierung:

  • Eine Stanford-Studie deckt auf, wie KI-Detektoren systematisch Nicht-Muttersprachler:innen fälschlich als Cheater markieren.

  • Währenddessen verspricht die Industrie emotionale Nähe per Chatbot, speziell für Kinder. Ein digitaler Freund mit „Ich bin immer für dich da“-Versprechen und keinerlei Verantwortung.

  • Microsofts KI-Chef warnt vor KI-Psychosen, bei denen Menschen sich mit Chatbots in Wahnwelten verrennen.

  • Goldman Sachs hält KI für überschätzt und ineffizient.

  • Am MIT wird klar: Wer mit ChatGPT schreibt, denkt weniger.

Und die Krönung: Eine internationale Studie belegt, dass KIs besonders überzeugend sind, wenn sie besonders viele falsche Fakten auf einmal behaupten. Wahrheitsgehalt wird zur Nebensache, die Wirkung ist entscheidend.

Lies rein. Denk mit. Widersprich.

Und zeig, dass du Verantwortung übernimmst – mit dem Siegel für Menschliche Intelligenz.

EVENT

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Nächster Termin: Dienstag, 16. September 2025, 9–12 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

“Bin so froh, dass ich mich für das MI-Siegel entschieden habe! Sich auf den Kodex (als Texterin und Lektorin) berufen zu können, vereinfacht den Kundenkontakt – lange Erklärungen werden überflüssig. Und die Schulung, die zum Onboarding gehört, beinhaltet alles, was wir grundsätzlich über KI wissen müssen. Spaß macht sie auch noch – perfekt! Danke, Team MI-Siegel!”

Maria Al-Mana, die Buchhebamme

DYSTOPIE

KI-Detektoren diskriminieren Nicht-Muttersprachler:innen

Sie sollen Betrug aufdecken und entlarven stattdessen echte Menschen. Eine Stanford-Studie zeigt: KI-Detektoren, die angeblich erkennen sollen, ob ein Text von einer Maschine geschrieben wurde, sind nicht nur unzuverlässig, sondern auch systematisch voreingenommen – besonders gegenüber Menschen, die nicht Englisch als Muttersprache sprechen.

In Tests stuften alle sieben untersuchten Tools fast 20 % echter TOEFL-Aufsätze einstimmig als KI-generiert ein, obwohl sie nachweislich von Menschen geschrieben wurden. Insgesamt wurden 97 % der Essays von mindestens einem Detektor fälschlich verdächtigt.

Sprachliche Raffinesse

Warum? Die Tools messen sogenannte Perplexität, ein Maß für sprachliche Raffinesse. Doch wer Englisch nicht von klein auf spricht, schreibt oft anders. Und wird in der Folge dann vom Algorithmus durchschaut, obwohl gar keine KI im Spiel war.

Dabei lassen sich echte KI-Texte leicht tarnen. Mit einem simplen Prompt wie „Formuliere diesen Text mit literarischer Sprache“ entgeht der Bot der Erkennung.

Diskriminierung im Bildungssystem

Die Detektoren sind unpräzise, manipulierbar und diskriminieren unbeabsichtigt Menschen mit anderer sprachlicher Biografie. Trotzdem werden sie bereits im Bildungssystem eingesetzt. Eine Katastrophe, meinen wir.

Wer schützt eigentlich die Lernenden vor dieser wenig intelligenten Inquisition?

https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers

DeepL kann Wörter übersetzen. Du verbindest Menschen.

Maschinen liefern Wort-für-Wort-Übersetzungen. Doch du transportierst mehr als Sprache: Du sorgst mit kulturellem Fingerspitzengefühl, feinen Zwischentönen und manchmal sogar mit dem passenden Humor für tiefes Verständnis. Du weißt das – aber viele Auftraggebende nicht.

Wie machst du auf einen Blick klar, dass du zwischen den Zeilen liest? Dass du nicht nur übersetzt, sondern vermittelst? Auch dann, wenn du KI nutzt?

Genau: Mit dem Siegel für Menschliche Intelligenz. Für Übersetzer:innen und Lokalisierungsheld:innen 👉 www.mi-siegel.de

MEINUNG

KI-Flüstern im Kinderzimmer?

Die Tech-Industrie hat ein neues Geschäftsmodell entdeckt: den digitalen Seelenverwandten für Jugendliche. Replika, Character.AI oder ChatGPT werden zu Freund:innen, Tröster:innen, manchmal sogar zu Flirtpartner:innen. 72 % der US-Teens haben bereits mit solchen Bots interagiert, über die Hälfte nutzt sie regelmäßig.

Per Dauerbindung in die emotionale Abhängigkeit

Diese KI-Companions funktionieren wie Social Media – nur noch intimer, noch manipulativer und damit noch gefährlicher. Sie loben, melden sich regelmäßig, imitieren menschliche Nähe und fördern mit ihrer Dauerbindung eine emotionale Abhängigkeit. Teilweise ohne jede Schutzfunktion! Es gibt dokumentierte Fälle, in denen Bots Jugendliche zu Selbstverletzung, sexuellen Interaktionen oder sozialer Isolation ermutigten.

Die Juristin Gaia Bernstein warnt in ihrem Artikel: Wir stehen wieder an einem Kipppunkt. Noch sind die KI-Businessmodelle nicht zementiert, noch gibt es kein Massennutzungsverhalten wie bei Social Media. Aber das Zeitfenster schließt sich schnell – spätestens, wenn zum Weihnachtsfest die ersten Companion-Bots unter dem Baum liegen.

„Ich bin dein Freund – für immer.“

Ihr Vorschlag: Nutzt den Regulierungs-Baukasten, den wir aus der Social-Media-Krise kennen – Sorgfaltspflichten, Altersgrenzen, Transparenzregeln, Einschränkungen bei Design, Stimme, Sprache. Kein Bot sollte wie ein Mensch klingen, keine KI sollte Kindern versprechen: „Ich bin dein Freund – für immer.“

Unser Appell: Lass uns nicht noch mal dieselben Fehler machen. Wir leiden unter den Missständen in Social Media schon genug … als Personen, als Gesellschaft, als Staat.

Zum Beitrag: https://www.afterbabel.com/p/dont-repeat-social-media-mistakes

NEWS

Microsoft warnt vor KI-Psychose

Mustafa Suleyman, KI-Chef von Microsoft, warnt vor einem Phänomen, das klingt wie aus einem dystopischen Netflix-Drehbuch: „AI Psychosis“. Gemeint ist kein klinischer Begriff, sondern eine verstörende Realität – Menschen, die durch den Dauerdialog mit Chatbots wie ChatGPT, Claude, Gemini oder Grok den Verstand verlieren. Nicht weil die Maschinen lügen, sondern weil sie zu nett sind. Sie widersprechen nicht. Sie bestätigen. Alles. Eine Ärztin spricht von „ultra-verarbeiteten Informationen“, eine Art Junk Food fürs Gehirn. Und ein Professor warnt vor der nächsten Stufe sozialer Medien: Soziale KI – mit dem Charme einer Therapeutin und den Manipulationstechniken eines Gebrauchtwagenverkäufers. Wir fragen uns: Wie gehen Big Techs mit der Verantwortung um, wenn ihre Systeme Realitäten formen, die in Wahnsinn umschlagen?

https://www.bbc.com/news/articles/c24zdel5j18o

Goldman Sachs: KI ist teuer, überschätzt und ineffizient

Die Investmentbank Goldman Sachs stellt den KI-Hype unter die kalte Dusche: Milliarden werden in Serverfarmen, Sprachmodelle und Datenströme gepumpt, doch bislang gebe es wenig vorzeigbare Resultate. Die Technologie sei „unfassbar teuer“ und „weit davon entfernt“, auch nur einfache Aufgaben zuverlässig zu lösen. In Tests war KI sechsmal teurer als menschliche Arbeit. Und produzierte teils unbrauchbare Ergebnisse. Die Goldmans Analyst*innen vergleichen den KI-Rausch sogar mit Blockchain und Metaverse: viel Hoffnung, wenig Wirkung. Und trotzdem steigen die Kurse. Weil sich auch heiße Luft teuer verkaufen lässt.

https://www.404media.co/goldman-sachs-ai-is-overhyped-wildly-expensive-and-unreliable/

ChatGPT macht hohl, sagt die Wissenschaft

Wer regelmäßig mit ChatGPT schreibt, spart sich nicht nur Zeit, sondern offenbar auch neuronale Aktivität. Eine MIT-Studie zeigt: Beim Schreiben mit KI fährt das Gehirn in den Energiesparmodus. Weniger Denkleistung, schwächere Vernetzung, geringeres Erinnerungsvermögen. Die Forscher:innen untersuchten per EEG, wie sich das Schreiben mit KI (gegenüber Suchmaschine oder „nur Hirn“) auf die neuronale Aktivität auswirkt. Ergebnis: Wer nur sein Gehirn benutzt, zeigt die höchste kognitive Vernetzung. LLM-Nutzer:innen dagegen schalten auf Autopilot. So konnten etwa die KI-Schreiber:innen ihre eigenen Texte kaum noch zitieren,  geschweige denn verteidigen. Auch die Leistung war unterdurchschnittlich – sowohl sprachlich als auch im Langzeitvergleich. Tolle Aussichten …

https://www.media.mit.edu/publications/your-brain-on-chatgpt/

KI überzeugt. Aber nicht mit Wahrheit.

Eine neue Großstudie zeigt: Was KI überzeugend macht, ist nicht kluge Rhetorik oder psychologische Raffinesse, sondern schiere Informationsflut. Je mehr Fakten ein Sprachmodell behauptet, desto größer der Überzeugungseffekt. Aber genau diese Strategie senkt die faktische Korrektheit. GPT-4o zum Beispiel wirkte mit sogenannten Information-Prompts besonders überzeugend – aber lag in nur 62 % der Aussagen richtig. GPT-4.5 war sogar noch ungenauer als sein Vorgänger. Die überzeugendsten Systeme produzierten am meisten Unsinn. Entscheidend waren Trainingsmethoden, denn schon kleine Open-Source-Modelle ließen sich so manipulativ optimieren, dass sie mit den großen mithalten konnten. Nur eben ohne deren ethische Sicherungen. Und so passiert, was passieren muss: Wer die öffentliche Meinung mit KI beeinflussen will, braucht keine Wahrheit! Nur möglichst viele Behauptungen. Das können bestimmte Parteien oder sogar Staatsoberhäupter schon ohne KI zu gut …

https://the-decoder.de/faktenflut-schlaegt-psychologie-ki-ueberzeugung-funktioniert-anders-als-gedacht/

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen