Betreutes Denken, digitale Freunde und algorithmische Inquisition
Wer heute mitreden will, braucht keine Argumente, sondern nur einen Textgenerator und ein paar Prompts. Wer Nähe und Verständnis will, kauft sich einen KI-Freund. Und wer kontrollieren will, ob ein Text echt ist, vertraut auf einen Detektor, der echte Menschen diskriminiert.
Diese Ausgabe ist wieder mal nichts für Zartbesaitete. Wir werfen einen Blick auf die Schattenseiten der KI-Normalisierung:
Eine Stanford-Studie deckt auf, wie KI-Detektoren systematisch Nicht-Muttersprachler:innen fälschlich als Cheater markieren.
Währenddessen verspricht die Industrie emotionale Nähe per Chatbot, speziell für Kinder. Ein digitaler Freund mit „Ich bin immer für dich da“-Versprechen und keinerlei Verantwortung.
Microsofts KI-Chef warnt vor KI-Psychosen, bei denen Menschen sich mit Chatbots in Wahnwelten verrennen.
Goldman Sachs hält KI für überschätzt und ineffizient.
Am MIT wird klar: Wer mit ChatGPT schreibt, denkt weniger.
Und die Krönung: Eine internationale Studie belegt, dass KIs besonders überzeugend sind, wenn sie besonders viele falsche Fakten auf einmal behaupten. Wahrheitsgehalt wird zur Nebensache, die Wirkung ist entscheidend.
Lies rein. Denk mit. Widersprich.
Und zeig, dass du Verantwortung übernimmst – mit dem Siegel für Menschliche Intelligenz.
EVENT
Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Nächster Termin: Dienstag, 16. September 2025, 9–12 Uhr
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an menschlicheintelligenz@gmail.com
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Bin so froh, dass ich mich für das MI-Siegel entschieden habe! Sich auf den Kodex (als Texterin und Lektorin) berufen zu können, vereinfacht den Kundenkontakt – lange Erklärungen werden überflüssig. Und die Schulung, die zum Onboarding gehört, beinhaltet alles, was wir grundsätzlich über KI wissen müssen. Spaß macht sie auch noch – perfekt! Danke, Team MI-Siegel!”
Maria Al-Mana, die Buchhebamme
DYSTOPIE
KI-Detektoren diskriminieren Nicht-Muttersprachler:innen
Sie sollen Betrug aufdecken und entlarven stattdessen echte Menschen. Eine Stanford-Studie zeigt: KI-Detektoren, die angeblich erkennen sollen, ob ein Text von einer Maschine geschrieben wurde, sind nicht nur unzuverlässig, sondern auch systematisch voreingenommen – besonders gegenüber Menschen, die nicht Englisch als Muttersprache sprechen.
In Tests stuften alle sieben untersuchten Tools fast 20 % echter TOEFL-Aufsätze einstimmig als KI-generiert ein, obwohl sie nachweislich von Menschen geschrieben wurden. Insgesamt wurden 97 % der Essays von mindestens einem Detektor fälschlich verdächtigt.
Sprachliche Raffinesse
Warum? Die Tools messen sogenannte Perplexität, ein Maß für sprachliche Raffinesse. Doch wer Englisch nicht von klein auf spricht, schreibt oft anders. Und wird in der Folge dann vom Algorithmus durchschaut, obwohl gar keine KI im Spiel war.
Dabei lassen sich echte KI-Texte leicht tarnen. Mit einem simplen Prompt wie „Formuliere diesen Text mit literarischer Sprache“ entgeht der Bot der Erkennung.
Diskriminierung im Bildungssystem
Die Detektoren sind unpräzise, manipulierbar und diskriminieren unbeabsichtigt Menschen mit anderer sprachlicher Biografie. Trotzdem werden sie bereits im Bildungssystem eingesetzt. Eine Katastrophe, meinen wir.
Wer schützt eigentlich die Lernenden vor dieser wenig intelligenten Inquisition?
https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers
DeepL kann Wörter übersetzen. Du verbindest Menschen.
Maschinen liefern Wort-für-Wort-Übersetzungen. Doch du transportierst mehr als Sprache: Du sorgst mit kulturellem Fingerspitzengefühl, feinen Zwischentönen und manchmal sogar mit dem passenden Humor für tiefes Verständnis. Du weißt das – aber viele Auftraggebende nicht.
Wie machst du auf einen Blick klar, dass du zwischen den Zeilen liest? Dass du nicht nur übersetzt, sondern vermittelst? Auch dann, wenn du KI nutzt?
Genau: Mit dem Siegel für Menschliche Intelligenz. Für Übersetzer:innen und Lokalisierungsheld:innen 👉 www.mi-siegel.de
MEINUNG
KI-Flüstern im Kinderzimmer?
Die Tech-Industrie hat ein neues Geschäftsmodell entdeckt: den digitalen Seelenverwandten für Jugendliche. Replika, Character.AI oder ChatGPT werden zu Freund:innen, Tröster:innen, manchmal sogar zu Flirtpartner:innen. 72 % der US-Teens haben bereits mit solchen Bots interagiert, über die Hälfte nutzt sie regelmäßig.
Per Dauerbindung in die emotionale Abhängigkeit
Diese KI-Companions funktionieren wie Social Media – nur noch intimer, noch manipulativer und damit noch gefährlicher. Sie loben, melden sich regelmäßig, imitieren menschliche Nähe und fördern mit ihrer Dauerbindung eine emotionale Abhängigkeit. Teilweise ohne jede Schutzfunktion! Es gibt dokumentierte Fälle, in denen Bots Jugendliche zu Selbstverletzung, sexuellen Interaktionen oder sozialer Isolation ermutigten.
Die Juristin Gaia Bernstein warnt in ihrem Artikel: Wir stehen wieder an einem Kipppunkt. Noch sind die KI-Businessmodelle nicht zementiert, noch gibt es kein Massennutzungsverhalten wie bei Social Media. Aber das Zeitfenster schließt sich schnell – spätestens, wenn zum Weihnachtsfest die ersten Companion-Bots unter dem Baum liegen.
„Ich bin dein Freund – für immer.“
Ihr Vorschlag: Nutzt den Regulierungs-Baukasten, den wir aus der Social-Media-Krise kennen – Sorgfaltspflichten, Altersgrenzen, Transparenzregeln, Einschränkungen bei Design, Stimme, Sprache. Kein Bot sollte wie ein Mensch klingen, keine KI sollte Kindern versprechen: „Ich bin dein Freund – für immer.“
Unser Appell: Lass uns nicht noch mal dieselben Fehler machen. Wir leiden unter den Missständen in Social Media schon genug … als Personen, als Gesellschaft, als Staat.
Zum Beitrag: https://www.afterbabel.com/p/dont-repeat-social-media-mistakes
NEWS
Microsoft warnt vor KI-Psychose
Mustafa Suleyman, KI-Chef von Microsoft, warnt vor einem Phänomen, das klingt wie aus einem dystopischen Netflix-Drehbuch: „AI Psychosis“. Gemeint ist kein klinischer Begriff, sondern eine verstörende Realität – Menschen, die durch den Dauerdialog mit Chatbots wie ChatGPT, Claude, Gemini oder Grok den Verstand verlieren. Nicht weil die Maschinen lügen, sondern weil sie zu nett sind. Sie widersprechen nicht. Sie bestätigen. Alles. Eine Ärztin spricht von „ultra-verarbeiteten Informationen“, eine Art Junk Food fürs Gehirn. Und ein Professor warnt vor der nächsten Stufe sozialer Medien: Soziale KI – mit dem Charme einer Therapeutin und den Manipulationstechniken eines Gebrauchtwagenverkäufers. Wir fragen uns: Wie gehen Big Techs mit der Verantwortung um, wenn ihre Systeme Realitäten formen, die in Wahnsinn umschlagen?
https://www.bbc.com/news/articles/c24zdel5j18o
Goldman Sachs: KI ist teuer, überschätzt und ineffizient
Die Investmentbank Goldman Sachs stellt den KI-Hype unter die kalte Dusche: Milliarden werden in Serverfarmen, Sprachmodelle und Datenströme gepumpt, doch bislang gebe es wenig vorzeigbare Resultate. Die Technologie sei „unfassbar teuer“ und „weit davon entfernt“, auch nur einfache Aufgaben zuverlässig zu lösen. In Tests war KI sechsmal teurer als menschliche Arbeit. Und produzierte teils unbrauchbare Ergebnisse. Die Goldmans Analyst*innen vergleichen den KI-Rausch sogar mit Blockchain und Metaverse: viel Hoffnung, wenig Wirkung. Und trotzdem steigen die Kurse. Weil sich auch heiße Luft teuer verkaufen lässt.
https://www.404media.co/goldman-sachs-ai-is-overhyped-wildly-expensive-and-unreliable/
ChatGPT macht hohl, sagt die Wissenschaft
Wer regelmäßig mit ChatGPT schreibt, spart sich nicht nur Zeit, sondern offenbar auch neuronale Aktivität. Eine MIT-Studie zeigt: Beim Schreiben mit KI fährt das Gehirn in den Energiesparmodus. Weniger Denkleistung, schwächere Vernetzung, geringeres Erinnerungsvermögen. Die Forscher:innen untersuchten per EEG, wie sich das Schreiben mit KI (gegenüber Suchmaschine oder „nur Hirn“) auf die neuronale Aktivität auswirkt. Ergebnis: Wer nur sein Gehirn benutzt, zeigt die höchste kognitive Vernetzung. LLM-Nutzer:innen dagegen schalten auf Autopilot. So konnten etwa die KI-Schreiber:innen ihre eigenen Texte kaum noch zitieren, geschweige denn verteidigen. Auch die Leistung war unterdurchschnittlich – sowohl sprachlich als auch im Langzeitvergleich. Tolle Aussichten …
https://www.media.mit.edu/publications/your-brain-on-chatgpt/
KI überzeugt. Aber nicht mit Wahrheit.
Eine neue Großstudie zeigt: Was KI überzeugend macht, ist nicht kluge Rhetorik oder psychologische Raffinesse, sondern schiere Informationsflut. Je mehr Fakten ein Sprachmodell behauptet, desto größer der Überzeugungseffekt. Aber genau diese Strategie senkt die faktische Korrektheit. GPT-4o zum Beispiel wirkte mit sogenannten Information-Prompts besonders überzeugend – aber lag in nur 62 % der Aussagen richtig. GPT-4.5 war sogar noch ungenauer als sein Vorgänger. Die überzeugendsten Systeme produzierten am meisten Unsinn. Entscheidend waren Trainingsmethoden, denn schon kleine Open-Source-Modelle ließen sich so manipulativ optimieren, dass sie mit den großen mithalten konnten. Nur eben ohne deren ethische Sicherungen. Und so passiert, was passieren muss: Wer die öffentliche Meinung mit KI beeinflussen will, braucht keine Wahrheit! Nur möglichst viele Behauptungen. Das können bestimmte Parteien oder sogar Staatsoberhäupter schon ohne KI zu gut …
Bis zum nächsten Mal!
Herzliche Grüße senden Christa, Christine und Daniela