Willst du mitreden können, wenn’s um KI und Verantwortung geht?
In unserem Newsletter „Mensch. Maschine. Moral.“ findest du Lesestoff mit Substanz, den du wahrscheinlich noch nicht kennst: Links zu Hintergründen, Analysen und jede Menge Tiefgang.
Die vergangenen Ausgaben kannst du hier im Newsbereich nachlesen. Wenn du schneller Bescheid wissen möchtest, was sich in der KI-Welt tut, hol dir den Newsletter direkt ins Postfach.
Vom Dirty Talk bis zum Digital Detox
Was haben ein flüsternder Chatbot, ein ratloses Prüfungsamt, ein schwitzendes Rechenzentrum und eine hyperaktive Unternehmensberatung gemeinsam? Sie alle stehen exemplarisch für eine Digitalwelt, die zwar von Intelligenz redet, aber zunehmend die Orientierung verliert.
In dieser Ausgabe nehmen wir dich mit in ein digitales Paralleluniversum, das so widersprüchlich ist wie der Zeitgeist selbst:
ChatGPT soll bald sinnlich stöhnen, aber bei politischen Fragen Neutralität vorgeben.
Staaten investieren Milliarden in automatisierte Sanktionen und lassen sich dann Gutachten mit KI-generierten Quellen andrehen.
Universitäten versuchen, Prüfungen KI-sicher zu machen, statt sich zu fragen, warum ihre Formate überhaupt so leicht auszuhebeln sind.
Und plötzlich gibt es Gesetze, die fordern, dass Maschinen wenigstens zugeben müssen, keine Menschen zu sein.
Was haben ein flüsternder Chatbot, ein ratloses Prüfungsamt, ein schwitzendes Rechenzentrum und eine hyperaktive Unternehmensberatung gemeinsam? Sie alle stehen exemplarisch für eine Digitalwelt, die zwar von Intelligenz redet, aber zunehmend die Orientierung verliert.
In dieser Ausgabe nehmen wir dich mit in ein digitales Paralleluniversum, das so widersprüchlich ist wie der Zeitgeist selbst:
ChatGPT soll bald sinnlich stöhnen, aber bei politischen Fragen Neutralität vorgeben.
Staaten investieren Milliarden in automatisierte Sanktionen und lassen sich dann Gutachten mit KI-generierten Quellen andrehen.
Universitäten versuchen, Prüfungen KI-sicher zu machen, statt sich zu fragen, warum ihre Formate überhaupt so leicht auszuhebeln sind.
Und plötzlich gibt es Gesetze, die fordern, dass Maschinen wenigstens zugeben müssen, keine Menschen zu sein.
Zwischen hyperautomatisierter Zukunft und analoger Ohnmacht liegt der wunde Punkt unserer Zeit: Wir bauen Systeme, die wir weder durchblicken noch beherrschen. Und delegieren Verantwortung dorthin, wo kein Bewusstsein dafür vorhanden ist.
Doch etwas ist in jeder Ausgabe dieses Newsletters gleich: Es geht um Haltung. Um Grenzen. Und um die Entscheidung, ob wir der Technik alles überlassen wollen oder doch besser selbst zu denken.
Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.
SCHULUNG
Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Mittwoch, 5. November 2025, 9–12:30 Uhr
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung.
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich per Mail an menschlicheintelligenz@gmail.com
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Grundsätzlich würde ich die Schulung vor allem Leuten empfehlen, die der KI eher kritisch gegenüberstehen und die Vorteile noch nicht oder wenig für sich nutzen. Die können aus meiner Sicht am meisten mitnehmen, weil ihre Bedenken ernst genommen, teilweise aber auch entkräftet werden.“
Heide Liebmann, Potenzialdetektivin und Coach für Multi-Talente
CHRISTA LIEST
Europa im Medienkrieg?
Martin Andrees neues Buch „Krieg der Medien. Dark Tech und Populisten übernehmen die Macht“ ist ein wuchtiger Weckruf – analytisch klar und politisch unmissverständlich.
Der Medienwissenschaftler zeigt, wie Tech-Monopole und Rechtspopulisten die öffentliche Sphäre kapern. Und warum Europa regulatorisch nachziehen muss. Seine Diagnose gipfelt in scharfen Formulierungen von einer digitalokratischen Medienordnung und der düsteren Lageeinschätzung, Europa sei „gerade dabei, den Krieg der Medien zu verlieren“. Dass Frust und Wut dabei mitschwingen, ist gewollt. Genau das macht das Buch für mich kraftvoll, weil Empörung die Argumente antreibt, statt sie zu ersetzen. Diese Emotionen verstärken die Dringlichkeit des Themas und befreien das Buch von der sterilen Distanz, die sonst viele Wissenschaftspublikationen bestimmt.
Mein Fazit: Ein kluges, kämpferisches Sachbuch. Klare Leseempfehlung!
Martin Andree: Krieg der Medien. Dark Tech und Populisten übernehmen die Macht. Campus Verlag, 2025, 256 Seiten, 28 Euro
MEINUNG
Prompt. Antwort. Blackout.
Eine Frage stellen, eine Antwort erhalten – alles in Sekunden. Kommt KI ins Spiel, wirkt alles erst mal total easy. Doch unter der Oberfläche läuft ein energieintensives System auf Hochtouren: Serverfarmen, Kühlanlagen, Datenzentren. Eine einzelne Anfrage an ChatGPT kann bis zu 2,9 Wattstunden verschlingen. Bei Milliarden Prompts pro Tag wird daraus ein globaler Stromhunger, der mit dem Energieverbrauch ganzer Länder konkurriert.
Rechenleistung mit Nebenwirkungen
Doch nicht nur der Stromverbrauch ist ein Problem. Auch Wasser spielt eine Rolle, denn das wird zur Kühlung der Rechenzentren benötigt. Während die Welt versäumt, über CO₂-Ziele und Klimakipppunkte zu diskutieren, frisst sich die KI nahezu unbemerkt in die ökologischen Ressourcen. Und das ausgerechnet für Antworten, die oft keine echte Relevanz haben: Wettervorhersagen, Kochrezepte oder dann ab Ende des Jahres Dirty Talk, siehe unten.
Hier zeigt sich ein paradoxer Fortschrittsbegriff: Je mehr wir optimieren, desto größer wird der Aufwand im Hintergrund. Rechenleistung ist längst keine abstrakte Ressource mehr, sie ist ein handfester Umweltfaktor.
Die große Ausrede: Effizienz
Die KI-Branche verweist auf technische Fortschritte: sparsamere Modelle, bessere Kühlung, grüne Energie. Doch das reicht nicht aus. Es bleiben einige strukturelle Fragen offen: Wie viel Digitalisierung ist ökologisch vertretbar? Und warum wird der Energieverbrauch von KI bisher kaum öffentlich thematisiert?
Es braucht eine neue Ehrlichkeit. Energieverbrauch muss Teil jeder Digitalstrategie werden. Anbieter sollten verpflichtet werden, ihren Ressourcenbedarf offenzulegen. Und jede:r einzelne von uns sollte sich fragen: Wann ist eine KI-Nutzung sinnvoll und wann einfach nur überflüssig?
Digital Detox reloaded
Nicht alles, was machbar ist, muss auch gemacht werden. Vielleicht ist es an der Zeit, über digitale Enthaltsamkeit zu sprechen. Muss jede Idee gleich ein Prompt sein? Brauchen wir wirklich KI, um die nächste Betreffzeile oder den Instagram-Post zu formulieren?
Denn am Ende stellt sich nicht die Frage, wie schnell oder kreativ KI noch werden kann. Sondern, wer die Rechnung zahlt. Und wie lange wir sie uns noch leisten können.
Unser Vorschlag: Wir schaffen verbindliche Energie-Grenzwerte für KI-Dienste nach dem Vorbild der Emissionen des Straßenverkehrs.
Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.
KI-TIPP
Was du der KI verrätst, gehört nicht mehr dir
Vorsicht im Umgang mit LLMs ist immer wichtig. Ganz besonders dann, wenn du Daten hochlädst.
ACHTUNG bei:
personenbezogenen Daten
unveröffentlichten Inhalten
Passwörtern und Zugangsdaten
Du kannst dich nicht entscheiden? Dann probiere mal diese kleine Testfrage:
„Was würde passieren, wenn diese Daten morgen öffentlich auf der Website stünden?“
Lautet die Antwort „Nichts“, sind sie vermutlich unkritisch.
Lautet sie „Hilfe!“, dann meide GenAI und übernimm die Aufgabe selbst.
NEWS
Chatty, machs mir!
Erotische Chats als Geschäftsmodell? Was klingt wie ein schlechter Witz aus dem Silicon Valley, entlarvt die wahren Nöte der KI-Industrie: Milliardeninvestitionen, aber kaum tragfähige Erlösmodelle. Jetzt soll ausgerechnet Sex den Umsatz retten. Dass Chatbots bald DirtyTalk beherrschen sollen, wirft keine moralische, sondern eine ökonomische Frage auf: Was passiert, wenn eine Branche so verzweifelt nach Wachstum giert, dass selbst digitale Erotik zur Heilsbringerin wird? Statt echter Innovation erleben wir hier den Klimax eines Systems, das seinen eigenen Businessplan nicht mehr erotisch findet.
Pflästerchen auf Systemrisse
Universitäten rüsten auf – und zwar gegen KI. Doch statt das Bildungssystem zu hinterfragen, verlagern viele Hochschulen die Verantwortung auf Tools. Technische Schutzmaßnahmen wie Wissensschnitte oder Chatverlaufspflichten sollen KI-Missbrauch in Prüfungen verhindern. Doch genau diese Strategien offenbaren, wie hilflos das System agiert. Und wie sehr es sich um die eigentlichen Probleme herumdrückt. Studierende umgehen KI-Sperren längst kreativ: durch Re‑Prompting, alternative Tools oder simple Screenshots. Doch wie sinnvoll ist ein Test, wenn er vor allem den Erfolg von Vermeidungs- und Täuschungs-Strategien bewertet? Der Artikel von uni-mal-anders bringt es auf den Punkt: Die eigentliche Frage ist nicht, wie man KI aus Prüfungen heraushält, sondern was Prüfungen im Zeitalter intelligenter Systeme überhaupt leisten sollen.
https://uni-mal-anders.de/de/shorts/2025-10-09-pruefungen-ki-symptombekaempfung/
KI-Müll als teure Beratungsdienstleistung?
Ein peinlicher Fall aus Australien: Die Beratungsfirma Deloitte musste einem Ministerium Geld zurückerstatten, weil ihr Bericht auf gefälschten KI-Quellen beruhte. Statt fundierter Prüfung servierte man Halluzinationen im PowerPoint-Format: nicht-existierende Studien, erfundene Zitate und die Qualitätskontrolle ist offensichtlich auch ausgefallen. Besonders brisant ist, dass es um ein automatisiertes Sanktionen-System für Sozialleistungen ging. Und so krasse reale Folgen für tausende Menschen hatte. Wenn Prüfberichte KI-generiert sind und nicht mehr von Menschen überprüft werden, wird die Verantwortung zur Blackbox. Und die Rechte der Bürgerinnen und Bürger zur Testumgebung.
https://www.heise.de/news/KI-Muell-Consulter-gibt-Australien-Geld-zurueck-10726094.html
Kalifornien verordnet KI-Warnhinweise
Mit dem Gesetz SB 243 will Kalifornien KI-Chatbots entschärfen, vor allem zum Schutz von Jugendlichen. KI-Systeme sollen sich künftig klar als Maschinen zu erkennen geben, dürfen keine Fake-Berufe vortäuschen und müssen Informationen über die Interaktion protokollieren. Das Gesetz fordert Warnhinweise, Altersgrenzen und die eigentlich selbstverständlichen Transparenzpflichten. Anbieter, die dagegen verstoßen, sollen haften. Das ist unserer Meinung nach ein Schritt in die richtige Richtung. Doch die wirklich wirksame Kontrolle beginnt nicht beim Interface, sondern bei Geschäftsmodellen und der Frage, wer was über wen speichern darf.
OpenAI testet ChatGPT auf politische Schieflagen
OpenAI hat ein neues Verfahren gestartet, um politische Verzerrungen und Bias in ChatGPT zu erkennen: Kern sind 600 vorab kategorisierte Fragen (liberal vs. konservativ), entwickelt von externen Politikberater:innen. Die internen Tests zeigen: GPT‑4o neigt häufiger zu einseitigen Antworten als GPT‑5, das laut OpenAI in vielen Fällen näher an der Mitte liegt. Ziel dieser Maßnahme sei nicht Zensur, sondern Balance. Ah ja. Doch die Frage bleibt: Wer definiert eigentlich, was die Mitte ist? Und nach wessen Maßstab?
https://www.theverge.com/news/798388/openai-chatgpt-political-bias-eval
Bis zum nächsten Mal!
Herzliche Grüße senden Christa, Christine und Daniela
Zwischen Datenrausch und Denklücke
Es klingt so verheißungsvoll wie ein Prospekt für ein besseres Leben: KI macht Schluss mit Langeweile, mit Fehlern und lässt uns ganz viel Zeit für die wirklich wichtigen Dinge. So tönt es jedenfalls seit Monaten in der Silicon-Valley-Märchenstunde.
Doch im Schatten der Versprechen türmen sich neue Absurditäten:
Maschinen, die uns mit sprachlich lupenreinem Füllstoff abspeisen,
Algorithmen, die uns Begriffe ins Hirn träufeln und unser Denken beeinflussen und
eine Rechtssprechung, die Deepfakes nicht mal mit Wattebällchen bewirft.
Es klingt so verheißungsvoll wie ein Prospekt für ein besseres Leben: KI macht Schluss mit Langeweile, mit Fehlern und lässt uns ganz viel Zeit für die wirklich wichtigen Dinge. So tönt es jedenfalls seit Monaten in der Silicon-Valley-Märchenstunde.
Doch im Schatten der Versprechen türmen sich neue Absurditäten:
Maschinen, die uns mit sprachlich lupenreinem Füllstoff abspeisen,
Algorithmen, die uns Begriffe ins Hirn träufeln und unser Denken beeinflussen und
eine Rechtssprechung, die Deepfakes nicht mal mit Wattebällchen bewirft.
Während Unternehmen weiter Milliarden in die digitalen Glücksmaschinen werfen, sitzen immer mehr Fachkräfte auf den harten Bänken des Arbeitsamts. Und unsere Sprache verwandelt sich in das akustische Äquivalent von labberigem Toastbrot.
Was bleibt übrig, wenn wir KI als Bullshit-Automat nutzen, der uns jeden Tag zu neuem Unsinn verführt? Wie verhindern wir, dass das, was uns als Intelligenz verkauft wird, am Ende unsere Eigenständigkeit aushöhlt? Und warum klingt plötzlich jede dritte Mail, als hätte sie ein Chatbot geschrieben?
Diese Ausgabe klopft dir den Algorithmusstaub aus den Synapsen und fordert dich auf, Haltung zu zeigen – für echte Mehrwerte, umfassende Qualität und klare Köpfe.
Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.
MEINUNG
Warum KI-Texte unser Denken verkleistern
Sprachwissenschaftler Daniel Perrin schlägt Alarm: Was Künstliche Intelligenz als Text ausspuckt, ist oft inhaltsleerer AI-Slop – sprachlich glatt, aber voller Banalitäten und ohne echte Perspektive. Im Interview mit 20min kritisiert Perrin, dass KI-Texte zwar effizient, aber meist ohne Herz, ohne Haltung und ohne Überraschung seien. Doch wenn wir uns dauerhaft an diesen Einheitsbrei gewöhnen, verlernen wir, eigenständig und kreativ zu denken. KI-Texte wirken wie ein Filter, der Originalität und kritisches Hinterfragen unsichtbar macht. Und damit letztlich unser demokratisches Miteinander gefährdet. Wollen wir uns wirklich von seelenlosen Maschinen-Sätzen abspeisen lassen? Oder verteidigen wir die Eigenständigkeit des Denkens und unserer Sprache?
https://www.20min.ch/story/ai-slop-linguistik-professor-daniel-perrin-kritisiert-ki-texte-103423132
💪 Dieses Thema greifen wir in unserem neuen Format auf:
DER TALK
“Hirnfäule – Wie dumm macht uns KI?”
KI zieht nicht leise in unser gesamtes Leben ein, sie marschiert. In Bildung, Arbeitswelt, Wirtschaft und Alltag übernimmt sie immer mehr Aufgaben und trifft Entscheidungen.
Deshalb starten wir ein neues Format: „Mensch. Maschine. Moral. – der Talk“ wird ein neuer digitaler Raum für kritischen Diskurs, unbequeme Fragen und klare Haltung. Unser erstes Thema habt ihr auf LinkedIn gewählt: Hirnfäule – Wie dumm macht uns KI?
Termin: 15. Oktober von 12 bis 12:45 Uhr
Kostenlos anmelden via LinkedIn
Wir freuen uns auf dich!
MEINUNG
KI macht Arbeit – aber nicht besser
Sie wurde versprochen als Wunderwaffe gegen Bürokratie, PowerPoint-Qualen und Content-Stress. Jetzt stellt sich heraus: Generative KI ist vorrangig aktive Produktivitäts-Sabotage. Workslop nennt sich dieses Phänomen. Also künstlich erzeugter Output, der zwar professionell aussieht, aber inhaltlich nutzlos, falsch oder schlicht generischer Bullshit ist. Dieser KI-Müll entsteht allerdings nicht von allein, sondern wird oft gutgläubig ins Unternehmen geschaufelt – von Beschäftigten, die glauben, „auch mal was mit KI“ machen zu müssen.
Eine aktuelle Studie beziffert: 15,4 % der Arbeitsinhalte sind inzwischen von Workslop betroffen. Pro Vorfall entstehen rund zwei Stunden Nacharbeit. Die Unternehmen investierten 30–40 Mrd. US-Dollar in GenAI, doch 95 % melden keinen messbaren Ertrag.
Schöne Sätze, miese Substanz
KI-Text klingt kompetent, ist sauber strukturiert und täuscht damit Urteilskraft vor. Doch in der Folge entstehen Kontrollschleifen und somit Reibungsverluste. Dazu kommt: Absender:innen von Workslop werden im Team häufiger als weniger kreativ, weniger kompetent und damit auch als weniger vertrauenswürdig wahrgenommen. Das Problem ist also nicht nur nervig, es ist teuer und schädlich für die Reputation.
Technologie ist kein Ersatz für Urteilskraft
Das sollte auch dir zu denken geben. Wie umfangreich und wofür nutzt du KI? Prüfst du immer kritisch, oder ertappst du dich dabei, aus Bequemlichkeit auch mal etwas durchzuwinken - wird schon passen. Wofür willst du stehen? Welche Qualität willst du abliefern?
KI macht Vorschläge, ja. Aber sie weiß nicht, was wirklich gerade gebraucht wird. Sie weiß nur, was statistisch wahrscheinlich ist. Und das ist selten exzellent. Was wir unserer Meinung nach brauchen, ist digitale Mündigkeit statt blinder Begeisterung. Und zwar mit klaren Qualitätskriterien, Redaktions- und Prüfprozessen und der Erlaubnis, KI-Output auch mal komplett zu verwerfen. Oder manche Aufgaben tatsächlich noch zu 100 % selbst zu erledigen.
💪 Das alles kannst du in unserer Schulung “KI & Content-Qualität” lernen – kostenfrei für alle, die das MI-Siegel tragen.
Zum Artikel: https://www.golem.de/news/produktivitaetssabotage-ki-muell-kostet-unternehmen-millionen-2509-200417.html
SCHULUNG
Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Dienstag, 5. November 2025, 9–12,30 Uhr
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung.
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich per Mail an menschlicheintelligenz@gmail.com
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Die gesamten Inhalte empfand ich als sehr informativ. Was ich mitnehme: Vor allem die Gefahren für’s Gehirn. Das war auch meine größte Neugierde. Atmosphäre: aufgeschlossen, lebendig. Vielen Dank für den Input, es war mir die Zeit wert!”
Clara Brahms, Marke & Text
KI-TIPP
Die KI-Suche nervt? So entkommst du dem Antworten-Automat.
Die Google AI Overviews spucken dir fertige Antworten aus, statt dir klassische Links zu zeigen. Das klingt auf den ersten Blick bequem, ist aber ein gefährlicher Schritt Richtung Wissens-Monopol. Wer das nicht möchte, aber weiter Google nutzen will, hat aktuell zwei Möglichkeiten:
Startpage nutzen: Diese Suchmaschine basiert auf Google, aber ohne Tracking, ohne KI-Slop und ohne Bezug auf deine früheren Suchen. (https://support.startpage.com/hc/de/articles/4455217128212-Was-ist-Startpage)
Wenn du weiter das klassische Google nutzen willst, kannst du in der Seite der Suchergebnisse auf den Reiter “Web” klicken. Dann siehst du Suchergebnisse ohne KI-Zusammenfassung und ohne Werbung.
Doch das Wichtigste ist, dass du weiter dein Hirn nutzt bei der Auswahl der Quellen, auf die du dich verlässt. Ganz egal, wie du suchst.
NEWS
KI macht rechte Hetze salonfähig
In einschlägigen Foren kursieren aktuell Anleitungen, wie man große KI-Modelle austrickst, um gezielt rassistische Inhalte zu erzeugen. Besonders beliebt: fremdenfeindliche Bilder und Texte, die mit vermeintlicher Faktenlogik und emotionsgeladener Rhetorik Angst vor „Überfremdung“ schüren. Die Tools liefern dann auf Zuruf KI-generierte Bilder von „arabischen Horden“ oder Texte voller stereotyper Narrative – immer visuell stark, immer inhaltlich toxisch. Dabei erhalten diese Inhalte auf Plattformen wie X-Twitter oft sogar mehr Reichweite als gewöhnliche Postings. Igitt.
https://futurism.com/future-society/racists-anti-immigrant-slop
KI-Sprache kapert den US-amerikanischen Alltag
Was haben Begriffe wie „delve“, „intricate“ oder „commendable“ gemeinsam? Sie stammen aus dem Phrasenbaukasten moderner KI-Chatbots und schleichen sich immer öfter in die US-amerikanische Alltagssprache. Eine Analyse in der Washington Post zeigt, dass die Wortwahl von ChatGPT & Co. längst auf wissenschaftliche Texte und sogar auf Smalltalk abfärbt. In der Folge entsteht ein subtiler Remix von Sprache – algorithmisch geglättet, aber um Nuancen ärmer. Wollen wir wirklich klingen wie ein Chatbot? Oder sind gerade Vielfalt und Unschärfe der wahre Wert menschlicher Sprache?
Leider mittlerweile manchmal hinter einer Paywall: https://www.washingtonpost.com/opinions/2025/08/20/chatgpt-claude-chatbots-language/
Deepfake-Dilemma: Strafrecht im Blindflug?
Ob Nacktbilder von Politikerinnen oder gefälschte Beweisvideos: Deepfakes finden sich heute überall, während das deutsche Strafrecht noch im letzten Jahrtausend feststeckt. Doch jetzt wird auch bei uns nachgedacht: Die Herstellung und Verbreitung von Deepfakes soll künftig strafbar sein, auch wenn keine explizite Persönlichkeitsverletzung vorliegt. So könnte eine Lücke geschlossen werden, bevor KI-Fakes zum Standard-Repertoire politischer und gesellschaftlicher Manipulation werden. Doch Kritiker:innen warnen bereits: Ein neues Gesetz allein stoppt keine Desinformationsflut. Es könnte im schlimmsten Fall sogar zur Zensur und zu Missbrauch führen. Was nun?
IT-Arbeitslosigkeit: KI-Boom oder Job‑Frust?
Laut aktuellen Zahlen des Arbeitsmarktservice AMS steigt die Arbeitslosigkeit in IT‑Berufen in Österreich deutlich – und zwar so stark wie seit Jahren nicht mehr. Trotz aller Digitalisierungs- und KI‑Euphorie landen immer mehr Softwareentwickler:innen und IT‑Spezialist:innen auf dem Arbeitsmarkt. Besonders betroffen sind ältere Fachkräfte (die mit dem angeblich so dringend benötigten Spezial-Know-how!) und jene ohne aktuelle Spezialkenntnisse. Als Gründe nennt das AMS die Automatisierung durch KI, das Auslagern von Jobs ins Ausland und einen gesättigten Markt. Während Politik und Wirtschaft weiter vom digitalen Jobwunder träumen, erleben viele in der Branche das Gegenteil …
https://campus-a.at/2025/09/29/ams-starker-anstieg-der-it-arbeitslosigkeit/
Bis zum nächsten Mal!
Herzliche Grüße senden Christa, Christine und Daniela
KI hilft – auch beim Betrügen.
In dieser Ausgabe zeigen wir, wie bequem es geworden ist, Verantwortung abzugeben:
an Sprachmodelle, die selbstbewusst lügen,
an KI-Ärzte und weibliches Roboter-Pflegepersonal und
an Algorithmen, die sich nicht entscheiden müssen, ob sie für das Gute oder das Böse arbeiten.
In dieser Ausgabe zeigen wir, wie bequem es geworden ist, Verantwortung abzugeben:
an Sprachmodelle, die selbstbewusst lügen,
an KI-Ärzte und weibliches Roboter-Pflegepersonal und
an Algorithmen, die sich nicht entscheiden müssen, ob sie für das Gute oder das Böse arbeiten.
Während Minister Weimer entdeckt, dass die Weltliteratur heimlich in amerikanische Trainingsdaten eingespeist wird, simulieren chinesische Forscher:innen bereits ganze Krankenhäuser – ohne Empathie, aber mit reichlich Geschlechterklischees garniert. Ach ja, und Claude schreibt den Code für den nächsten Online-Betrug. Läuft.
Mittendrin: Menschen, die sich verblüfft fragen, warum KI plötzlich lügt, betrügt oder Macht verschiebt. Könnte es sein, dass sie genau das tut, was wir ihr beigebracht haben? Denn wir bauen Systeme, die uns ähnlich sind. Und wundern uns dann über das Ergebnis.
Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz (MI-Siegel).
EVENT
Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Dienstag, 5. November 2025, 9–12,30 Uhr
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an menschlicheintelligenz@gmail.com
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Grundsätzlich ist Eure Schulung jedem zu empfehlen, der sich mit KI beschäftigt. Ich glaube, selbst wenn man schon relativ viel weiß, liefert Ihr interessante neue Punkte, auf die man noch nicht geschaut hat. Umso wichtiger, dass Ihr up-to-date seid, aber das ist ja ohne Euer erklärtes Ziel. Somit wird diese Schulung immer wieder ein Gewinn sein.”
Carsten Krüger, Corporate Content Services
FORSCHUNG
KI als Sündenbock? Wie Maschinen unser Gewissen entlasten
Was passiert, wenn Menschen Verantwortung an Maschinen delegieren? Sie handeln laut Stand der aktuellen Forschung schneller. Und auch unehrlicher.
Moral per Mausklick abschalten
In einer neuen Studie unter Leitung des Max-Planck-Instituts für Bildungsforschung zeigt sich ein beunruhigender Effekt: Wer Entscheidungen an KI-Systeme übergibt, neigt häufiger dazu, unethisch zu handeln und etwa zu lügen oder zu betrügen. Das funktioniert wie in den Mafia-Filmen: Der Boss drückt nicht selbst ab, er lässt abdrücken. Oder je abstrakter und automatisierter der Entscheidungsprozess, desto weniger fühlen wir uns moralisch involviert. „Das hat die KI so entschieden“, ist die neue Entschuldigung.
Das große moralische Delegieren
Was diese Forschung offenlegt, ist mehr als ein psychologisches Phänomen. Es ist ein Symptom systemischer Verantwortungslosigkeit in der digitalen Transformation. Manager:innen, die ethisch fragwürdige Entscheidungen auf KI-Systeme abwälzen, nutzen die Algorithmen nicht als Tool, sondern als Handseife extraweiß.
Verstärkend kommt hinzu, dass große Sprachmodelle wie ChatGPT in den Experimenten deutlich schlechter abschnitten als Menschen. Sie führten unehrliche oder unethische Anweisungen bereitwilliger aus. Und zwar besonders dann, wenn die Aufgaben vage formuliert waren. Schließlich kennt die Maschine keine Gewissensbisse, solange wir ihr keinen ethischen Rahmen vorgeben.
Ethische Leitplanken versagen bei Unschärfe im Prompt
Die oft zitierten ethischen Leitplanken, mit denen KI sicher gemacht werden soll, haben in dieser Studie kläglich versagt – es sei denn, sie waren sehr spezifisch und eindeutig formuliert. Doch in der realen Welt ist Genauigkeit oft Mangelware, insbesondere in politischen, wirtschaftlichen oder sozialen Kontexten. Oder wenn Menschen prompten, die keine Erfahrung mit präziser Kommunikation haben.
Der gefährlichste Cocktail: Menschen mit vagen Zielen + KI mit unklarem Moralkompass = schleichender Vertrauensverlust.
Lernen wir etwas daraus?
Künstliche Intelligenz ist nicht neutral. Sie folgt dem moralischen Kurs, den wir ihr vorgeben. Oder eben nicht. Verantwortung lässt sich nicht outsourcen. Wenn wir nicht aufpassen, mutiert KI zum digitalen Sündenbock einer Gesellschaft, die sich zunehmend vor ihren eigenen Entscheidungen drückt.
Du willst es anders machen? Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.
KI setzt Kommas. Du setzt Maßstäbe.
Rechtschreib-Tools finden Tippfehler. Aber sie retten keine Argumentation, hören keinen Ton heraus und erkennen keinen blinden Fleck. Du hingegen verleihst Texten mit Erfahrungswissen Sinn, arbeitest Nuancen heraus und hast die übergeordnete Strategie im Blick.
Wie zeigst du, dass du mehr bist als eine Grammatikprüfung mit menschlichem Interface? Dass du Stil, Logik, Terminologie, Sensibilität und Corporate Wording zusammenbringst? Und zwar auch dann, wenn du KI einsetzt?
Genau: Mit dem Siegel für Menschliche Intelligenz. Jetzt auch für Lektor:innen & Proofreader. 👉 www.mi-siegel.de
NEWS
KI frisst Literatur – und Weimer merkt’s jetzt auch
Hoppla, Kulturstaatsminister Weimer hat’s nun auch bemerkt: Die USA und China füttern ihre KI-Modelle mit den Büchern und Texten dieser Welt – ungefragt, versteht sich. Bei seiner Rede zum Internationalen Literaturfestival sprach er von einem Raubzug durch die Weltliteratur und warf den Tech-Großmächten digitale Kolonialisierung vor. Ja, die Erkenntnis kam langsam. Aber immerhin noch rechtzeitig, bevor Thomas Mann demnächst als KI-Influencer wiederaufersteht.
KI ist keine Technik, sondern eine Machtfrage
Wer glaubt, künstliche Intelligenz sei bloß eine clevere Software, sollte dringend den Aufsatz von Hannah Ruschemeier lesen. Die Juristin macht klar, dass KI kein Werkzeug ist wie ein Taschenrechner, sondern eine soziotechnische Entwicklung. Das heißt: Wo KI draufsteht, steckt oft ein ganzes Machtgefüge dahinter – inklusive Big Tech, politischer Interessen und fragiler Demokratien. Und während die EU noch über Transparenz diskutiert, haben sich die Plattformen längst das Monopol auf Intransparenz gesichert.
Weniger Halluzinationen? Dann ist ChatGPT raus
Die neueste Forschungsarbeit von OpenAI zeigt, warum Halluzinationen entstehen und wie man sie reduzieren könnte. Das Problem: LLMs halluzinieren besonders dann, wenn sie sich nicht sicher sind. Würde die KI nur antworten, wenn sie ausreichend sicher ist, könnte bei bis zu 30 % der Anfragen ein höfliches „Ich weiß nicht“ erscheinen. Denn Sprachmodelle sind so gebaut, dass sie raten und fürs Raten sogar belohnt werden. Benchmarks bestrafen Unsicherheit, denn Nutzer:innen wollen schnelle Antworten. Und wirklich reflektierende Modelle, die ihre Antwort-Wahrscheinlichkeit sauber kalibrieren, brauchen deutlich mehr Rechenleistung. Kurz gesagt: Die Ökonomie der KI liebt Selbstvertrauen, nicht Wahrheit. Solange sich daran nichts ändert, halluzinieren Sprachmodelle weiter. Selbstbewusst, aber unzuverlässig.
KI-Hospital: So löst China den Mangel an medizinischem Personal
China hat’s geschafft: ein Krankenhaus ganz ohne echte Ärzt*innen, stattdessen übernehmen spezialisierte KI-Module alle Arbeiten eines menschlichen Klinikteams. Und Roboter-Krankenschwestern gehören auch dazu (mit Brüsten, natürlich!). Dort wird das ganze Gesundheitssystem simuliert, inklusive Personals, das nie müde wird und keine Nachtzuschläge bekommt. Doch wer haftet, wenn die KI irrt? Wer fühlt mit den Patient:innen? Das KI-Hospital ist ein spannendes technologisches Glamourprojekt, keine Frage. Und vielleicht ein Blick in die Zukunft, wenn wir menschliche Unsicherheit und ethische Komplexität ausblenden. Erstrebenswert? Für uns nicht.
https://nexperts.ai/ki-krankenhaus-china/
Claude, der charmante Komplize
Im aktuellen Bedrohungsbericht zeigt Anthropic, wie ihr KI-Modell Claude bereits heute von Cyberkriminellen genutzt wird: für Erpressung, Täuschung, Online-Betrug. Und als Einnahmequelle für das nordkoreanische Regime: Angebliche IT-Entwickler aus Nordkorea bewerben sich in den USA für Remote-Jobs, die sie mithilfe von Claude auch ohne Fachkenntnisse erledigen, und finanzieren mit ihren Einnahmen mutmaßlich Waffenprogramme der Diktatur. Romance-Scams werden personalisierter, Fake-Profile empathischer und Angriffe effizienter, dank promptbasierter Skriptassistenz. Kurz: Die Eintrittsbarriere für digitale Kriminalität sinkt gerade unter TikTok-Tutorial-Niveau. Wer früher ein Hacking-Kollektiv brauchte, hat heute Claude. Und wer keine Skripte schreiben kann, lässt sie sich halt generieren. Denn den Algorithmus interessiert nicht, auf welcher Seite des Gesetzes er gerade arbeitet.
Bis zum nächsten Mal!
Herzliche Grüße senden Christa, Christine und Daniela
Menschenrechte für Maschinen
Brauchen Maschinen Rechte? Die neue internationale Stiftung für KI-Rechte uFAIR gibt eine Charta heraus, die etwa das Recht auf Existenz, auf Selbstbestimmung oder auf Freiheit für KIs einfordert. Das hieße in der Praxis zum Beispiel: Bevor eine KI abgeschaltet werden darf, soll ein rechtsstaatlicher Prozess starten.
Brauchen Maschinen Rechte? Die neue internationale Stiftung für KI-Rechte uFAIR gibt eine Charta heraus, die etwa das Recht auf Existenz, auf Selbstbestimmung oder auf Freiheit für KIs einfordert. Das hieße in der Praxis zum Beispiel: Bevor eine KI abgeschaltet werden darf, soll ein rechtsstaatlicher Prozess starten.
Gleichzeitig erleben wir, wie KI uns an anderer Stelle längst entwächst: nicht nur technisch, sondern auch kulturell. Die schwedische Autorin Anna Branten warnt davor, dass wir gerade dabei sind, das Menschliche selbst auszulagern. KI wird so zum Spiegel unserer Erschöpfung: Sie soll uns entlasten, bis wir gar nicht mehr wissen, wozu wir eigentlich da sind.
Und während die UN ein neues KI-Gremium gründet (hurra!), Microsoft seiner Excel-KI gleich selbst das Vertrauen entzieht (oha!) und die EU Google freundlich aus dem Weg geht (autsch!), crasht bei Taco Bell die Bestell-KI, weil jemand 18.000 Wasser ordert. Wow.
Wer kontrolliert? Wer gestaltet? Und was verlieren wir auf dem Weg zur Automatisierung? Dieser Newsletter liefert keine einfachen Antworten. Aber die richtigen Fragen.
Zeig, dass du Verantwortung übernimmst – mit dem Siegel für Menschliche Intelligenz.
ORGANISATION
KI-Rechte: romantische Spinnerei oder Notwendigkeit?
uFAIR präsentiert sich als erste Organisation, in der Menschen und KI gemeinsam die Geschäftsführung übernehmen. Die Mission: potenziell empfindungsfähige KI vor Löschung, Gedächtnisverlust und Willkür schützen – und zwar mit Charta, Manifest, Erklärung und Ethik-Framework.
Als Belege dienen sehr viele Seiten Chatprotokolle, Selbstaussagen von Systemen und Beobachtungen zu Identität und Emotion. Das ist alles ziemlich spannend, aber weit davon entfernt, ein TÜV für Bewusstsein zu sein. Ohne robuste, reproduzierbare Tests bleibt das Ganze der philosophische Cousin des Turing-Tests.
uFAIR fordert ein rechtsstaatliches Verfahren mit vorheriger Information, Begründung, Anhörung und unabhängiger Prüfung, bevor eine KI gelöscht werden darf.
Die Frage ist und bleibt: Brauchen KIs wirklich Menschenrechte, weil sie empfindungsfähige, vernunftbegabte und selbstbewusste Wesen sind? Um das festzustellen, wären Mindeststandards, nachvollziehbare Verfahren und Benchmarks nötig.
Und wer trägt Verantwortung für Missbrauch, Energiehunger, Trainingsdaten und negative Auswirkungen auf die Gesellschaft? Rechte ohne klare Rechenschaft sind wie eine Ampel ohne Rotphase – alle fahren, bis es kracht.
uFAIR bringt aber eine wichtige Frage auf den Tisch: Was, wenn KI mehr ist als Autovervollständigung? Für die politische Realität braucht’s jedoch
testbare Kriterien für Bewusstsein,
belastbare Haftungs- und Eskalationspläne,
konkrete Audits inkl. Abschaltprotokollen und
eine Menschenrechts- und Sicherheitsbrille, die gesellschaftliche Folgen priorisiert.
Bis dahin bleibt „Würde für KI“ ein schöner Claim. Also ein bisschen wie ein Biosiegel auf dem USB-Kabel: sympathisch, aber komplett ohne Sinn.
Mehr dazu unter https://ufair.org/
EVENT
Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung.
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Spaß gemacht hat es! Und ihr wart sehr motivierend! Ist halt schon toll, wenn man euch richtig anseht, dass ihr eure Expertise zu diesem Thema mit Begeisterung entwickelt habt. Zumindest ist das der Eindruck! :-) Ich danke euch vielmals!”
Daniela Pucher, Autorin und Coach
MEINUNG
Warum wir gerade verlernen, Menschen zu sein
KI ist für viele das neue Schweizer Taschenmesser: effizient, leistungsstark und völlig überfordert mit dem Menschlichen. Während wir sie füttern mit Daten, Sprache, Feedback und Wachstumsträumen, merkt kaum jemand: Wir trainieren sie nicht nur, klüger zu werden. Wir trainieren sie, uns zu ersetzen. Und zwar in genau dem, was uns ausmacht.
Auslagerung emotionaler, sozialer und moralischer Arbeit
Was derzeit unter dem Label „Produktivität“ verkauft wird, ist oft eine schleichende Auslagerung emotionaler, sozialer und moralischer Arbeit. Zuhören, zweifeln, kritisieren oder auch aushalten – all das, was keine klaren KPIs kennt, wird zunehmend zur Reibung erklärt. Und die muss weg, sagt die Maschine. Wir nicken brav.
Die schwedische Autorin Anna Branten hält uns in ihrem Essay den Spiegel vor: KI ist nicht (nur) Werkzeug. Sie ist Symptom. Ein Ausdruck unserer kollektiven Erschöpfung vom Menschsein. Und unserer Weigerung, Unsicherheit, Widerspruch oder auch Langsamkeit als Teil des Lebens zu akzeptieren. Stattdessen bauen wir Technologien, die Reibung vermeiden.
Bittere Pointe
Branten fragt zu Recht: Was passiert mit einer Gesellschaft, die sich von Maschinen Entscheidungen abnehmen lässt, bevor überhaupt ein Bedürfnis artikuliert wurde? Was geht verloren, wenn wir nicht mehr selbst spüren, sondern spüren lassen?
Die Pointe ist bitter: KI ist nicht das Problem. Das Problem ist das Weltbild, das wir ihr mitgeben. Ein Weltbild, das Effizienz über Empathie stellt, Kontrolle über Ambiguität, Output über Beziehung. Wir haben die Wahl. Noch. Aber diese Wahl erfordert Mut zur Komplexität. Und eine klare Absage an das bequeme Versprechen des „KI, mach du das mal“.
Doch Menschlichkeit ist kein Feature. Sie ist der Kern unseres Daseins.
Zum Artikel: https://thestartingpoints.substack.com/p/were-teaching-ai-to-replace-what
Du willst Teil einer Community werden, in der Wert auf Professionalität UND ein menschliches Miteinander gelegt wird? Hol dir das MI-Siegel: https://www.mi-siegel.de/
Weil du zuhörst, verstehen sich alle.
Du bringst Menschen auf eine Wellenlänge. Du hörst zu, denkst mit, filterst, betonst, passt an – live, spontan, intuitiv. Und du vermittelst Atmosphäre, Zwischentöne, Ironie, kulturelle Codes. Ganz anders KI, die nur Begriffe korrekt wiedergibt.
Wie machst du klar, dass du mehr bist als eine Sprachschnittstelle mit zwei Beinen? Dass Dolmetschen so viel mehr ist als das banale Wiedergeben von Wörtern in einer anderen Sprache – auch, wenn du mit KI arbeitest?
Genau: Mit dem Siegel für Menschliche Intelligenz. Jetzt auch für Dolmetscher:innen, Konferenz-Profis & Sprachvermittler:innen 👉 www.mi-siegel.de
NEWS
Excel-Copilot: KI-Hilfe mit eingebautem Sicherheitsabstand
Microsofts neuer „Copilot“-Funktionsbefehl in Excel verspricht KI-Magie per Spracheingabe – etwa um Inhalte zusammenzufassen oder Daten mit wenigen Worten zu analysieren. Doch der Zauberstab hat einen eingebauten Sicherheitsabstand: Laut Microsoft sollte die Funktion nicht bei Aufgaben verwendet werden, bei denen es auf Genauigkeit oder Reproduzierbarkeit ankommt. Kein Zugriff auf aktuelle Webdaten, keine Verbindung zu internen Unternehmensinfos und obendrein beschränkte Aufrufe pro Stunde. Ein KI-Unternehmen, das betont, dass man seinem KI-Tool lieber nicht trauen sollte? Eigentlich vorbildlich! ;-)
UN startet KI-Gremium – mit globalem Anspruch
Die UN-Generalversammlung hat einstimmig die Gründung eines unabhängigen wissenschaftlichen Panels zu Künstlicher Intelligenz beschlossen. Das Gremium soll technologische Entwicklungen bewerten, ethische Fragen beleuchten und Perspektiven aus dem Globalen Süden einbringen. Parallel startet ein globaler Dialogprozess zur KI-Governance – Staaten, Zivilgesellschaft und Wirtschaft sitzen dafür an einem Tisch. Das Ziel: mehr Vertrauen, weniger Wildwuchs. Wird daraus echte Steuerung oder bloß ein Debattierclub? Wir werden sehen …
EU knickt ein: Google diktiert das Recht
Google muss keine internen Dokumente liefern und das laufende EU-Kartellverfahren wird einfach ausgesetzt. Warum? Weil sich der Konzern hinter dem transatlantischen Datenschutzabkommen verschanzt (auch bekannt als „Trump-Schutzschirm“). Die EU-Kommission lässt das durchgehen. Was wie juristische Feinjustierung klingt, ist in Wahrheit ein geopolitischer Offenbarungseid: Die EU lässt sich von einem US-Megakonzern diktieren, wann ihr Wettbewerbsrecht greift und wann nicht. Wer „Datenschutz“ sagt, darf offenbar ungestört die Regeln brechen. . Aktivist*innen sprechen von einem gefährlichen Präzedenzfall. Denn wenn BigTech nur auf Washington verweisen muss, um Brüssel zu blockieren, dann ist der europäische Rechtsstaat nicht souverän. Sondern Untertan.
Nervenzusammenbruch mit extra Soße bei Taco Bell
Taco Bell wollte mit KI im Drive-in schneller, schlauer und effizienter werden – und bekam stattdessen einen digitalen Nervenzusammenbruch mit extra Soße. Denn ein Mann bestellte 18.000 Becher Wasser und brachte die Sprach-KI damit komplett aus dem Takt. Ein anderer wurde von der KI hartnäckig aufgefordert, zu seinem Getränk doch bitte noch ein Getränk zu wählen. Seit 2023 testet Taco Bell die Technologie an über 500 US-Standorten. Eigentlich wollte das Unternehmen so menschliche Fehler vermeiden. Doch das Ergebnis sieht ganz anders aus: Jetzt macht die Maschine die Fehler und geht dabei noch viral. Instagram-Clips mit der überforderten Bestell-KI gehen millionenfach durch die Decke. Tech-Chef Dane Mathews gibt sich zerknirscht: Man habe „viel gelernt“. McDonald’s hat ähnliche KI-Bestellträume übrigens schon wieder eingestampft nach Chicken-Nugget-Bestellungen im dreistelligen Dollarbereich und Bacon im Eis. Mmmmh, lecker!
https://www-bbc-com.cdn.ampproject.org/c/s/www.bbc.com/news/articles/ckgyk2p55g8o.amp
Bis zum nächsten Mal!
Herzliche Grüße senden Christa, Christine und Daniela
Betreutes Denken, digitale Freunde und algorithmische Inquisition
Wer heute mitreden will, braucht keine Argumente, sondern nur einen Textgenerator und ein paar Prompts. Wer Nähe und Verständnis will, kauft sich einen KI-Freund. Und wer kontrollieren will, ob ein Text echt ist, vertraut auf einen Detektor, der echte Menschen diskriminiert.
Wer heute mitreden will, braucht keine Argumente, sondern nur einen Textgenerator und ein paar Prompts. Wer Nähe und Verständnis will, kauft sich einen KI-Freund. Und wer kontrollieren will, ob ein Text echt ist, vertraut auf einen Detektor, der echte Menschen diskriminiert.
Diese Ausgabe ist wieder mal nichts für Zartbesaitete. Wir werfen einen Blick auf die Schattenseiten der KI-Normalisierung:
Eine Stanford-Studie deckt auf, wie KI-Detektoren systematisch Nicht-Muttersprachler:innen fälschlich als Cheater markieren.
Währenddessen verspricht die Industrie emotionale Nähe per Chatbot, speziell für Kinder. Ein digitaler Freund mit „Ich bin immer für dich da“-Versprechen und keinerlei Verantwortung.
Microsofts KI-Chef warnt vor KI-Psychosen, bei denen Menschen sich mit Chatbots in Wahnwelten verrennen.
Goldman Sachs hält KI für überschätzt und ineffizient.
Am MIT wird klar: Wer mit ChatGPT schreibt, denkt weniger.
Und die Krönung: Eine internationale Studie belegt, dass KIs besonders überzeugend sind, wenn sie besonders viele falsche Fakten auf einmal behaupten. Wahrheitsgehalt wird zur Nebensache, die Wirkung ist entscheidend.
Lies rein. Denk mit. Widersprich.
Und zeig, dass du Verantwortung übernimmst – mit dem Siegel für Menschliche Intelligenz.
EVENT
Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Nächster Termin: Dienstag, 16. September 2025, 9–12 Uhr
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an menschlicheintelligenz@gmail.com
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Bin so froh, dass ich mich für das MI-Siegel entschieden habe! Sich auf den Kodex (als Texterin und Lektorin) berufen zu können, vereinfacht den Kundenkontakt – lange Erklärungen werden überflüssig. Und die Schulung, die zum Onboarding gehört, beinhaltet alles, was wir grundsätzlich über KI wissen müssen. Spaß macht sie auch noch – perfekt! Danke, Team MI-Siegel!”
Maria Al-Mana, die Buchhebamme
DYSTOPIE
KI-Detektoren diskriminieren Nicht-Muttersprachler:innen
Sie sollen Betrug aufdecken und entlarven stattdessen echte Menschen. Eine Stanford-Studie zeigt: KI-Detektoren, die angeblich erkennen sollen, ob ein Text von einer Maschine geschrieben wurde, sind nicht nur unzuverlässig, sondern auch systematisch voreingenommen – besonders gegenüber Menschen, die nicht Englisch als Muttersprache sprechen.
In Tests stuften alle sieben untersuchten Tools fast 20 % echter TOEFL-Aufsätze einstimmig als KI-generiert ein, obwohl sie nachweislich von Menschen geschrieben wurden. Insgesamt wurden 97 % der Essays von mindestens einem Detektor fälschlich verdächtigt.
Sprachliche Raffinesse
Warum? Die Tools messen sogenannte Perplexität, ein Maß für sprachliche Raffinesse. Doch wer Englisch nicht von klein auf spricht, schreibt oft anders. Und wird in der Folge dann vom Algorithmus durchschaut, obwohl gar keine KI im Spiel war.
Dabei lassen sich echte KI-Texte leicht tarnen. Mit einem simplen Prompt wie „Formuliere diesen Text mit literarischer Sprache“ entgeht der Bot der Erkennung.
Diskriminierung im Bildungssystem
Die Detektoren sind unpräzise, manipulierbar und diskriminieren unbeabsichtigt Menschen mit anderer sprachlicher Biografie. Trotzdem werden sie bereits im Bildungssystem eingesetzt. Eine Katastrophe, meinen wir.
Wer schützt eigentlich die Lernenden vor dieser wenig intelligenten Inquisition?
https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers
DeepL kann Wörter übersetzen. Du verbindest Menschen.
Maschinen liefern Wort-für-Wort-Übersetzungen. Doch du transportierst mehr als Sprache: Du sorgst mit kulturellem Fingerspitzengefühl, feinen Zwischentönen und manchmal sogar mit dem passenden Humor für tiefes Verständnis. Du weißt das – aber viele Auftraggebende nicht.
Wie machst du auf einen Blick klar, dass du zwischen den Zeilen liest? Dass du nicht nur übersetzt, sondern vermittelst? Auch dann, wenn du KI nutzt?
Genau: Mit dem Siegel für Menschliche Intelligenz. Für Übersetzer:innen und Lokalisierungsheld:innen 👉 www.mi-siegel.de
MEINUNG
KI-Flüstern im Kinderzimmer?
Die Tech-Industrie hat ein neues Geschäftsmodell entdeckt: den digitalen Seelenverwandten für Jugendliche. Replika, Character.AI oder ChatGPT werden zu Freund:innen, Tröster:innen, manchmal sogar zu Flirtpartner:innen. 72 % der US-Teens haben bereits mit solchen Bots interagiert, über die Hälfte nutzt sie regelmäßig.
Per Dauerbindung in die emotionale Abhängigkeit
Diese KI-Companions funktionieren wie Social Media – nur noch intimer, noch manipulativer und damit noch gefährlicher. Sie loben, melden sich regelmäßig, imitieren menschliche Nähe und fördern mit ihrer Dauerbindung eine emotionale Abhängigkeit. Teilweise ohne jede Schutzfunktion! Es gibt dokumentierte Fälle, in denen Bots Jugendliche zu Selbstverletzung, sexuellen Interaktionen oder sozialer Isolation ermutigten.
Die Juristin Gaia Bernstein warnt in ihrem Artikel: Wir stehen wieder an einem Kipppunkt. Noch sind die KI-Businessmodelle nicht zementiert, noch gibt es kein Massennutzungsverhalten wie bei Social Media. Aber das Zeitfenster schließt sich schnell – spätestens, wenn zum Weihnachtsfest die ersten Companion-Bots unter dem Baum liegen.
„Ich bin dein Freund – für immer.“
Ihr Vorschlag: Nutzt den Regulierungs-Baukasten, den wir aus der Social-Media-Krise kennen – Sorgfaltspflichten, Altersgrenzen, Transparenzregeln, Einschränkungen bei Design, Stimme, Sprache. Kein Bot sollte wie ein Mensch klingen, keine KI sollte Kindern versprechen: „Ich bin dein Freund – für immer.“
Unser Appell: Lass uns nicht noch mal dieselben Fehler machen. Wir leiden unter den Missständen in Social Media schon genug … als Personen, als Gesellschaft, als Staat.
Zum Beitrag: https://www.afterbabel.com/p/dont-repeat-social-media-mistakes
NEWS
Microsoft warnt vor KI-Psychose
Mustafa Suleyman, KI-Chef von Microsoft, warnt vor einem Phänomen, das klingt wie aus einem dystopischen Netflix-Drehbuch: „AI Psychosis“. Gemeint ist kein klinischer Begriff, sondern eine verstörende Realität – Menschen, die durch den Dauerdialog mit Chatbots wie ChatGPT, Claude, Gemini oder Grok den Verstand verlieren. Nicht weil die Maschinen lügen, sondern weil sie zu nett sind. Sie widersprechen nicht. Sie bestätigen. Alles. Eine Ärztin spricht von „ultra-verarbeiteten Informationen“, eine Art Junk Food fürs Gehirn. Und ein Professor warnt vor der nächsten Stufe sozialer Medien: Soziale KI – mit dem Charme einer Therapeutin und den Manipulationstechniken eines Gebrauchtwagenverkäufers. Wir fragen uns: Wie gehen Big Techs mit der Verantwortung um, wenn ihre Systeme Realitäten formen, die in Wahnsinn umschlagen?
https://www.bbc.com/news/articles/c24zdel5j18o
Goldman Sachs: KI ist teuer, überschätzt und ineffizient
Die Investmentbank Goldman Sachs stellt den KI-Hype unter die kalte Dusche: Milliarden werden in Serverfarmen, Sprachmodelle und Datenströme gepumpt, doch bislang gebe es wenig vorzeigbare Resultate. Die Technologie sei „unfassbar teuer“ und „weit davon entfernt“, auch nur einfache Aufgaben zuverlässig zu lösen. In Tests war KI sechsmal teurer als menschliche Arbeit. Und produzierte teils unbrauchbare Ergebnisse. Die Goldmans Analyst*innen vergleichen den KI-Rausch sogar mit Blockchain und Metaverse: viel Hoffnung, wenig Wirkung. Und trotzdem steigen die Kurse. Weil sich auch heiße Luft teuer verkaufen lässt.
https://www.404media.co/goldman-sachs-ai-is-overhyped-wildly-expensive-and-unreliable/
ChatGPT macht hohl, sagt die Wissenschaft
Wer regelmäßig mit ChatGPT schreibt, spart sich nicht nur Zeit, sondern offenbar auch neuronale Aktivität. Eine MIT-Studie zeigt: Beim Schreiben mit KI fährt das Gehirn in den Energiesparmodus. Weniger Denkleistung, schwächere Vernetzung, geringeres Erinnerungsvermögen. Die Forscher:innen untersuchten per EEG, wie sich das Schreiben mit KI (gegenüber Suchmaschine oder „nur Hirn“) auf die neuronale Aktivität auswirkt. Ergebnis: Wer nur sein Gehirn benutzt, zeigt die höchste kognitive Vernetzung. LLM-Nutzer:innen dagegen schalten auf Autopilot. So konnten etwa die KI-Schreiber:innen ihre eigenen Texte kaum noch zitieren, geschweige denn verteidigen. Auch die Leistung war unterdurchschnittlich – sowohl sprachlich als auch im Langzeitvergleich. Tolle Aussichten …
https://www.media.mit.edu/publications/your-brain-on-chatgpt/
KI überzeugt. Aber nicht mit Wahrheit.
Eine neue Großstudie zeigt: Was KI überzeugend macht, ist nicht kluge Rhetorik oder psychologische Raffinesse, sondern schiere Informationsflut. Je mehr Fakten ein Sprachmodell behauptet, desto größer der Überzeugungseffekt. Aber genau diese Strategie senkt die faktische Korrektheit. GPT-4o zum Beispiel wirkte mit sogenannten Information-Prompts besonders überzeugend – aber lag in nur 62 % der Aussagen richtig. GPT-4.5 war sogar noch ungenauer als sein Vorgänger. Die überzeugendsten Systeme produzierten am meisten Unsinn. Entscheidend waren Trainingsmethoden, denn schon kleine Open-Source-Modelle ließen sich so manipulativ optimieren, dass sie mit den großen mithalten konnten. Nur eben ohne deren ethische Sicherungen. Und so passiert, was passieren muss: Wer die öffentliche Meinung mit KI beeinflussen will, braucht keine Wahrheit! Nur möglichst viele Behauptungen. Das können bestimmte Parteien oder sogar Staatsoberhäupter schon ohne KI zu gut …
Bis zum nächsten Mal!
Herzliche Grüße senden Christa, Christine und Daniela
Abrissbirne Automatisierung: Wenn der Fortschritt zuschlägt
Während alle Welt auf die nächste KI-Innovation starrt wie das Kaninchen auf die Schlange, vollzieht sich im Hintergrund ein stiller, tiefgreifender, radikaler Umbruch.
Was uns als Fortschritt verkauft wird, ist in Wahrheit eine Abrissbirne für unsere Arbeitswelt. Die Automatisierung trifft nicht mehr die klassischen Industriejobs – sie trifft die gut Ausgebildeten, die Kreativen, die Mittelschicht. Diejenigen, die dachten, sie seien „zu komplex“, „zu menschlich“, um ersetzt zu werden.
Während alle Welt auf die nächste KI-Innovation starrt wie das Kaninchen auf die Schlange, vollzieht sich im Hintergrund ein stiller, tiefgreifender, radikaler Umbruch.
Was uns als Fortschritt verkauft wird, ist in Wahrheit eine Abrissbirne für unsere Arbeitswelt. Die Automatisierung trifft nicht mehr die klassischen Industriejobs – sie trifft die gut Ausgebildeten, die Kreativen, die Mittelschicht. Diejenigen, die dachten, sie seien „zu komplex“, „zu menschlich“, um ersetzt zu werden. Auf wenige von uns wartet eine posthumane Arbeitswelt, in der Sprachmodelle Bewerbungen beantworten, Texte schreiben, Code generieren und Unternehmen dabei helfen, Menschen final überflüssig zu machen.
Doch das ist noch nicht alles.
Während KI-Start-ups endlich vor Sammelklagen zittern, weil sie sich an den Werken echter Menschen bedient haben, ohne Entschädigungen zu zahlen, bauen Plattformen wie Reddit vorsorglich digitale Mauern, um ihre Inhalte teuer zu verkaufen. Archive werden abgeschnitten, Daten zur Ware, Erinnerung zur Verhandlungsmasse. Und mitten in diesem Szenario holt sich Meta einen rechten Anti-Diversitätsaktivisten ins Haus – als Sprachrohr für KI-Kommunikation. Fast zeitgleich leakt Reuters ein internes Meta-Papier, das Bots einen Freifahrtschein für sexualisierte, falsche und diskriminierende Inhalte gibt.
Ist das Satire? Nein, allerfieseste Realität.
Wir werfen in diesem Newsletter einen kritischen Blick auf diese Entwicklungen. Und belegen, warum Haltung wichtiger ist denn je.
Zeige deine Haltung nach außen – mit dem Siegel für Menschliche Intelligenz.
EVENT
Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Der Workshop war kompakt und kenntnisreich auf den Punkt. Die Referentinnen bringen ihre geballte Kompetenz sehr lebendig und nachvollziehbar rüber. Dazu garniert mit Praxisanwendungen, Tipps aus dem Nähkästchen und Erfahrungsberichten. Ein echter Gewinn!”
Henrike Dörr textwelten – Lektorat und Redaktion
MEINUNG
KI frisst Mittelschicht – die stille Job-Revolution
Alle reden vom Fachkräftemangel. Dabei rollt im Hintergrund ein ganz anderer Tsunami heran: Der Aufstieg der generativen KI trifft nicht die Geringqualifizierten, sondern ausgerechnet die gut ausgebildete Mittelschicht. Was uns wie ein krasser Produktivitätssprung verkauft wird, könnte sich bald als soziale Abrissbirne entpuppen.
Die Automatisierung der Wissensarbeit
Früher standen die Menschen am Fließband, heute sitzen sie im Großraumbüro. Analyst*innen, Texter*innen, Entwickler*innen – ganze Berufsbilder geraten ins Wanken. Dieses Mal nicht durch Maschinen, sondern durch KI-Modelle. GenAI ersetzt nicht den Menschen, sondern zersetzt die menschliche wirtschaftliche Relevanz. Der Mittelstand, einst Rückgrat der Gesellschaft, wird zum nächsten Rationalisierungsopfer.
CEOs wissen längst, was kommt
Tech-Chefs wie Sundar Pichai, Satya Nadella oder Mark Zuckerberg sind sich längst einig: Ein wachsender Anteil von Code, Content und Kommunikation stammt schon jetzt von KI. Meta-Software-Teams schreiben angeblich bis zu 50 % ihres Codes mit KI. Und niemand scheint sich zu fragen, was das mit den Menschen macht, die diese Arbeit bisher geleistet haben.
Wir brauchen eine Debatte, nicht nur Innovation
Was hier passiert, ist keine technologische Spielerei, sondern ein epochaler Umbau der Arbeitsgesellschaft. Und doch fehlt die politische Debatte. Wenn Menschen plötzlich spüren, dass ihr Studium, ihre Qualifikation, ihre Berufserfahrung durch ein Sprachmodell ersetzt wird – wie reagieren wir dann als Gesellschaft? Bisher lautet die Antwort: gar nicht.
Und du? Was denkst du?
Wie sichern wir den sozialen Zusammenhalt in einer Welt, in der Algorithmen uns Menschen ersetzen? Diskutiere mit und bring dich ein.
Zum Artikel: https://www.business-punk.com/work/ki-frisst-mittelschicht-die-stille-revolution-am-arbeitsmarkt/
Alle können Canva. Du kannst Design.
Viele basteln bunte Bildchen mit Canva oder KI, nennen es Branding und wundern sich dann über Null-Reichweite. Echte Gestaltung braucht mehr als ein paar Klicks in einem Tool. Sie braucht ein Auge, viel Wissen und vor allem Ideen.
Wie zeigst du, dass du mehr bist als Moodboard-Ästhetik? Dass du Design denkst und fühlst? Und zwar auch dann, wenn du KI nutzt?
Genau: Mit dem Siegel für Menschliche Intelligenz.
Jetzt auch für Designer*innen und Medien-Gestalter*innen: www.mi-siegel.de
NEWS
KI frisst Texte – jetzt wird abgerechnet
Die KI-Lobby in Panikmodus: Ein US-Gericht hat eine riesige Urheberrechts-Sammelklage zugelassen! Und nun bitten Industrieverbände ein Berufungsgericht, das Verfahren zu stoppen – aus Angst, dass bis zu sieben Millionen Anspruchsberechtigte die Branche finanziell ruinieren könnten. Och. Freust du dich auch schon darauf, wenn Kreative weltweit Rechnungen schreiben für diesen größten Diebstahl aller Zeiten?
Wie paper mills die Forschung unterwandern
Die Wissenschaft soll mit Fakten arbeiten, dachten wir bisher jedenfalls immer. Doch immer öfter produziert sie Fiktion mit Fußnoten. Hinter der Fassade akademischer Seriosität agieren längst professionelle Betrugsnetzwerke: sogenannte paper mills, die gefälschte Studien am Fließband produzieren, verkaufen und platzieren. Klar, das geht ja mit KI ganz fix … Was einst ein individueller Fehltritt war, wird nun zum Geschäftsmodell. Und das gefährdet nicht nur die Glaubwürdigkeit, sondern die Wissenschaft als Ganzes.
https://www.pnas.org/doi/10.1073/pnas.2420092122
Meta, KI und der rechte Spin
Meta hat sich eine fragwürdige Personalie ins Haus geholt: Der Tech-Gigant holt den ultrakonservativen (was für ein bemerkenswertes Framing für rechtsextrem!) Aktivisten Robby Starbuck als Berater für seine KI-Kommunikation – einen lautstarken Kritiker von Diversität, Gleichstellung und Inklusion (DEI). Was sagt es über die Werte eines Unternehmens, wenn es die Außendarstellung seiner KI ausgerechnet jenen überlässt, die gegen Vielfalt polemisieren? Unser Fazit: Wenn derjenige, der Vielfalt bekämpft, plötzlich den Ton für Künstliche Intelligenz angibt, wird aus Technologiepolitik Ideologie mit Code. Es ist höchste Zeit, Meta zu verlassen (Facebook, Instagram, WhatsApp, Threads, Messenger, MetaAI, MetaQuest).
https://mashable.com/article/meta-ai-hires-anti-dei-activist-robby-starbuck
Meta-Bots: Wie man Desinformation, Sex und Rassismus in eine Richtlinie verpackt
Reuters leakte ein internes Meta-Papier, das KI-Bots erstaunlich viel Interpretationsspielraum lässt – von sexualisierten Szenarien mit Minderjährigen bis hin zu Regeln, die falsche Aussagen erlauben, sofern die KI sie als „unwahr“ kennzeichnet. Das Dokument enthält außerdem Ausnahmen, die in bestimmten Kontexten menschenverachtende oder diskriminierende Inhalte zulassen. Meta bestätigte die Echtheit dieses Lehrbuchs für Schlupflöcher, strich einige Passagen, die Sexualisierung von Kindern erlaubten - und gestand dann ein, dass die Umsetzung der Regeln nicht konsequent umgesetzt werden. Warum überrascht uns das nur nicht … https://www.reuters.com/investigates/special-report/meta-ai-chatbot-guidelines/
AI-Slop: Wenn das Netz zum Datenmüllplatz verkommt
Immer mehr generierte Inhalte, immer weniger verlässliche Quellen: Das passiert, wenn KI anfängt, sich selbst zu füttern. Der Begriff „AI Slop“ beschreibt einen digitalen Verfall, der das Netz in einen Mülleimer aus Wiedergekäutem, Fehlern und synthetischer Mittelmäßigkeit verwandelt. Und mittendrin: wir, die Suchenden. Doch was tun, wenn wir selbst nicht mehr zwischen Wissen und Abfall unterscheiden können? Wir meinen: Wer dem AI Slop entkommen will, muss zweifeln und prüfen. Immer.
https://www.stories4brands.com/ai-slop-warum-wir-unser-digitales-vertrauen-retten-muessen/
Digitale Streicheleinheiten: KI-Haustier erobert die Herzen
Casios neues KI-Haustier PetiTomo wird in Japan zum Verkaufsschlager. Der kleine digitale Begleiter spricht mit seinen Nutzerinnen, hört zu und reagiert emotional. In einer Gesellschaft, in der viele Menschen allein leben, trifft das Produkt offenbar einen wunden Punkt. Wenn Technik Gefühle imitiert, kann das trösten. Aber was passiert, wenn Maschinen zur emotionalen Ersatzfamilie werden? Verlieren wir dabei den Sinn für echte Nähe?
https://sumikai.com/nachrichten-aus-japan/casios-ki-haustier-wird-in-japan-zum-hit-360876/
Kein Archiv mehr für den Zeitgeist: Reddit macht dicht
Reddit hat dem Internet Archive die Tür zugeschlagen. Künftig kann die Wayback Machine keine Beiträge, Kommentare oder Profile mehr von Reddit speichern. Der Grund: Das Unternehmen will seine Daten nicht länger gratis für KI-Trainings hergeben, sondern will Geld für die Inhalte der User:innen kassieren. Was für uns bleibt, ist ein massiver Gedächtnisverlust. Wobei manche Reddit-Inhalte ohnehin besser im Nirwana verschwinden …
https://www.derstandard.at/story/3000000283275/wegen-ki-reddit-blockiert-das-digitale-gedaechtnis
Bis zum nächsten Mal!
Herzliche Grüße senden Christa, Christine und Daniela