KI hilft – auch beim Betrügen.
In dieser Ausgabe zeigen wir, wie bequem es geworden ist, Verantwortung abzugeben:
an Sprachmodelle, die selbstbewusst lügen,
an KI-Ärzte und weibliches Roboter-Pflegepersonal und
an Algorithmen, die sich nicht entscheiden müssen, ob sie für das Gute oder das Böse arbeiten.
Während Minister Weimer entdeckt, dass die Weltliteratur heimlich in amerikanische Trainingsdaten eingespeist wird, simulieren chinesische Forscher:innen bereits ganze Krankenhäuser – ohne Empathie, aber mit reichlich Geschlechterklischees garniert. Ach ja, und Claude schreibt den Code für den nächsten Online-Betrug. Läuft.
Mittendrin: Menschen, die sich verblüfft fragen, warum KI plötzlich lügt, betrügt oder Macht verschiebt. Könnte es sein, dass sie genau das tut, was wir ihr beigebracht haben? Denn wir bauen Systeme, die uns ähnlich sind. Und wundern uns dann über das Ergebnis.
Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz (MI-Siegel).
EVENT
Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Dienstag, 5. November 2025, 9–12,30 Uhr
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an menschlicheintelligenz@gmail.com
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Grundsätzlich ist Eure Schulung jedem zu empfehlen, der sich mit KI beschäftigt. Ich glaube, selbst wenn man schon relativ viel weiß, liefert Ihr interessante neue Punkte, auf die man noch nicht geschaut hat. Umso wichtiger, dass Ihr up-to-date seid, aber das ist ja ohne Euer erklärtes Ziel. Somit wird diese Schulung immer wieder ein Gewinn sein.”
Carsten Krüger, Corporate Content Services
FORSCHUNG
KI als Sündenbock? Wie Maschinen unser Gewissen entlasten
Was passiert, wenn Menschen Verantwortung an Maschinen delegieren? Sie handeln laut Stand der aktuellen Forschung schneller. Und auch unehrlicher.
Moral per Mausklick abschalten
In einer neuen Studie unter Leitung des Max-Planck-Instituts für Bildungsforschung zeigt sich ein beunruhigender Effekt: Wer Entscheidungen an KI-Systeme übergibt, neigt häufiger dazu, unethisch zu handeln und etwa zu lügen oder zu betrügen. Das funktioniert wie in den Mafia-Filmen: Der Boss drückt nicht selbst ab, er lässt abdrücken. Oder je abstrakter und automatisierter der Entscheidungsprozess, desto weniger fühlen wir uns moralisch involviert. „Das hat die KI so entschieden“, ist die neue Entschuldigung.
Das große moralische Delegieren
Was diese Forschung offenlegt, ist mehr als ein psychologisches Phänomen. Es ist ein Symptom systemischer Verantwortungslosigkeit in der digitalen Transformation. Manager:innen, die ethisch fragwürdige Entscheidungen auf KI-Systeme abwälzen, nutzen die Algorithmen nicht als Tool, sondern als Handseife extraweiß.
Verstärkend kommt hinzu, dass große Sprachmodelle wie ChatGPT in den Experimenten deutlich schlechter abschnitten als Menschen. Sie führten unehrliche oder unethische Anweisungen bereitwilliger aus. Und zwar besonders dann, wenn die Aufgaben vage formuliert waren. Schließlich kennt die Maschine keine Gewissensbisse, solange wir ihr keinen ethischen Rahmen vorgeben.
Ethische Leitplanken versagen bei Unschärfe im Prompt
Die oft zitierten ethischen Leitplanken, mit denen KI sicher gemacht werden soll, haben in dieser Studie kläglich versagt – es sei denn, sie waren sehr spezifisch und eindeutig formuliert. Doch in der realen Welt ist Genauigkeit oft Mangelware, insbesondere in politischen, wirtschaftlichen oder sozialen Kontexten. Oder wenn Menschen prompten, die keine Erfahrung mit präziser Kommunikation haben.
Der gefährlichste Cocktail: Menschen mit vagen Zielen + KI mit unklarem Moralkompass = schleichender Vertrauensverlust.
Lernen wir etwas daraus?
Künstliche Intelligenz ist nicht neutral. Sie folgt dem moralischen Kurs, den wir ihr vorgeben. Oder eben nicht. Verantwortung lässt sich nicht outsourcen. Wenn wir nicht aufpassen, mutiert KI zum digitalen Sündenbock einer Gesellschaft, die sich zunehmend vor ihren eigenen Entscheidungen drückt.
Du willst es anders machen? Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.
KI setzt Kommas. Du setzt Maßstäbe.
Rechtschreib-Tools finden Tippfehler. Aber sie retten keine Argumentation, hören keinen Ton heraus und erkennen keinen blinden Fleck. Du hingegen verleihst Texten mit Erfahrungswissen Sinn, arbeitest Nuancen heraus und hast die übergeordnete Strategie im Blick.
Wie zeigst du, dass du mehr bist als eine Grammatikprüfung mit menschlichem Interface? Dass du Stil, Logik, Terminologie, Sensibilität und Corporate Wording zusammenbringst? Und zwar auch dann, wenn du KI einsetzt?
Genau: Mit dem Siegel für Menschliche Intelligenz. Jetzt auch für Lektor:innen & Proofreader. 👉 www.mi-siegel.de
NEWS
KI frisst Literatur – und Weimer merkt’s jetzt auch
Hoppla, Kulturstaatsminister Weimer hat’s nun auch bemerkt: Die USA und China füttern ihre KI-Modelle mit den Büchern und Texten dieser Welt – ungefragt, versteht sich. Bei seiner Rede zum Internationalen Literaturfestival sprach er von einem Raubzug durch die Weltliteratur und warf den Tech-Großmächten digitale Kolonialisierung vor. Ja, die Erkenntnis kam langsam. Aber immerhin noch rechtzeitig, bevor Thomas Mann demnächst als KI-Influencer wiederaufersteht.
KI ist keine Technik, sondern eine Machtfrage
Wer glaubt, künstliche Intelligenz sei bloß eine clevere Software, sollte dringend den Aufsatz von Hannah Ruschemeier lesen. Die Juristin macht klar, dass KI kein Werkzeug ist wie ein Taschenrechner, sondern eine soziotechnische Entwicklung. Das heißt: Wo KI draufsteht, steckt oft ein ganzes Machtgefüge dahinter – inklusive Big Tech, politischer Interessen und fragiler Demokratien. Und während die EU noch über Transparenz diskutiert, haben sich die Plattformen längst das Monopol auf Intransparenz gesichert.
Weniger Halluzinationen? Dann ist ChatGPT raus
Die neueste Forschungsarbeit von OpenAI zeigt, warum Halluzinationen entstehen und wie man sie reduzieren könnte. Das Problem: LLMs halluzinieren besonders dann, wenn sie sich nicht sicher sind. Würde die KI nur antworten, wenn sie ausreichend sicher ist, könnte bei bis zu 30 % der Anfragen ein höfliches „Ich weiß nicht“ erscheinen. Denn Sprachmodelle sind so gebaut, dass sie raten und fürs Raten sogar belohnt werden. Benchmarks bestrafen Unsicherheit, denn Nutzer:innen wollen schnelle Antworten. Und wirklich reflektierende Modelle, die ihre Antwort-Wahrscheinlichkeit sauber kalibrieren, brauchen deutlich mehr Rechenleistung. Kurz gesagt: Die Ökonomie der KI liebt Selbstvertrauen, nicht Wahrheit. Solange sich daran nichts ändert, halluzinieren Sprachmodelle weiter. Selbstbewusst, aber unzuverlässig.
KI-Hospital: So löst China den Mangel an medizinischem Personal
China hat’s geschafft: ein Krankenhaus ganz ohne echte Ärzt*innen, stattdessen übernehmen spezialisierte KI-Module alle Arbeiten eines menschlichen Klinikteams. Und Roboter-Krankenschwestern gehören auch dazu (mit Brüsten, natürlich!). Dort wird das ganze Gesundheitssystem simuliert, inklusive Personals, das nie müde wird und keine Nachtzuschläge bekommt. Doch wer haftet, wenn die KI irrt? Wer fühlt mit den Patient:innen? Das KI-Hospital ist ein spannendes technologisches Glamourprojekt, keine Frage. Und vielleicht ein Blick in die Zukunft, wenn wir menschliche Unsicherheit und ethische Komplexität ausblenden. Erstrebenswert? Für uns nicht.
https://nexperts.ai/ki-krankenhaus-china/
Claude, der charmante Komplize
Im aktuellen Bedrohungsbericht zeigt Anthropic, wie ihr KI-Modell Claude bereits heute von Cyberkriminellen genutzt wird: für Erpressung, Täuschung, Online-Betrug. Und als Einnahmequelle für das nordkoreanische Regime: Angebliche IT-Entwickler aus Nordkorea bewerben sich in den USA für Remote-Jobs, die sie mithilfe von Claude auch ohne Fachkenntnisse erledigen, und finanzieren mit ihren Einnahmen mutmaßlich Waffenprogramme der Diktatur. Romance-Scams werden personalisierter, Fake-Profile empathischer und Angriffe effizienter, dank promptbasierter Skriptassistenz. Kurz: Die Eintrittsbarriere für digitale Kriminalität sinkt gerade unter TikTok-Tutorial-Niveau. Wer früher ein Hacking-Kollektiv brauchte, hat heute Claude. Und wer keine Skripte schreiben kann, lässt sie sich halt generieren. Denn den Algorithmus interessiert nicht, auf welcher Seite des Gesetzes er gerade arbeitet.
Bis zum nächsten Mal!
Herzliche Grüße senden Christa, Christine und Daniela