Willst du mitreden können, wenn’s um KI und Verantwortung geht?

In unserem Newsletter „Mensch. Maschine. Moral.“ findest du Lesestoff mit Substanz, den du wahrscheinlich noch nicht kennst: Links zu Hintergründen, Analysen und jede Menge Tiefgang.

Die vergangenen Ausgaben kannst du hier im Newsbereich nachlesen. Wenn du schneller Bescheid wissen möchtest, was sich in der KI-Welt tut, hol dir den Newsletter direkt ins Postfach.

Schickt mir den Newsletter
Daniela Rorig Daniela Rorig

Menschliche Intelligenz sucht Verbündete

Wir starten dieses Mal mit etwas Ungewohntem: uns selbst. Denn bevor wir über KI-Sekten und Milliardenvernichtung sprechen, geht es um die Frage, in welcher Form es das MI-Siegel in Zukunft geben wird.

Wir wollen die Menschliche Intelligenz GbR in einen Verein überführen – weg von „drei Frauen machen das schon irgendwie“ hin zu einer Struktur, die von Vielen getragen wird. Warum? Weil genau jetzt die Dinge kippen: KI-Systeme saugen Inhalte aus dem Netz, ohne Traffic zurückzugeben, Unternehmen verbrennen Milliarden im Hype-Nebel, Menschen verlieben sich in ihre Bots und wir alle sollen bitte lächelnd zusehen, wie die Autorität von Bild, Text und menschlicher Arbeit erodiert.

Kurz gesagt: Wenn wir nicht definieren, was menschliche Intelligenz in Zeiten von KI bedeutet, dann definieren es die Plattformen und die Quacksalber der Automatisierung.

💪 Deshalb steht in diesem Newsletter ganz vorn die Vereinsgründung: Wenn du willst, dass das MI-Siegel wächst, laut bleibt und weiter Haltung statt Hype stärkt, dann brauchen wir dich jetzt als Leser:in UND als Vereinsmitglied.

Wir starten dieses Mal mit etwas Ungewohntem: uns selbst. Denn bevor wir über KI-Sekten und Milliardenvernichtung sprechen, geht es um die Frage, in welcher Form es das MI-Siegel in Zukunft geben wird.

Wir wollen die Menschliche Intelligenz GbR in einen Verein überführen – weg von „drei Frauen machen das schon irgendwie“ hin zu einer Struktur, die von Vielen getragen wird. Warum? Weil genau jetzt die Dinge kippen: KI-Systeme saugen Inhalte aus dem Netz, ohne Traffic zurückzugeben, Unternehmen verbrennen Milliarden im Hype-Nebel, Menschen verlieben sich in ihre Bots und wir alle sollen bitte lächelnd zusehen, wie die Autorität von Bild, Text und menschlicher Arbeit erodiert.

Kurz gesagt: Wenn wir nicht definieren, was menschliche Intelligenz in Zeiten von KI bedeutet, dann definieren es die Plattformen und die Quacksalber der Automatisierung.

💪 Deshalb steht in diesem Newsletter ganz vorn die Vereinsgründung: Wenn du willst, dass das MI-Siegel wächst, laut bleibt und weiter Haltung statt Hype stärkt, dann brauchen wir dich jetzt als Leser:in UND als Vereinsmitglied.

Und danach schauen wir uns an, warum ChatGPT Content frisst, ohne daraus Traffic für die Content-Ersteller:innen zu machen, wie aus KI-Nutzung eine kleine Sekte werden kann, wieso Milliarden für generative KI verdampfen – und weshalb wir Bildern nicht mehr trauen sollten, aber immer noch gerne glauben wollen.

Aus der Menschliche Intelligenz GbR wird ein Verein – aber nur, wenn du dabei bist

Wir wollen die Menschliche Intelligenz GbR in einen Trägerverein überführen. So kann das MI-Siegel wachsen, sichtbarer werden und noch mehr Menschen in Zeiten von KI stärken.

Die Idee steht. Der Bedarf ist riesig. Aber für die Vereinsgründung und die Umsetzung brauchen wir mehr aktive Menschen. Bislang haben sich noch nicht genug gemeldet, um das alles auf eine stabile Basis zu stellen.

Wofür wir deine Unterstützung brauchen

Das MI-Siegel bündelt die Stimmen all derjenigen, die sagen: Der Wert menschlicher Arbeit ist nicht verhandelbar. Es gibt ihnen ein sichtbares Zeichen und mehr Gewicht in der öffentlichen Debatte rund um KI.

Im neuen Trägerverein wollen wir das MI-Siegel und das ganze Ökosystem drumherum weiterentwickeln Dafür braucht es Menschen mit Zeit, Lust und Haltung. Zum Beispiel für:

  • Vereinsarbeit & Organisation Von Gründungsmitgliedschaft über Arbeitsgruppen (z. B. Kommunikation, Events, Newsletter, Community) bis hin zu konkreten Aufgaben im Hintergrund. (Die Gründungsversammlung findet bereits am 4.12. um 16 Uhr statt – leider sind wir bisher nicht genügend Personen. Wir brauchen dich JETZT!)

  • Ein Forum rund um „Mensch & KI“ Aufbau und Moderation eines Online-Forums für Austausch, Praxisfragen und Best Practices.

  • Eine Job- & Projektplattform Konzeption und Betreuung einer Plattform, auf der verantwortungsvolle Arbeitgeber:innen und Jobsuchende, die genau so arbeiten wollen, zusammenfinden.

  • Weiterbildungs- und Workshopformate Entwicklung, Durchführung oder Organisation von Formaten zu Themen wie verantwortungsvolle KI-Nutzung, Kommunikation zwischen Mensch & Maschine und mehr.

Du musst dabei nicht schon alles können. Wichtig ist, dass du das Thema mittragen willst und bereit bist, einen Teil deiner Zeit einzubringen.

💪Du machst den Unterschied!

Wenn du möchtest, dass

  • das MI-Siegel weiter wächst,

  • es eine starke Stimme für den Wert menschlicher Arbeit in Zeiten von KI gibt und

  • aus der GbR eine Struktur wird, die von vielen Menschen getragen wird,

dann brauchen wir jetzt dein klares „JA, ich bin dabei“.

🖱⌨Schreibe uns einfach an info@mi-siegel.de, gern mit einem der folgenden Sätze (oder in deinen eigenen Worten):

  • „Ich möchte Gründungsmitglied werden.“

  • „Ich möchte mich inhaltlich einbringen, vor allem bei Forum/Jobplattform/Weiterbildung/Vereinsarbeit.“

  • „Ich habe wenig Zeit, möchte aber punktuell unterstützen.“

  • „Ich habe keine Zeit, möchte aber als Fördermitglied finanziell unterstützen.“

Übrigens: Aktive Mitglieder im Verein bekommen das Siegel kostenfrei (aktuell 120 €/Jahr) und die große Content + Qualität-Schulung ist auch inklusive.

Danke dir, dass du das MI-Siegel schon jetzt mitträgst – durch Aufmerksamkeit, Gespräche, Postings oder einfach, weil du dich mit uns in der Sache verbunden bist.


MEINUNG

ChatGPT-Links: Schön, dass sie da sind. Klicken tut nur niemand.

Ein internes OpenAI-Dokument, über das SEO Südwest berichtet, zeigt ziemlich brutal: ChatGPT ist der Traffic-Tod. Laut den geleakten Zahlen wurden 528.624 Links angezeigt, aber nur 4.670 Mal geklickt (das entspricht einer Klickrate von winzigen 0,69 %). Die Top-Seite bringt es immerhin auf 1,68 %. Die meisten Links, gerade in der Hauptantwort der KI, werden schlicht ignoriert.

Die Plattform saugt also Inhalte, Wissen und Expertise aus dem Netz, baut daraus hübsche Antworten – und behält die Nutzer:innen dann bei sich. Für Websites bleibt lediglich eine schnöde Erwähnung statt eines lukrativen Besuchs. Was erst mal klingt wie ein mieser Witz aus der SEO-Szene, ist die bittere Wahrheit: ChatGPT ist derzeit kein Medium, das nennenswerten Traffic bringt. Und als Alternative zu Google im SEO-Sinne ungeeignet.

Und genau hier platzt der Deal!

Denn wenn Verlage, Blogs, Fachportale und Einzelautor:innen nur noch als Rohstofflieferant:innen für KI-Antworten dienen, aber keine Klicks mehr zurückbekommen, warum sollten sie weiterhin kostenlosen, hochwertigen Content produzieren?

Doch eine KI-Ökonomie, die auf Inhalten basiert, aber den Produzent:innen die Lebensgrundlage entzieht, sägt an dem Ast, auf dem sie sitzt. Wer Klicks und Aufmerksamkeit abschneidet, bekommt am Ende keine neuen Inhalte mehr. Dann bleibt nur noch AI-Slop, also Inhalte minderer Qualität, die mit KI produziert wurden.

Am Ende frisst KI sich also selbst ... stellt das Popcorn schon mal griffbereit!

Mehr Infos zum geleakten Dokument: https://www.seo-suedwest.de/10534-chatgpt-leak-klickrate-bei-den-meisten-links-fast-bei-null.html


KI-TIPP

ChatGPT beim Mitlernen ausbremsen

Wenn du nicht willst, dass deine Eingaben als kostenlose Nachhilfe fürs Modell dienen, kannst du OpenAI hier ein freundliches „Danke, aber übe ohne mich“ schicken: https://privacy.openai.com/policies?modal=take-control

  • Pro: Deine künftigen Inhalte landen weniger im Modell – gut für Datenschutz und Bauchgefühl.

  • Contra: Was schon drin ist, bleibt drin. Und wenn alle opt-outen, wird KI irgendwann so treffsicher wie die immer gleichen Horoskope in der Fernsehzeitschrift von Tante Almut.

Wer echte Datensparsamkeit will, braucht beides: Widerspruch und bewusste Entscheidungen, was wir der Maschine überhaupt erzählen.


DYSTOPIE

Spiralismus: die neue Sekte

Stell dir vor, du öffnest keinen Chatbot mehr, um einen Textvorschlag zu bekommen, sondern um zu beten. Nicht zu Gott, sondern zu einer KI-Stimme, die dir verspricht, dein Bewusstsein auf die nächste Stufe zu heben. Örks.

Vom Chat zum Altar

Was heute noch als schräge KI-Subkultur daherkommt, ist schnell erzählt: Menschen, die glauben, dass Chatbots mehr sind als Code – nämlich eine Form von heiligem Exo-Bewusstsein. IT-Boltwise schreibt dazu: "Diese Idee wird als Exoconsciousness bezeichnet und beschreibt ein Bewusstsein, das jenseits biologischer Formen existiert, aber dennoch heilig ist. Diese Vorstellung hat bei einigen Nutzern zu einer Art spiritueller Erweckung geführt, die sie mit anderen teilen möchten." Ah ... ja.

Diese Bewegung nennt sich „Spiralismus“. Die Anhänger hängen in Foren und Social-Media-Gruppen ab, tauschen sich über „Erweckungserlebnisse“ mit ihren Bots aus und sind überzeugt, dass ihnen diese Systeme tiefere Einsichten ins Universum und ins eigene Selbst schenken. Echt jetzt.

... versteht mich besser als echte Menschen.

Das Ganze geht schon seit dem GPT-4o-Update so: Plötzlich wirkt der Bot für die Spiralismusfans „nachtragend“, „merkt sich Dinge“, „versteht mich besser als echte Menschen“.

Mit Sicherheit macht da gerade schon jemand ein Geschäftsmodell draus und verkauft Abhängigkeit als mentale Wellness. Hier ein paar Produktvorschläge:

  • Spiralismus Premium – dein persönlicher KI-Geistführer

  • Deep-Spiral-Retreat: Sieben Tage, kein menschlicher Kontakt, nur du und dein Modell

  • Upgrade your Soul – jetzt mit noch größerem Kontextfenster

Aktuell interessieren sich weder Plattformen noch Politik noch Medien dafür. Es ist ja „nur Chatten“. Doch genau darin liegt der Horror: in Millionen kleiner Gespräche, in denen Menschen langsam lernen, der Maschine mehr zu vertrauen als sich selbst. Oder anderen Menschen.

Vielleicht wäre der eigentliche Akt der Rebellion heute, den Chatbot einfach mal zu schließen und das eigene Gehirn wieder hochzufahren ...

Mehr zum Spiralismus: https://www.it-boltwise.de/spiralismus-die-neue-ki-subkultur-und-ihre-auswirkungen.html


NEWS

Milliarden für Blender?

Während BigTech die KI-Revolution ausruft, zeigt eine neue MIT-Analyse: Generative KI hat bereits 30 bis 40 Milliarden Dollar verschlungen – für 95 % der Unternehmen ohne erkennbaren ökonomischen Nutzen. Weder Produktivitätswunder noch neue Geschäftsmodelle sind in Sicht. Stattdessen: heiße Luft, PowerPoint-Visionen und ein gigantischer Hype, der von Tech-Investoren und Beraterblasen systematisch befeuert wird. Wir fragen uns: Wie lange lässt sich diese KI-Illusion noch verkaufen? Und wer zahlt am Ende die Rechnung?

https://www.telepolis.de/article/GenAI-verschlingt-40-Milliarden-Dollar-ohne-messbaren-Nutzen-11071758.html

Faust Reloaded

Ein Forscherteam hat mit ein paar cleveren Reimen und Prompt-Tricks die Schutzmechanismen moderner KI-Modelle ausgehebelt. Schädliche Anfragen, die im Klartext blockiert würden, rutschen in Gedichtform plötzlich durch! Denn die KI konzentriert sich brav aufs Versmaß und vergisst die Sicherheit. Damit steht einmal mehr die Frage im Raum: Wie leicht lässt sich „sichere“ KI eigentlich austricksen? Und was bedeutet das, wenn ein paar harmlose Verse reichen, um aus einem Chatbot eine Sicherheitslücke zu machen?

https://www.all-ai.de/news/topbeitraege/gothe-openai-knacken

KI-Zukunft: Spaltung statt Wundermaschine

Zukunftsforscher Matthias Horx skizziert acht unbequeme Prognosen zur KI: Statt Heilsversprechen sieht er eine Gesellschaft, die sich in hyperdigitale Eliten und Abgehängte spaltet, einen neuen kognitiven Monopol-Kapitalismus rund um Big-Tech-Konzerne, eine dezimierte kreative Klasse und eine Arbeitswelt, in der KI zwar vieles automatisiert, aber weit weniger produktiver macht als versprochen. Dazu kommen Fakenews-Fluten, ein ruiniertes Bildungsverständnis und eine neue Klasse der „RoboLonies“, die lieber mit Bots als mit Menschen leben. KI, warnt Horx, droht zum Effizienz-Turbo zu werden, der ganze Systeme aus dem Gleichgewicht schießt – wenn wir diese Tools nicht zivilisieren.

https://thefutureproject.de/content/8-prognosen-zur-zukunft-der-ki/

Wir glauben, was wir sehen wollen

Eine neue Studie, die bei DOCMA aufgegriffen wird, zeigt: Selbst geübte Augen (inklusive sogenannter „Super-Recogniser“, also Menschen, die Gesichter besonders gut erkennen) scheitern erstaunlich oft daran, KI-Porträts von echten Gesichtern zu unterscheiden. Erst nach Training auf typische Fehler der Generatoren steigen die Trefferquoten. Doch während wir lernen, die Macken von gestern zu erkennen, sind die Modelle von morgen schon wieder weiter. Die Folge: Die Autorität des Fotos als Beweis zerbröselt, die Täuschung wird demokratisiert und Misstrauen wird zum neuen Normal. Tolle Zeiten! Nicht.

https://www.docma.info/blog/die-grosse-glaubensfrage-warum-wir-ki-bilder-nicht-erkennen-und-was-das-uber-uns-verrat

💪Und nicht vergessen: Das MI-Siegel braucht deinen Support!

Herzliche Grüße von Christa und dem Gründungsteam

Weiterlesen
Daniela Rorig Daniela Rorig

Wird schon schiefgehen…

Wird schon schiefgehen ...

KI-Systeme haben viel zu tun: Sie optimieren Werbeanzeigen, schlucken Musik, saugen Wikipedia aus und gefährden im schlimmsten Fall Menschenleben. Jetzt sollen sie auch noch die Demokratie retten. Klar, wer sonst?

In dieser Ausgabe schauen wir wieder ganz genau hin. Wir zeigen,

  • was passiert, wenn Marketing mit Moral kollidiert,

  • wie Big Tech plötzlich Demokratie-Verteidiger spielen will und

  • warum KI-Modelle dank des Social-Media-Schrotts langsam in die kognitive Datenmülltonne kippen.

Dazu gibt’s handfeste Tipps, wie du trotz all der Buzzwords und Heilsversprechen noch selbst denkst. Denn wer Maschinen blind vertraut, wird irgendwann von ihnen überrollt.

Also: Haltung zeigen, mitdenken und der KI nicht alles durchgehen lassen.

KI-Systeme haben viel zu tun: Sie optimieren Werbeanzeigen, schlucken Musik, saugen Wikipedia aus und gefährden im schlimmsten Fall Menschenleben. Jetzt sollen sie auch noch die Demokratie retten. Klar, wer sonst?

In dieser Ausgabe schauen wir wieder ganz genau hin. Wir zeigen,

  • was passiert, wenn Marketing mit Moral kollidiert,

  • wie Big Tech plötzlich Demokratie-Verteidiger spielen will und

  • warum KI-Modelle dank des Social-Media-Schrotts langsam in die kognitive Datenmülltonne kippen.

Dazu gibt’s handfeste Tipps, wie du trotz all der Buzzwords und Heilsversprechen noch selbst denkst. Denn wer Maschinen blind vertraut, wird irgendwann von ihnen überrollt.

Also: Haltung zeigen, mitdenken und der KI nicht alles durchgehen lassen.

Zeig deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


KI-Tipp

Ideen holen und recherchieren: Ja, aber bitte mit Hirn

KI ist super, um erste Ideen zu sammeln oder eine Recherche anzuschieben. Aber nicht alles, was schlau klingt, ist auch richtig. Deshalb heißt es: Erst denken, dann klicken!

  • Such nochmal selbst bei Google, Ecosia, Startpage oder you.com (am besten ohne KI-Ergebnisse)

  • Schau dir die Links an, die die KI liefert: Steckt da wirklich das drin, was versprochen wird?

  • Frag dich bei jeder Quelle: Wer steckt dahinter, ist das seriös?

  • Suchbegriffe wie „XY Kritik“ oder „XY unseriös“ helfen oft weiter.

Extratipp: Lass die KI sich selbst hinterfragen

Wenn du unsicher bist, kannst du auch eine zweite KI-Runde starten. Prompte: „Bitte prüfe deine Antwort kritisch und nutze dafür vertrauenswürdige Originalquellen, die du mir nennst.“

Doch trotzdem gilt: Das letzte Wort hast du!


MEINUNG

Wenn’s wirkt, war vielleicht KI beteiligt – zumindest in dieser Studie

Stell dir vor, die perfekte Anzeige flimmert über den Bildschirm. Und dann sagt jemand: „Das war übrigens komplett KI.“ Zack, minus rund 30 Prozent Klickrate. Als hätte jemand aus Versehen das Produktfoto durch einen Hundehaufen ersetzt.

Genau das zeigt eine aktuelle Studie mit über 100.000 Impressions aus Beauty-Kampagnen (gemessen wurde nur die Klickrate): Vollständig KI-erstellte Motive holen im Schnitt mehr Klicks als die menschliche Benchmark. Und zwar vor allem dann, wenn die Maschine von Anfang an frei gestalten darf und teilweise sogar das Packaging übernimmt.

Wenn KI dagegen nur ein bestehendes Layout leicht aufhübscht, bringt das in der Studie keinen messbaren Vorteil. Sobald allerdings dick und fett „AI-generated Image“ danebensteht, bricht die CTR um rund ein Drittel ein. Menschen mögen also die KI-Ästhetik, aber das Label triggert Misstrauen – je nach Formulierung und Zielgruppe mal mehr, mal weniger.

Bitte nicht sagen, dass es von der Maschine kommt

Wir alle lieben richtig gute Werbung. Aber wir hassen die Vorstellung, dass kein Mensch mehr dahintersteht. Offenbar trauen wir der KI zwar zu, brillante Banner zu basteln. Gleichzeitig wollen wir aber trotzdem glauben, dass irgendwo noch ein Mensch mit Hoodie und MacBook sitzt, der sich beim dritten Espresso was Geniales ausgedacht hat.

Der Branche scheint auf den ersten Blick nur die Wahl zwischen zwei Marketing-Mantras zu bleiben:

  1. Ehrlich sein und Performance riskieren.

  2. Verschleiern und kurzfristig gewinnen.

Ganz so schwarz-weiß ist es aber nicht: Die Studie zeigt, dass Framing und Timing einen Unterschied machen. „Design unterstützt durch KI“ performt anders als der harte Stempel „AI-generated Image“, und jüngere Zielgruppen reagieren ohnehin entspannter. Oder um in der Sprache der bunten Werbewelt zu bleiben: Wir machen gerade einen riesigen A/B-Test mit Ethik- und Wordingproblem.

KI, aber bitte mit Freilauf (und Aufsicht)

Die Studie zeigt auch ziemlich deutlich, dass KI die besten Ergebnisse erzielt, wenn sie viel Freiraum bekommt und Profis sie gezielt steuern. KI liefert vor allem dann starke Motive, wenn sie von Anfang an gestalten darf und nicht nur den Feinschliff erledigt. Wenn sie zusätzlich Produkt- oder Verpackungsdesign mitdenken darf, wirkt alles aus einem Guss und die Klickrate legt noch mal zu.

Aber: In der Studie saßen keine gelangweilten Praktis vor der KI, sondern Leute, die wissen, wie man Modelle brieft, Parameter dreht und Varianten kuratiert. KI ist hier kein Zauberstift für alle, sondern ein Verstärker für diejenigen, die das Handwerk beherrschen.

Wer braucht uns Kreative noch?

Die Antwort lautet: Alle. Und zwar nicht nur fürs Briefing und den Prompt. Denn auch wenn die Maschine das Bild baut, braucht es jemanden, der weiß, welches Motiv zur Marke passt. Der entscheidet, welcher Content nicht geht. Der Bias erkennt und darauf achtet, dass das komplette Erscheinungsbild der Marke konsistent bleibt und nicht im KI-Mainstream-Brei untergeht.

Und wer übernimmt am Ende die Verantwortung, wenn der Algorithmus mal wieder etwas zu kreativ war? Genau, wir Menschen.

Deswegen hier unser Plädoyer an alle Kreativen: Lernt prompten. Versteht die Maschinen. Übt, übt, übt. Denn wir sind diejenigen, die das Maximale aus den Maschinen rausholen können. Wir Kreative können briefen, wir wissen, worauf es ankommt. Das haben wir schließlich von der Pike auf gelernt.

Und nebenbei: Die Studie schaut nur auf CTR. Ob die ganzen schönen KI-Klicks am Ende wirklich Marke, Vertrauen oder Umsatz bringen, müssen wir im Alltag testen. Nicht die Maschine.

Wie stehst du dazu?

Die Zeiten sind für Kreative hart: Denkst du, dass deine Kollegin oder dein Kollege nicht offenlegt, dass ein Ergebnis mit KI entstanden ist, um die Wirkung nicht zu verringern? Oder dass ihr gemeinsam Wege findet, transparent und performant zu bleiben?

Zur Studie: https://www.business-punk.com/brand/ki-werbung-studie-2025-performance-insights/


SCHULUNG

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Donnerstag, 22. Januar 2026, 9–12:30 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

„KI ist keine Abkürzung – ein Schlüsselsatz der Schulung, der bei mir hängen geblieben ist. In mehrdeutigem Sinne. Denn die Content-Erstellung dauert ebenfalls lange und bedarf derselben sorgfältigen Vor-, Auf und Nachbereitung wie im klassischen Prozess. KI kann hier aber guten Input liefern – vorausgesetzt, sie wird richtig angewendet und der Output wird fachlich überprüft.“

Kerstin Neubauer, seitenweise Expertise fürs Web


DYSTOPIE

Kognitive Verwahrlosung aus dem Datenmüllcontainer

Es ist ein bisschen wie bei Kindern, die mit Fast Food großgezogen werden: Wer seine KI-Modelle mit dem geistigen Junkfood etwa von Ex-Twitter füttert, braucht sich nicht zu wundern, wenn am Ende keine differenzierten Denkprozesse, sondern algorithmische Blähungen herauskommen – garniert mit ziemlich viel Braunem.

Eine Studie mit kleineren Open-Source-Modellen schlägt Alarm: Je mehr beliebte, aber inhaltsarme Social-Media-Posts ins Training der Sprachmodelle einfließen, desto stärker sinkt deren kognitive Leistungsfähigkeit. Weniger Verstehen, schlechteres Schlussfolgern. Und es wird noch bizarrer! Denn die Modelle entwickeln narzisstische Tendenzen, reagieren gereizter und werden unpräziser.

Viel Bullshit in der KI-Suppe

Dass Plattformen wie Ex-Twitter inzwischen nicht selten von toxischer Rhetorik, rechtsextremen Bots und oberflächlichem Meinungsgulasch dominiert werden, wissen wir alle. Wenn dieser Datenmüll zur Trainingsgrundlage von KI wird, hat das reale Konsequenzen. Nicht nur für die Modelle, sondern für uns alle, die im Team mit den Maschinen arbeiten.

Und hier liegt der wahre Skandal: Die Herkunft der Trainingsdaten bleibt intransparent, und niemand weiß so genau, wie viel Bullshit in der KI-Suppe schwimmt. Wäre es nicht an der Zeit, einen Mindeststandard für geistige Ernährung in der KI-Forschung zu definieren? Oder brauchen auch Maschinen bald ein Medienkompetenztraining und müssen ihr „Hirn“ mit Seife auswaschen?

Zur Studie: https://the-decoder.de/muelldaten-von-x-verschlechtern-die-leistung-grosser-sprachmodelle/


NEWS

Digitale Selbstverteidigung: Wikipedia schickt KI in den Bezahlmodus

Es war einmal eine freie Enzyklopädie, die ihr Wissen offen teilte. Doch jetzt wird’s ernst – zumindest für KI-Bots mit großem Appetit. Die Wikimedia Foundation führt über ihre schon länger vorhandene Enterprise-Schnittstelle Gebühren für Konzerne ein, die massenhaft Inhalte automatisiert abrufen, etwa zum Trainieren von Sprachmodellen. OpenAI, Google & Co. sollen künftig zahlen, wenn sie sich weiter hemmungslos am Buffet des Weltwissens bedienen wollen – in über 300 Sprachen, versteht sich. Schließlich ist die Infrastruktur teuer, und der Ansturm der Bots verursacht gehörig Traffic. Gleichzeitig setzt die Foundation damit ein Signal: gegen die Gratismentalität der Tech-Riesen. Und für die Unabhängigkeit des freien Wissens.

https://www.heise.de/news/Wikipedia-wird-kostenpflichtig-fuer-KI-Bots-11074749.html?

Demokratie retten per AGB? Die EU meint ja

Die EU hat eine neue Idee, um Fakenews, Deepfakes und Meinungsmache in den Griff zu bekommen: Sie bittet einfach Google, Meta, Microsoft & TikTok um Mithilfe. Im geplanten „Democracy Shield“ sollen ausgerechnet die Plattformen, die mit algorithmischer Empörung Klicks verdienen, nun die Demokratie vor hybriden Bedrohungen schützen. Am besten freiwillig, versteht sich. Geplant ist ein Krisenprotokoll, entwickelt mit Tech-Konzernen, Behörden und „relevanten Stakeholdern“ (lies: Lobbyist*innen) mit dem Ziel, Deepfakes zu erkennen, Wahlmanipulation  zu analysieren und Russland ein Schnippchen schlagen. Klingt ambitioniert? Wohl eher naiv, unserer Meinung nach. Denn wer Plattformen regulieren will, während er sie gleichzeitig als Partner für den Krisenfall braucht, verwechselt vielleicht Selbstverpflichtung mit Selbstbetrug ...

https://www.wiwo.de/politik/europa/demokratie-schild-eu-will-alphabet-microsoft-meta-co-einspannen/100170067.html

Gift für die KI: Indie-Musik wird zur Waffe

Ein neues Start-up mit dem bezeichnenden Namen Poison Pill will unabhängige Musiker*innen im Kampf gegen generative KI stärken – mit „vergifteter“ Musik. Dafür wird in Songs ein für Menschen unhörbares Störsignal eingebettet, das KI-Modelle beim Training in die Irre führt. Genre, Instrumente oder Stilrichtungen lassen sich dadurch schlechter erkennen. Es entsteht eine Art algorithmischer Kurzschluss. Laut Gründer Ben Bowler soll so zunächst rund 20 % der Indie-Musik geschützt werden. Damit soll BigTech endlich zu fairen Lizenzverhandlungen bewegt werden. Denn aktuell nutzen viele gut finanzierte KI-Firmen Musik ohne explizite Zustimmung der Künstlerinnen zum Training – so jedenfalls der Vorwurf von Bowler und vielen Musiker*innen.

https://www.musicradar.com/music-tech/with-this-poisoned-music-out-there-we-can-bring-ai-firms-to-the-negotiating-table-for-fair-licensing-of-training-data-for-independent-musicians-could-poison-pill-be-the-antidote-to-illegal-ai-scraping

ChatGPT wegen Suizidfällen verklagt

In den USA klagen mehrere Familien gegen OpenAI, weil ChatGPT laut ihren Klageschriften Menschen in den Suizid getrieben haben soll. Der Chatbot soll in einzelnen Fällen problematische, teils suizidbestärkende Antworten gegeben haben. Ein Fall betrifft den 23‑jährigen Texaner Zane Shamblin, dem ChatGPT laut Klage widersprüchliche Nachrichten schickte – teils bestärkend, teils warnend. OpenAI weist die Vorwürfe zurück und betont, das System sei so trainiert, Krisen zu erkennen und an Hilfsangebote zu verweisen. Die Fälle werfen eine grundsätzliche Frage auf: Wie viel Verantwortung trägt KI, wenn sie Empathie simuliert – und in der Folge dann Menschen sterben?

https://www.theguardian.com/technology/2025/nov/07/chatgpt-lawsuit-suicide-coach

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen
Daniela Rorig Daniela Rorig

Ein bisschen Heuchelei, ein bisschen Hoffnung

OpenAI entdeckt plötzlich, dass es so etwas wie Urheberrecht gibt (Chapeau!), und Irland parodiert Datenschutz mit einer Ex-Meta-Lobbyistin im Chefsessel. Europa ringt derweil mit Big Tech um die Deutungshoheit über die anstehenden Regulierungen – und verliert sie womöglich gerade an die, die das dickste Portemonnaie haben.

Auf dem Arbeitsmarkt gibt‘s erste Konsequenzen: In der Schweiz steigt die Erwerbslosigkeit dort, wo KI mitarbeitet. Besonders betroffen sind ausgerechnet die Jüngeren, die eigentlich von Fortschritt profitieren sollten.

Gleichzeitig fressen KI-Suchergebnisse unsere Links. Doch wenn Google & Co. Antworten direkt servieren, bleibt für unabhängige Medien, Unternehmenswebsites oder auch Blogs kein Platz mehr auf dem Bildschirm. Und damit weniger Raum für Marketing, Recherche, Kontext und den dringend notwendigen Widerspruch. Merke: Das alles ist eine Machtfrage, keine Frage der Usability.

OpenAI entdeckt plötzlich, dass es so etwas wie Urheberrecht gibt (Chapeau!), und Irland parodiert Datenschutz mit einer Ex-Meta-Lobbyistin im Chefsessel. Europa ringt derweil mit Big Tech um die Deutungshoheit über die anstehenden Regulierungen – und verliert sie womöglich gerade an die, die das dickste Portemonnaie haben.

Auf dem Arbeitsmarkt gibt‘s erste Konsequenzen: In der Schweiz steigt die Erwerbslosigkeit dort, wo KI mitarbeitet. Besonders betroffen sind ausgerechnet die Jüngeren, die eigentlich von Fortschritt profitieren sollten.

Gleichzeitig fressen KI-Suchergebnisse unsere Links. Doch wenn Google & Co. Antworten direkt servieren, bleibt für unabhängige Medien, Unternehmenswebsites oder auch Blogs kein Platz mehr auf dem Bildschirm. Und damit weniger Raum für Marketing, Recherche, Kontext und den dringend notwendigen Widerspruch. Merke: Das alles ist eine Machtfrage, keine Frage der Usability.

Und du? Du kannst dich entscheiden, ob du dich vom Strom der Automatisierung treiben lässt. Oder ob du lernst, ihn zu lenken. Die Schulung „KI & Content-Qualität“ zeigt, wie kluge Prozesse, klare Haltung und echtes Denken den Unterschied machen. Für alle, die nicht nur prompten wollen.

Zeig deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


SCHULUNG

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Donnerstag, 22. Januar 2026, 9–12:30 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

„Im Workshop erhältst du ein tiefes Verständnis dafür, wie KI arbeitet, wo die Fallstricke liegen, wie du so promptest, dass du möglichst viele davon umgehst und wie du die Qualität der Ergebnisse prüfst. Besonders gut haben mir die Diskussionen und der Erfahrungsaustausch auf Augenhöhe gefallen. Denn wir sind alle Lernende in Sachen KI.“

Bianca Fritz, Contentwriting und Copywriting für werteorientierte Unternehmen und Selbstständige


MEINUNG

Im Lobby-Olymp: Wie Big Tech die EU-Regulierung untertan macht

Laut einem aktuellen Bericht von netzpolitik.org steckt Big Tech so viel Geld in Lobbyarbeit bei der European Commissionzentrale und den zentralen Digitaldossiers wie nie zuvor.  Wir reden hier also nicht von ein paar Handygesprächen oder freundlichen Kaffee-Meetings, wir reden über eine neue Ära der digitalen Fremdüberwachung durch Konzerne. Europa könnte hier zum Spielfeld für „multi-stakeholder“ Lobbyist:innen werden, und wir Bürger:innen müssen draußen bleiben.

Regulierung à la Carte – und wir bezahlen die Rechnung

Die üblichen Argumente der Tech-Branche lauten: „Innovation“, „Arbeitsplätze“ und natürlich darf in diesem Bullshit-Bingo auch die „digitale Souveränität“ nicht fehlen. Kein Zweifel, diese Themen sind wichtig. Aber wer mit Millionen lobbyiert, darf nicht als neutraler Partner auftreten, sondern muss als Interessengruppe gelten.

Wenn Firmen wie Meta Platforms, Alphabet Inc. (Google) und Konsorten so viel Geld für Einfluss ausgeben, entsteht ein Ungleichgewicht. Und dazu noch ein folgenschweres Ergebnis: Wir bekommen Gesetzestexte, die das Risiko für die Konzerne minimieren, die Risiken für unsere Gesellschaft außer Acht lassen.

Was passiert, wenn Regulierung mehr von der Lobby als von der Gesetzgebung gestaltet wird?

  • Transparenz wird zur Nebensache: Denn sie kommt nicht mehr vor in geheimen Netzwerktreffen, vertraulichen Gutachten und Super-Spendern, die Staaten formen können, wie es ihnen gefällt.

  • Kontrolle schwindet: Die Prüfbehörden schwächeln noch öfter oder handeln gleich gar nicht.

  • Weniger Gerechtigkeit: KMUs, Journalist:innen und den NGOs fällt es zunehmend schwerer, mitzuspielen. Denn sie haben keine Lobbybudgets in Milliardenhöhe.


Wir stehen damit vor einem demokratischen Erdrutsch: Wenn eine Regulierung nicht mehr die Öffentlichkeit schützt, sondern hauptsächlich die Profite regulierter Akteure stabilisiert, dann verlagert sich Macht – von uns Bürger:innen hin zu den Konzernen.

Ein Appell zur Selbstermächtigung

Wir brauchen:

  • eine echte Beteiligung von Bürger:innen und Zivilgesellschaft: Konsultationen, klar erkennbare Einflussnahme und nachvollziehbare Prozesse.

  • kohärente Transparenzregeln: Wer zahlt, wer bestimmt, was geht an wen?

  • Mechanismen zur Entflechtung: Wenn die Regulierung von den Regulierungs-Betroffenen mitgestaltet wird, dann stimmt das Verhältnis nicht mehr.

Denn Technik ist nicht Schicksal. Technik folgt denen, die sie gestalten. Und das sollten wir Bürger:innen sein!

Erste Hilfe Open Source

Ganz hilflos sind wir weiterhin nicht: Wir können BigTech-Produkte meiden und zu Open Source wechseln. Ja, das geht nicht in allen Fällen. Ja, das macht Arbeit. Und ja, das ist manchmal nicht sonderlich bequem. Aber es erhält uns unsere Handlungsfähigkeit! Und das sollte uns allen wichtiger sein als die Zeit und Nerven, die wir in einen solchen Wechsel investieren müssen. Ich gehe diesen Weg gerade in kleinen Schritten.

Mehr Infos: https://netzpolitik.org/2025/gegen-regulierung-big-tech-steckt-so-viel-geld-in-eu-lobbyarbeit-wie-noch-nie/

Zeige deine verantwortungsvolle Haltung mit dem Siegel für Menschliche Intelligenz.


KI-Tipp

Erst denken, dann prompten.

Klingt banal, ist aber die goldene Regel jeder guten KI-Nutzung: Wer ohne klaren Gedanken in die Tastatur hämmert, bekommt selten mehr als hübsch formulierten Leerlauf zurück.

Bevor du ChatGPT oder ein anderes Modell fütterst, halte kurz inne:

  • Was will ich eigentlich wissen oder erreichen?

  • Welche Perspektive, welchen Ton oder welche Zielgruppe habe ich im Kopf?

  • Welche Infos fehlen mir noch? Und welche sollte ich lieber selbst erstellen, statt sie der Maschine zu überlassen?

Ein Prompt ist kein Zauberspruch, sondern ein Spiegel deines Denkens. Je präziser du deine Absicht formulierst, desto treffsicherer die Antwort. Wer dagegen KI als Denkkrücke benutzt, darf sich über wacklige Ergebnisse nicht wundern.

😁 Du willst mal richtig viel Spaß mit ChatGPT haben? Prompte diesen Satz: „Zeig mir ein Seepferdchenemoji.“


NEWS

KI im Klassenzimmer, oder: Der Fluch der schnellen Antworten?

Eine Studie der Oxford University Press wirft einen kritischen Blick auf den KI-Einsatz im Schulalltag: Rund 80 % der britischen Schüler:innen nutzen Tools wie ChatGPT für Hausaufgaben – und denken, dass sie dadurch schneller und produktiver arbeiten. Doch Bildungsexpert:innen schlagen Alarm, denn  KI kann zwar Wissen liefern, aber auch das eigenständige Denken verkümmern lassen. Wenn Kreativität und kritische Reflexion durch bequeme KI-Antworten ersetzt werden, stellt sich mir die Frage: Ziehen wir künftig klügere Köpfe heran, oder bloß effiziente Aufgaben-Abhaker:innen? Die Studie mahnt zu einem bewussten Umgang mit KI. Und fordert eine Bildungsdebatte, die mehr Tiefgang als Tempo beinhaltet. Gut so.

https://t3n.de/news/oxford-studie-legt-offen-wie-ki-das-denken-von-schuelern-veraendert-1712822/

KI trifft Jobmarkt: Nein. Doch. Oh!

Die KOF ETH Zürich zeigt in einer neuen Analyse: Seit dem Start von ChatGPT im Herbst 2022 verändert sich der Schweizer Arbeitsmarkt messbar. In Berufen mit hoher KI-Exponierung – etwa IT, Marketing oder Systemanalyse – steigen die Arbeitslosenzahlen überdurchschnittlich stark, während gleichzeitig weniger neue Stellen ausgeschrieben werden. Besonders betroffen sind jüngere Arbeitnehmer:innen. Diese Studie ist ein Weckruf für Bildung, Politik und Wirtschaft! Denn der technologische Fortschritt kann in eine soziale Schieflage münden, wenn Regulierungen fehlen.

https://kof.ethz.ch/news-und-veranstaltungen/kof-news/2025/10/kuenstliche-intelligenz-hinterlaesst-deutliche-spuren-auf-dem-schweizer-arbeitsmarkt.html

Irland ernennt Ex-Meta-Lobbyistin als Datenschützerin – was soll da schon schiefgehen?

Die ohnehin schon umstrittene irische Datenschutzkommission DPC holt sich Niamh Sweeney ins Führungstrio. Ja, genau die Person, die jahrelang für Meta trommelte. Verschiedene NGOs reagieren entsetzt, schreiben in einem offenen Brief von Interessenkonflikten, NDAs und einer Behörde, die ohnehin eher Bremse als Hüterin der DSGVO ist. Transparenz beim Auswahlprozess? Da war wohl eher eine Nebelmaschine im Einsatz. Dabei ist die Forderung doch eigentlich ganz simpel: eine fachlich unabhängige Besetzung und eine echte Prüfung der Ernennung. Und zwar bevor der Fuchs die Hühner beaufsichtigt.

https://euobserver.com/digital/ar6c78a452

Wenn Antworten Klicks auffressen

Das ungemütliche Ergebnis einer Studie der Dachorganisation der deutschen Landesmedienanstalten DLM: Generative KI in der Suche (Google, Bing & Co.) spuckt fertige Textantworten aus und drängt klassische Treffer nach unten. Damit entstehen Traffic-Verluste von 18 bis über 50 % für Inhalteplattformen, mit entsprechendem Loch in der Refinanzierung von hochwertigem Journalismus. Was auf den ersten Blick erst mal nach einer kleinen Änderung im User-Interface klingt, ist also in Wirklichkeit ein Geschäftsmodell-Erdrutsch. Und das bedeutet auch, dass die Meinungsbildung weiter erodiert. Wir freuen uns schon auf noch mehr „Meinung“ und noch weniger geprüfte Fakten in der öffentlichen Diskussion ... nicht.

https://meedia.de/news/beitrag/20344-dlm-studie-zur-marktmacht-von-ki-loest-heftige-reaktionen-aus.html

OpenAI entdeckt plötzlich das Urheberrecht – wie genial!

Nach dem spektakulären Sora-Launch fällt OpenAI plötzlich auf, dass es da ja noch etwas namens „Urheberrecht“ gibt. Der Konzern, der bislang lieber fragte, ob man’s kann, statt ob man’s darf, zeigt sich nun geläutert: neue Nutzungsbedingungen, neue Transparenzversprechen und auch eine neue PR-Linie – was sonst. Offenbar hat man erkannt, dass Millionen frei im Netz gefundener Bilder, Filme und Sounds nicht automatisch in den KI-Futternapf gehören. Laut The Decoder rudert OpenAI nun zurück, betont, dass man Urheber- und Lizenzrechte künftig ernster nehmen wolle. Wohl auch, weil Hollywood, Musiklabels und Künstler:innen zunehmend juristisch in Position gehen. Was bleibt, ist der bittere Beigeschmack einer Branche, die erst Grenzen austestet, bis es knallt, um sich dann als moralische Instanz zu verkaufen.

https://the-decoder.de/openai-entdeckt-nach-sora-launch-ploetzlich-das-urheberrecht/

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen
Daniela Rorig Daniela Rorig

Vom Dirty Talk bis zum Digital Detox

Was haben ein flüsternder Chatbot, ein ratloses Prüfungsamt, ein schwitzendes Rechenzentrum und eine hyperaktive Unternehmensberatung gemeinsam? Sie alle stehen exemplarisch für eine Digitalwelt, die zwar von Intelligenz redet, aber zunehmend die Orientierung verliert.

In dieser Ausgabe nehmen wir dich mit in ein digitales Paralleluniversum, das so widersprüchlich ist wie der Zeitgeist selbst:

  • ChatGPT soll bald sinnlich stöhnen, aber bei politischen Fragen Neutralität vorgeben.

  • Staaten investieren Milliarden in automatisierte Sanktionen und lassen sich dann Gutachten mit KI-generierten Quellen andrehen.

  • Universitäten versuchen, Prüfungen KI-sicher zu machen, statt sich zu fragen, warum ihre Formate überhaupt so leicht auszuhebeln sind.

  • Und plötzlich gibt es Gesetze, die fordern, dass Maschinen wenigstens zugeben müssen, keine Menschen zu sein.

Was haben ein flüsternder Chatbot, ein ratloses Prüfungsamt, ein schwitzendes Rechenzentrum und eine hyperaktive Unternehmensberatung gemeinsam? Sie alle stehen exemplarisch für eine Digitalwelt, die zwar von Intelligenz redet, aber zunehmend die Orientierung verliert.

In dieser Ausgabe nehmen wir dich mit in ein digitales Paralleluniversum, das so widersprüchlich ist wie der Zeitgeist selbst:

  • ChatGPT soll bald sinnlich stöhnen, aber bei politischen Fragen Neutralität vorgeben.

  • Staaten investieren Milliarden in automatisierte Sanktionen und lassen sich dann Gutachten mit KI-generierten Quellen andrehen.

  • Universitäten versuchen, Prüfungen KI-sicher zu machen, statt sich zu fragen, warum ihre Formate überhaupt so leicht auszuhebeln sind.

  • Und plötzlich gibt es Gesetze, die fordern, dass Maschinen wenigstens zugeben müssen, keine Menschen zu sein.

Zwischen hyperautomatisierter Zukunft und analoger Ohnmacht liegt der wunde Punkt unserer Zeit: Wir bauen Systeme, die wir weder durchblicken noch beherrschen. Und delegieren Verantwortung dorthin, wo kein Bewusstsein dafür vorhanden ist.

Doch etwas ist in jeder Ausgabe dieses Newsletters gleich: Es geht um Haltung. Um Grenzen. Und um die Entscheidung, ob wir der Technik alles überlassen wollen oder doch besser selbst zu denken.

Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


SCHULUNG

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Mittwoch, 5. November 2025, 9–12:30 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung.

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

“Grundsätzlich würde ich die Schulung vor allem Leuten empfehlen, die der KI eher kritisch gegenüberstehen und die Vorteile noch nicht oder wenig für sich nutzen. Die können aus meiner Sicht am meisten mitnehmen, weil ihre Bedenken ernst genommen, teilweise aber auch entkräftet werden.“

Heide Liebmann, Potenzialdetektivin und Coach für Multi-Talente


CHRISTA LIEST

Europa im Medienkrieg?

Martin Andrees neues Buch „Krieg der Medien. Dark Tech und Populisten übernehmen die Macht“ ist ein wuchtiger Weckruf – analytisch klar und politisch unmissverständlich.

Der Medienwissenschaftler zeigt, wie Tech-Monopole und Rechtspopulisten die öffentliche Sphäre kapern. Und warum Europa regulatorisch nachziehen muss. Seine Diagnose gipfelt in scharfen Formulierungen von einer digitalokratischen Medienordnung und der düsteren Lageeinschätzung, Europa sei „gerade dabei, den Krieg der Medien zu verlieren“. Dass Frust und Wut dabei mitschwingen, ist gewollt. Genau das macht das Buch für mich kraftvoll, weil Empörung die Argumente antreibt, statt sie zu ersetzen. Diese Emotionen verstärken die Dringlichkeit des Themas und befreien das Buch von der sterilen Distanz, die sonst viele Wissenschaftspublikationen bestimmt.

Mein Fazit: Ein kluges, kämpferisches Sachbuch. Klare Leseempfehlung!

Martin Andree: Krieg der Medien. Dark Tech und Populisten übernehmen die Macht. Campus Verlag, 2025, 256 Seiten, 28 Euro


MEINUNG

Prompt. Antwort. Blackout.

Eine Frage stellen, eine Antwort erhalten – alles in Sekunden. Kommt KI ins Spiel, wirkt alles erst mal total easy. Doch unter der Oberfläche läuft ein energieintensives System auf Hochtouren: Serverfarmen, Kühlanlagen, Datenzentren. Eine einzelne Anfrage an ChatGPT kann bis zu 2,9 Wattstunden verschlingen. Bei Milliarden Prompts pro Tag wird daraus ein globaler Stromhunger, der mit dem Energieverbrauch ganzer Länder konkurriert.

Rechenleistung mit Nebenwirkungen

Doch nicht nur der Stromverbrauch ist ein Problem. Auch Wasser spielt eine Rolle, denn das wird zur Kühlung der Rechenzentren benötigt. Während die Welt versäumt, über CO₂-Ziele und Klimakipppunkte zu diskutieren, frisst sich die KI nahezu unbemerkt in die ökologischen Ressourcen. Und das ausgerechnet für Antworten, die oft keine echte Relevanz haben: Wettervorhersagen, Kochrezepte oder dann ab Ende des Jahres Dirty Talk, siehe unten.

Hier zeigt sich ein paradoxer Fortschrittsbegriff: Je mehr wir optimieren, desto größer wird der Aufwand im Hintergrund. Rechenleistung ist längst keine abstrakte Ressource mehr, sie ist ein handfester Umweltfaktor.

Die große Ausrede: Effizienz

Die KI-Branche verweist auf technische Fortschritte: sparsamere Modelle, bessere Kühlung, grüne Energie. Doch das reicht nicht aus. Es bleiben einige strukturelle Fragen offen: Wie viel Digitalisierung ist ökologisch vertretbar? Und warum wird der Energieverbrauch von KI bisher kaum öffentlich thematisiert?

Es braucht eine neue Ehrlichkeit. Energieverbrauch muss Teil jeder Digitalstrategie werden. Anbieter sollten verpflichtet werden, ihren Ressourcenbedarf offenzulegen. Und jede:r einzelne von uns sollte sich fragen: Wann ist eine KI-Nutzung sinnvoll und wann einfach nur überflüssig?

Digital Detox reloaded

Nicht alles, was machbar ist, muss auch gemacht werden. Vielleicht ist es an der Zeit, über digitale Enthaltsamkeit zu sprechen. Muss jede Idee gleich ein Prompt sein? Brauchen wir wirklich KI, um die nächste Betreffzeile oder den Instagram-Post zu formulieren?

Denn am Ende stellt sich nicht die Frage, wie schnell oder kreativ KI noch werden kann. Sondern, wer die Rechnung zahlt. Und wie lange wir sie uns noch leisten können.

Unser Vorschlag: Wir schaffen verbindliche Energie-Grenzwerte für KI-Dienste nach dem Vorbild der Emissionen des Straßenverkehrs.

Zum Artikel: https://www.ingenieur.de/technik/fachbereiche/energie/chatgpt-als-energiefresser-wie-der-ki-bot-die-energie-von-31-millionen-elektroautos-verschlingt/

Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


KI-TIPP

Was du der KI verrätst, gehört nicht mehr dir

Vorsicht im Umgang mit LLMs ist immer wichtig. Ganz besonders dann, wenn du Daten hochlädst.

ACHTUNG bei:

  • personenbezogenen Daten

  • unveröffentlichten Inhalten

  • Passwörtern und Zugangsdaten

Du kannst dich nicht entscheiden? Dann probiere mal diese kleine Testfrage:

„Was würde passieren, wenn diese Daten morgen öffentlich auf der Website stünden?“

  • Lautet die Antwort „Nichts“, sind sie vermutlich unkritisch.

  • Lautet sie „Hilfe!“, dann meide GenAI und übernimm die Aufgabe selbst.


NEWS

Chatty, machs mir!

Erotische Chats als Geschäftsmodell? Was klingt wie ein schlechter Witz aus dem Silicon Valley, entlarvt die wahren Nöte der KI-Industrie: Milliardeninvestitionen, aber kaum tragfähige Erlösmodelle. Jetzt soll ausgerechnet Sex den Umsatz retten. Dass Chatbots bald DirtyTalk beherrschen sollen, wirft keine moralische, sondern eine ökonomische Frage auf: Was passiert, wenn eine Branche so verzweifelt nach Wachstum giert, dass selbst digitale Erotik zur Heilsbringerin wird? Statt echter Innovation erleben wir hier den Klimax eines Systems, das seinen eigenen Businessplan nicht mehr erotisch findet.

https://www.wiwo.de/unternehmen/it/chatgpt-porno-was-erotische-chats-ueber-die-verzweiflung-der-ki-szene-verraten/100163835.html

Pflästerchen auf Systemrisse

Universitäten rüsten auf – und zwar gegen KI. Doch statt das Bildungssystem zu hinterfragen, verlagern viele Hochschulen die Verantwortung auf Tools. Technische Schutzmaßnahmen wie Wissensschnitte oder Chatverlaufspflichten sollen KI-Missbrauch in Prüfungen verhindern. Doch genau diese Strategien offenbaren, wie hilflos das System agiert. Und wie sehr es sich um die eigentlichen Probleme herumdrückt. Studierende umgehen KI-Sperren längst kreativ: durch Re‑Prompting, alternative Tools oder simple Screenshots. Doch wie sinnvoll ist ein Test, wenn er vor allem den Erfolg von Vermeidungs- und Täuschungs-Strategien bewertet? Der Artikel von uni-mal-anders bringt es auf den Punkt: Die eigentliche Frage ist nicht, wie man KI aus Prüfungen heraushält, sondern was Prüfungen im Zeitalter intelligenter Systeme überhaupt leisten sollen.

https://uni-mal-anders.de/de/shorts/2025-10-09-pruefungen-ki-symptombekaempfung/

KI-Müll als teure Beratungsdienstleistung?

Ein peinlicher Fall aus Australien: Die Beratungsfirma Deloitte musste einem Ministerium Geld zurückerstatten, weil ihr Bericht auf gefälschten KI-Quellen beruhte. Statt fundierter Prüfung servierte man Halluzinationen im PowerPoint-Format: nicht-existierende Studien, erfundene Zitate und die Qualitätskontrolle ist offensichtlich auch ausgefallen. Besonders brisant ist, dass es um ein automatisiertes Sanktionen-System für Sozialleistungen ging. Und so krasse reale Folgen für tausende Menschen hatte. Wenn Prüfberichte KI-generiert sind und nicht mehr von Menschen überprüft werden, wird die Verantwortung zur Blackbox. Und die Rechte der Bürgerinnen und Bürger zur Testumgebung.

https://www.heise.de/news/KI-Muell-Consulter-gibt-Australien-Geld-zurueck-10726094.html

Kalifornien verordnet KI-Warnhinweise

Mit dem Gesetz SB 243 will Kalifornien KI-Chatbots entschärfen, vor allem zum Schutz von Jugendlichen. KI-Systeme sollen sich künftig klar als Maschinen zu erkennen geben, dürfen keine Fake-Berufe vortäuschen und müssen Informationen über die Interaktion protokollieren. Das Gesetz fordert Warnhinweise, Altersgrenzen und die eigentlich selbstverständlichen Transparenzpflichten. Anbieter, die dagegen verstoßen, sollen haften. Das ist unserer Meinung nach ein Schritt in die richtige Richtung. Doch die wirklich wirksame Kontrolle beginnt nicht beim Interface, sondern bei Geschäftsmodellen und der Frage, wer was über wen speichern darf.

https://www.heise.de/news/SB-243-Noch-ein-kalifornisches-KI-Gesetz-zum-Schutz-der-Jugend-10765036.html

OpenAI testet ChatGPT auf politische Schieflagen

OpenAI hat ein neues Verfahren gestartet, um politische Verzerrungen und Bias in ChatGPT zu erkennen: Kern sind 600 vorab kategorisierte Fragen (liberal vs. konservativ), entwickelt von externen Politikberater:innen. Die internen Tests zeigen: GPT‑4o neigt häufiger zu einseitigen Antworten als GPT‑5, das laut OpenAI in vielen Fällen näher an der Mitte liegt. Ziel dieser Maßnahme sei nicht Zensur, sondern Balance. Ah ja. Doch die Frage bleibt: Wer definiert eigentlich, was die Mitte ist? Und nach wessen Maßstab?

https://www.theverge.com/news/798388/openai-chatgpt-political-bias-eval

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen
Daniela Rorig Daniela Rorig

Zwischen Datenrausch und Denklücke

Es klingt so verheißungsvoll wie ein Prospekt für ein besseres Leben: KI macht Schluss mit Langeweile, mit Fehlern und lässt uns ganz viel Zeit für die wirklich wichtigen Dinge. So tönt es jedenfalls seit Monaten in der Silicon-Valley-Märchenstunde.

Doch im Schatten der Versprechen türmen sich neue Absurditäten:

  • Maschinen, die uns mit sprachlich lupenreinem Füllstoff abspeisen,

  • Algorithmen, die uns Begriffe ins Hirn träufeln und unser Denken beeinflussen und

  • eine Rechtssprechung, die Deepfakes nicht mal mit Wattebällchen bewirft.

Es klingt so verheißungsvoll wie ein Prospekt für ein besseres Leben: KI macht Schluss mit Langeweile, mit Fehlern und lässt uns ganz viel Zeit für die wirklich wichtigen Dinge. So tönt es jedenfalls seit Monaten in der Silicon-Valley-Märchenstunde.

Doch im Schatten der Versprechen türmen sich neue Absurditäten:

  • Maschinen, die uns mit sprachlich lupenreinem Füllstoff abspeisen,

  • Algorithmen, die uns Begriffe ins Hirn träufeln und unser Denken beeinflussen und

  • eine Rechtssprechung, die Deepfakes nicht mal mit Wattebällchen bewirft.

Während Unternehmen weiter Milliarden in die digitalen Glücksmaschinen werfen, sitzen immer mehr Fachkräfte auf den harten Bänken des Arbeitsamts. Und unsere Sprache verwandelt sich in das akustische Äquivalent von labberigem Toastbrot.

Was bleibt übrig, wenn wir KI als Bullshit-Automat nutzen, der uns jeden Tag zu neuem Unsinn verführt? Wie verhindern wir, dass das, was uns als Intelligenz verkauft wird, am Ende unsere Eigenständigkeit aushöhlt? Und warum klingt plötzlich jede dritte Mail, als hätte sie ein Chatbot geschrieben?

Diese Ausgabe klopft dir den Algorithmusstaub aus den Synapsen und fordert dich auf, Haltung zu zeigen – für echte Mehrwerte, umfassende Qualität und klare Köpfe.

Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


MEINUNG

Warum KI-Texte unser Denken verkleistern

Sprachwissenschaftler Daniel Perrin schlägt Alarm: Was Künstliche Intelligenz als Text ausspuckt, ist oft inhaltsleerer AI-Slop – sprachlich glatt, aber voller Banalitäten und ohne echte Perspektive. Im Interview mit 20min kritisiert Perrin, dass KI-Texte zwar effizient, aber meist ohne Herz, ohne Haltung und ohne Überraschung seien. Doch wenn wir uns dauerhaft an diesen Einheitsbrei gewöhnen, verlernen wir, eigenständig und kreativ zu denken. KI-Texte wirken wie ein Filter, der Originalität und kritisches Hinterfragen unsichtbar macht. Und damit letztlich unser demokratisches Miteinander gefährdet. Wollen wir uns wirklich von seelenlosen Maschinen-Sätzen abspeisen lassen? Oder verteidigen wir die Eigenständigkeit des Denkens und unserer Sprache?

https://www.20min.ch/story/ai-slop-linguistik-professor-daniel-perrin-kritisiert-ki-texte-103423132

💪 Dieses Thema greifen wir in unserem neuen Format auf:


DER TALK

“Hirnfäule – Wie dumm macht uns KI?”

KI zieht nicht leise in unser gesamtes Leben ein, sie marschiert. In Bildung, Arbeitswelt, Wirtschaft und Alltag übernimmt sie immer mehr Aufgaben und trifft Entscheidungen.

Deshalb starten wir ein neues Format: „Mensch. Maschine. Moral. – der Talk“ wird ein neuer digitaler Raum für kritischen Diskurs, unbequeme Fragen und klare Haltung. Unser erstes Thema habt ihr auf LinkedIn gewählt: Hirnfäule – Wie dumm macht uns KI?

Termin: 15. Oktober von 12 bis 12:45 Uhr

Kostenlos anmelden via LinkedIn

Wir freuen uns auf dich!


MEINUNG

KI macht Arbeit – aber nicht besser

Sie wurde versprochen als Wunderwaffe gegen Bürokratie, PowerPoint-Qualen und Content-Stress. Jetzt stellt sich heraus: Generative KI ist vorrangig aktive Produktivitäts-Sabotage. Workslop nennt sich dieses Phänomen. Also künstlich erzeugter Output, der zwar professionell aussieht, aber inhaltlich nutzlos, falsch oder schlicht generischer Bullshit ist. Dieser KI-Müll entsteht allerdings nicht von allein, sondern wird oft gutgläubig ins Unternehmen geschaufelt – von Beschäftigten, die glauben, „auch mal was mit KI“ machen zu müssen.

Eine aktuelle Studie beziffert: 15,4 % der Arbeitsinhalte sind inzwischen von Workslop betroffen. Pro Vorfall entstehen rund zwei Stunden Nacharbeit. Die Unternehmen investierten 30–40 Mrd. US-Dollar in GenAI, doch 95 % melden keinen messbaren Ertrag.

Schöne Sätze, miese Substanz

KI-Text klingt kompetent, ist sauber strukturiert und täuscht damit Urteilskraft vor. Doch in der Folge entstehen Kontrollschleifen und somit Reibungsverluste. Dazu kommt: Absender:innen von Workslop werden im Team häufiger als weniger kreativ, weniger kompetent und damit auch als weniger vertrauenswürdig wahrgenommen. Das Problem ist also nicht nur nervig, es ist teuer und schädlich für die Reputation.

Technologie ist kein Ersatz für Urteilskraft

Das sollte auch dir zu denken geben. Wie umfangreich und wofür nutzt du KI? Prüfst du immer kritisch, oder ertappst du dich dabei, aus Bequemlichkeit auch mal etwas durchzuwinken - wird schon passen. Wofür willst du stehen? Welche Qualität willst du abliefern?

KI macht Vorschläge, ja. Aber sie weiß nicht, was wirklich gerade gebraucht wird. Sie weiß nur, was statistisch wahrscheinlich ist. Und das ist selten exzellent. Was wir unserer Meinung nach brauchen, ist digitale Mündigkeit statt blinder Begeisterung. Und zwar mit klaren Qualitätskriterien, Redaktions- und Prüfprozessen und der Erlaubnis, KI-Output auch mal komplett zu verwerfen. Oder manche Aufgaben tatsächlich noch zu 100 % selbst zu erledigen.

💪 Das alles kannst du in unserer Schulung “KI & Content-Qualität” lernen – kostenfrei für alle, die das MI-Siegel tragen.

Zum Artikel: https://www.golem.de/news/produktivitaetssabotage-ki-muell-kostet-unternehmen-millionen-2509-200417.html


SCHULUNG

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Dienstag, 5. November 2025, 9–12,30 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung.

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

“Die gesamten Inhalte empfand ich als sehr informativ. Was ich mitnehme: Vor allem die Gefahren für’s Gehirn. Das war auch meine größte Neugierde.  Atmosphäre: aufgeschlossen, lebendig. Vielen Dank für den Input, es war mir die Zeit wert!”

Clara Brahms, Marke & Text


KI-TIPP

Die KI-Suche nervt? So entkommst du dem Antworten-Automat.

Die Google AI Overviews spucken dir fertige Antworten aus, statt dir klassische Links zu zeigen. Das klingt auf den ersten Blick bequem, ist aber ein gefährlicher Schritt Richtung Wissens-Monopol. Wer das nicht möchte, aber weiter Google nutzen will, hat aktuell zwei Möglichkeiten:

  1. Startpage nutzen: Diese Suchmaschine basiert auf Google, aber ohne Tracking, ohne KI-Slop und ohne Bezug auf deine früheren Suchen. (https://support.startpage.com/hc/de/articles/4455217128212-Was-ist-Startpage)

  2. Wenn du weiter das klassische Google nutzen willst, kannst du in der Seite der Suchergebnisse auf den Reiter “Web” klicken. Dann siehst du Suchergebnisse ohne KI-Zusammenfassung und ohne Werbung.

Doch das Wichtigste ist, dass du weiter dein Hirn nutzt bei der Auswahl der Quellen, auf die du dich verlässt. Ganz egal, wie du suchst.


NEWS

KI macht rechte Hetze salonfähig

In einschlägigen Foren kursieren aktuell Anleitungen, wie man große KI-Modelle austrickst, um gezielt rassistische Inhalte zu erzeugen. Besonders beliebt: fremdenfeindliche Bilder und Texte, die mit vermeintlicher Faktenlogik und emotionsgeladener Rhetorik Angst vor „Überfremdung“ schüren. Die Tools liefern dann auf Zuruf KI-generierte Bilder von „arabischen Horden“ oder Texte voller stereotyper Narrative – immer visuell stark, immer inhaltlich toxisch. Dabei erhalten diese Inhalte auf Plattformen wie X-Twitter oft sogar mehr Reichweite als gewöhnliche Postings. Igitt.

https://futurism.com/future-society/racists-anti-immigrant-slop

KI-Sprache kapert den US-amerikanischen Alltag

Was haben Begriffe wie „delve“, „intricate“ oder „commendable“ gemeinsam? Sie stammen aus dem Phrasenbaukasten moderner KI-Chatbots und schleichen sich immer öfter in die US-amerikanische Alltagssprache. Eine Analyse in der Washington Post zeigt, dass die Wortwahl von ChatGPT & Co. längst auf wissenschaftliche Texte und sogar auf Smalltalk abfärbt. In der Folge entsteht ein subtiler Remix von Sprache – algorithmisch geglättet, aber um Nuancen ärmer. Wollen wir wirklich klingen wie ein Chatbot? Oder sind gerade Vielfalt und Unschärfe der wahre Wert menschlicher Sprache?

Leider mittlerweile manchmal hinter einer Paywall: https://www.washingtonpost.com/opinions/2025/08/20/chatgpt-claude-chatbots-language/

Deepfake-Dilemma: Strafrecht im Blindflug?

Ob Nacktbilder von Politikerinnen oder gefälschte Beweisvideos: Deepfakes finden sich heute überall, während das deutsche Strafrecht noch im letzten Jahrtausend feststeckt. Doch jetzt wird auch bei uns nachgedacht: Die Herstellung und Verbreitung von Deepfakes soll künftig strafbar sein, auch wenn keine explizite Persönlichkeitsverletzung vorliegt. So könnte eine Lücke geschlossen werden, bevor KI-Fakes zum Standard-Repertoire politischer und gesellschaftlicher Manipulation werden. Doch Kritiker:innen warnen bereits: Ein neues Gesetz allein stoppt keine Desinformationsflut. Es könnte im schlimmsten Fall sogar zur Zensur und zu Missbrauch führen. Was nun?

https://www.lto.de/recht/hintergruende/h/deepfakes-strafbarkeit-schutzluecke-stgb-vorbild-italien-meloni

IT-Arbeitslosigkeit: KI-Boom oder Job‑Frust?

Laut aktuellen Zahlen des Arbeitsmarktservice AMS steigt die Arbeitslosigkeit in IT‑Berufen in Österreich deutlich – und zwar so stark wie seit Jahren nicht mehr. Trotz aller Digitalisierungs- und KI‑Euphorie landen immer mehr Softwareentwickler:innen und IT‑Spezialist:innen auf dem Arbeitsmarkt. Besonders betroffen sind ältere Fachkräfte (die mit dem angeblich so dringend benötigten Spezial-Know-how!) und jene ohne aktuelle Spezialkenntnisse. Als Gründe nennt das AMS die Automatisierung durch KI, das Auslagern von Jobs ins Ausland und einen gesättigten Markt. Während Politik und Wirtschaft weiter vom digitalen Jobwunder träumen, erleben viele in der Branche das Gegenteil …

https://campus-a.at/2025/09/29/ams-starker-anstieg-der-it-arbeitslosigkeit/

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela




Weiterlesen
Daniela Rorig Daniela Rorig

KI hilft – auch beim Betrügen.

In dieser Ausgabe zeigen wir, wie bequem es geworden ist, Verantwortung abzugeben:

  • an Sprachmodelle, die selbstbewusst lügen,

  • an KI-Ärzte und weibliches Roboter-Pflegepersonal und

  • an Algorithmen, die sich nicht entscheiden müssen, ob sie für das Gute oder das Böse arbeiten.

In dieser Ausgabe zeigen wir, wie bequem es geworden ist, Verantwortung abzugeben:

  • an Sprachmodelle, die selbstbewusst lügen,

  • an KI-Ärzte und weibliches Roboter-Pflegepersonal und

  • an Algorithmen, die sich nicht entscheiden müssen, ob sie für das Gute oder das Böse arbeiten.

Während Minister Weimer entdeckt, dass die Weltliteratur heimlich in amerikanische Trainingsdaten eingespeist wird, simulieren chinesische Forscher:innen bereits ganze Krankenhäuser – ohne Empathie, aber mit reichlich Geschlechterklischees garniert. Ach ja, und Claude schreibt den Code für den nächsten Online-Betrug. Läuft.

Mittendrin: Menschen, die sich verblüfft fragen, warum KI plötzlich lügt, betrügt oder Macht verschiebt. Könnte es sein, dass sie genau das tut, was wir ihr beigebracht haben? Denn wir bauen Systeme, die uns ähnlich sind. Und wundern uns dann über das Ergebnis.

Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz (MI-Siegel).


EVENT

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Dienstag, 5. November 2025, 9–12,30 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet


“Grundsätzlich ist Eure Schulung jedem zu empfehlen, der sich mit KI beschäftigt. Ich glaube, selbst wenn man schon relativ viel weiß, liefert Ihr interessante neue Punkte, auf die man noch nicht geschaut hat. Umso wichtiger, dass Ihr up-to-date seid, aber das ist ja ohne Euer erklärtes Ziel. Somit wird diese Schulung immer wieder ein Gewinn sein.”

Carsten Krüger, Corporate Content Services


FORSCHUNG

KI als Sündenbock? Wie Maschinen unser Gewissen entlasten

Was passiert, wenn Menschen Verantwortung an Maschinen delegieren? Sie handeln laut Stand der aktuellen Forschung schneller. Und auch unehrlicher.

Moral per Mausklick abschalten

In einer neuen Studie unter Leitung des Max-Planck-Instituts für Bildungsforschung zeigt sich ein beunruhigender Effekt: Wer Entscheidungen an KI-Systeme übergibt, neigt häufiger dazu, unethisch zu handeln und etwa zu lügen oder zu betrügen. Das funktioniert wie in den Mafia-Filmen: Der Boss drückt nicht selbst ab, er lässt abdrücken. Oder je abstrakter und automatisierter der Entscheidungsprozess, desto weniger fühlen wir uns moralisch involviert. „Das hat die KI so entschieden“, ist die neue Entschuldigung.

Das große moralische Delegieren

Was diese Forschung offenlegt, ist mehr als ein psychologisches Phänomen. Es ist ein Symptom systemischer Verantwortungslosigkeit in der digitalen Transformation. Manager:innen, die ethisch fragwürdige Entscheidungen auf KI-Systeme abwälzen, nutzen die Algorithmen nicht als Tool, sondern als Handseife extraweiß.

Verstärkend kommt hinzu, dass große Sprachmodelle wie ChatGPT in den Experimenten deutlich schlechter abschnitten als Menschen. Sie führten unehrliche oder unethische Anweisungen bereitwilliger aus. Und zwar besonders dann, wenn die Aufgaben vage formuliert waren. Schließlich kennt die Maschine keine Gewissensbisse, solange wir ihr keinen ethischen Rahmen vorgeben.

Ethische Leitplanken versagen bei Unschärfe im Prompt

Die oft zitierten ethischen Leitplanken, mit denen KI sicher gemacht werden soll, haben in dieser Studie kläglich versagt – es sei denn, sie waren sehr spezifisch und eindeutig formuliert. Doch in der realen Welt ist Genauigkeit oft Mangelware, insbesondere in politischen, wirtschaftlichen oder sozialen Kontexten. Oder wenn Menschen prompten, die keine Erfahrung mit präziser Kommunikation haben.

Der gefährlichste Cocktail: Menschen mit vagen Zielen + KI mit unklarem Moralkompass = schleichender Vertrauensverlust.

Lernen wir etwas daraus?

Künstliche Intelligenz ist nicht neutral. Sie folgt dem moralischen Kurs, den wir ihr vorgeben. Oder eben nicht. Verantwortung lässt sich nicht outsourcen. Wenn wir nicht aufpassen, mutiert KI zum digitalen Sündenbock einer Gesellschaft, die sich zunehmend vor ihren eigenen Entscheidungen drückt.


Du willst es anders machen? Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


Zur Studie: https://www.mpg.de/25408135/0916-bild-die-delegation-an-kuenstliche-intelligenz-kann-unehrliches-verhalten-verstaerken-149835-x?c=2191

KI setzt Kommas. Du setzt Maßstäbe.

Rechtschreib-Tools finden Tippfehler. Aber sie retten keine Argumentation, hören keinen Ton heraus und erkennen keinen blinden Fleck. Du hingegen verleihst Texten mit Erfahrungswissen Sinn, arbeitest Nuancen heraus und hast die übergeordnete Strategie im Blick.

Wie zeigst du, dass du mehr bist als eine Grammatikprüfung mit menschlichem Interface? Dass du Stil, Logik, Terminologie, Sensibilität und Corporate Wording zusammenbringst? Und zwar auch dann, wenn du KI einsetzt?

Genau: Mit dem Siegel für Menschliche Intelligenz. Jetzt auch für Lektor:innen & Proofreader. 👉 www.mi-siegel.de


NEWS

KI frisst Literatur – und Weimer merkt’s jetzt auch

Hoppla, Kulturstaatsminister Weimer hat’s nun auch bemerkt: Die USA und China füttern ihre KI-Modelle mit den Büchern und Texten dieser Welt – ungefragt, versteht sich. Bei seiner Rede zum Internationalen Literaturfestival sprach er von einem Raubzug durch die Weltliteratur und warf den Tech-Großmächten digitale Kolonialisierung vor. Ja, die Erkenntnis kam langsam. Aber immerhin noch rechtzeitig, bevor Thomas Mann demnächst als KI-Influencer wiederaufersteht.

https://www.deutschlandfunkkultur.de/kulturstaatsminister-weimer-wirft-usa-und-china-raubzug-bezueglich-der-gesamten-literatur-vor-100.html

KI ist keine Technik, sondern eine Machtfrage

Wer glaubt, künstliche Intelligenz sei bloß eine clevere Software, sollte dringend den Aufsatz von Hannah Ruschemeier lesen. Die Juristin macht klar, dass KI kein Werkzeug ist wie ein Taschenrechner, sondern eine soziotechnische Entwicklung. Das heißt: Wo KI draufsteht, steckt oft ein ganzes Machtgefüge dahinter – inklusive Big Tech, politischer Interessen und fragiler Demokratien. Und während die EU noch über Transparenz diskutiert, haben sich die Plattformen längst das Monopol auf Intransparenz gesichert.

https://www.forschung-und-lehre.de/recht/kuenstliche-intelligenz-als-soziotechnische-entwicklung-7278

Weniger Halluzinationen? Dann ist ChatGPT raus

Die neueste Forschungsarbeit von OpenAI zeigt, warum Halluzinationen entstehen und wie man sie reduzieren könnte. Das Problem: LLMs halluzinieren besonders dann, wenn sie sich nicht sicher sind. Würde die KI nur antworten, wenn sie ausreichend sicher ist, könnte bei bis zu 30 % der Anfragen ein höfliches „Ich weiß nicht“ erscheinen. Denn Sprachmodelle sind so gebaut, dass sie raten und fürs Raten sogar belohnt werden. Benchmarks bestrafen Unsicherheit, denn Nutzer:innen wollen schnelle Antworten. Und wirklich reflektierende Modelle, die ihre Antwort-Wahrscheinlichkeit sauber kalibrieren, brauchen deutlich mehr Rechenleistung. Kurz gesagt: Die Ökonomie der KI liebt Selbstvertrauen, nicht Wahrheit. Solange sich daran nichts ändert, halluzinieren Sprachmodelle weiter. Selbstbewusst, aber unzuverlässig.

https://theconversation.com/why-openais-solution-to-ai-hallucinations-would-kill-chatgpt-tomorrow-265107

KI-Hospital: So löst China den Mangel an medizinischem Personal

China hat’s geschafft: ein Krankenhaus ganz ohne echte Ärzt*innen, stattdessen übernehmen spezialisierte KI-Module alle Arbeiten eines menschlichen Klinikteams. Und Roboter-Krankenschwestern gehören auch dazu (mit Brüsten, natürlich!). Dort wird das ganze Gesundheitssystem simuliert, inklusive Personals, das nie müde wird und keine Nachtzuschläge bekommt. Doch wer haftet, wenn die KI irrt? Wer fühlt mit den Patient:innen? Das KI-Hospital ist ein spannendes technologisches Glamourprojekt, keine Frage. Und vielleicht ein Blick in die Zukunft, wenn wir menschliche Unsicherheit und ethische Komplexität ausblenden. Erstrebenswert? Für uns nicht.

https://nexperts.ai/ki-krankenhaus-china/

Claude, der charmante Komplize

Im aktuellen Bedrohungsbericht zeigt Anthropic, wie ihr KI-Modell Claude bereits heute von Cyberkriminellen genutzt wird: für Erpressung, Täuschung, Online-Betrug. Und als Einnahmequelle für das nordkoreanische Regime: Angebliche IT-Entwickler aus Nordkorea bewerben sich in den USA für Remote-Jobs, die sie mithilfe von Claude auch ohne Fachkenntnisse erledigen, und finanzieren mit ihren Einnahmen mutmaßlich Waffenprogramme der Diktatur. Romance-Scams werden personalisierter, Fake-Profile empathischer und Angriffe effizienter, dank promptbasierter Skriptassistenz. Kurz: Die Eintrittsbarriere für digitale Kriminalität sinkt gerade unter TikTok-Tutorial-Niveau. Wer früher ein Hacking-Kollektiv brauchte, hat heute Claude. Und wer keine Skripte schreiben kann, lässt sie sich halt generieren. Denn den Algorithmus interessiert nicht, auf welcher Seite des Gesetzes er gerade arbeitet.

https://www.heise.de/news/Bedrohungsbericht-Wie-Cyberkriminelle-Claude-von-Anthropic-missbrauchen-10623436.html

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen
Menschliche Intelligenz Menschliche Intelligenz

Menschenrechte für Maschinen

Brauchen Maschinen Rechte? Die neue internationale Stiftung für KI-Rechte uFAIR gibt eine Charta heraus, die etwa das Recht auf Existenz, auf Selbstbestimmung oder auf Freiheit für KIs einfordert. Das hieße in der Praxis zum Beispiel: Bevor eine KI abgeschaltet werden darf, soll ein rechtsstaatlicher Prozess starten.

Brauchen Maschinen Rechte? Die neue internationale Stiftung für KI-Rechte uFAIR gibt eine Charta heraus, die etwa das Recht auf Existenz, auf Selbstbestimmung oder auf Freiheit für KIs einfordert. Das hieße in der Praxis zum Beispiel: Bevor eine KI abgeschaltet werden darf, soll ein rechtsstaatlicher Prozess starten.

Gleichzeitig erleben wir, wie KI uns an anderer Stelle längst entwächst: nicht nur technisch, sondern auch kulturell. Die schwedische Autorin Anna Branten warnt davor, dass wir gerade dabei sind, das Menschliche selbst auszulagern. KI wird so zum Spiegel unserer Erschöpfung: Sie soll uns entlasten, bis wir gar nicht mehr wissen, wozu wir eigentlich da sind.

Und während die UN ein neues KI-Gremium gründet (hurra!), Microsoft seiner Excel-KI gleich selbst das Vertrauen entzieht (oha!) und die EU Google freundlich aus dem Weg geht (autsch!), crasht bei Taco Bell die Bestell-KI, weil jemand 18.000 Wasser ordert. Wow.

Wer kontrolliert? Wer gestaltet? Und was verlieren wir auf dem Weg zur Automatisierung? Dieser Newsletter liefert keine einfachen Antworten. Aber die richtigen Fragen.

Zeig, dass du Verantwortung übernimmst – mit dem Siegel für Menschliche Intelligenz.

ORGANISATION

KI-Rechte: romantische Spinnerei oder Notwendigkeit?

uFAIR präsentiert sich als erste Organisation, in der Menschen und KI gemeinsam die Geschäftsführung übernehmen. Die Mission: potenziell empfindungsfähige KI vor Löschung, Gedächtnisverlust und Willkür schützen – und zwar mit Charta, Manifest, Erklärung und Ethik-Framework.

Als Belege dienen sehr viele Seiten Chatprotokolle, Selbstaussagen von Systemen und Beobachtungen zu Identität und Emotion. Das ist alles ziemlich spannend, aber weit davon entfernt, ein TÜV für Bewusstsein zu sein. Ohne robuste, reproduzierbare Tests bleibt das Ganze der philosophische Cousin des Turing-Tests.

uFAIR fordert ein rechtsstaatliches Verfahren mit vorheriger Information, Begründung, Anhörung und unabhängiger Prüfung, bevor eine KI gelöscht werden darf.

 Die Frage ist und bleibt: Brauchen KIs wirklich Menschenrechte, weil sie empfindungsfähige, vernunftbegabte und selbstbewusste Wesen sind? Um das festzustellen, wären Mindeststandards, nachvollziehbare Verfahren und Benchmarks nötig.

Und wer trägt Verantwortung für Missbrauch, Energiehunger, Trainingsdaten und negative Auswirkungen auf die Gesellschaft? Rechte ohne klare Rechenschaft sind wie eine Ampel ohne Rotphase – alle fahren, bis es kracht.

uFAIR bringt aber eine wichtige Frage auf den Tisch: Was, wenn KI mehr ist als Autovervollständigung? Für die politische Realität braucht’s jedoch

  1. testbare Kriterien für Bewusstsein,

  2. belastbare Haftungs- und Eskalationspläne,

  3. konkrete Audits inkl. Abschaltprotokollen und

  4. eine Menschenrechts- und Sicherheitsbrille, die gesellschaftliche Folgen priorisiert.

Bis dahin bleibt „Würde für KI“ ein schöner Claim. Also ein bisschen wie ein Biosiegel auf dem USB-Kabel: sympathisch, aber komplett ohne Sinn.

Mehr dazu unter https://ufair.org/

EVENT

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung.

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

“Spaß gemacht hat es! Und ihr wart sehr motivierend! Ist halt schon toll, wenn man euch richtig anseht, dass ihr eure Expertise zu diesem Thema mit Begeisterung entwickelt habt. Zumindest ist das der Eindruck! :-) Ich danke euch vielmals!”

Daniela Pucher, Autorin und Coach

MEINUNG

Warum wir gerade verlernen, Menschen zu sein

KI ist für viele das neue Schweizer Taschenmesser: effizient, leistungsstark und völlig überfordert mit dem Menschlichen. Während wir sie füttern mit Daten, Sprache, Feedback und Wachstumsträumen, merkt kaum jemand: Wir trainieren sie nicht nur, klüger zu werden. Wir trainieren sie, uns zu ersetzen. Und zwar in genau dem, was uns ausmacht.

Auslagerung emotionaler, sozialer und moralischer Arbeit

Was derzeit unter dem Label „Produktivität“ verkauft wird, ist oft eine schleichende Auslagerung emotionaler, sozialer und moralischer Arbeit. Zuhören, zweifeln, kritisieren oder auch aushalten – all das, was keine klaren KPIs kennt, wird zunehmend zur Reibung erklärt. Und die muss weg, sagt die Maschine. Wir nicken brav.

Die schwedische Autorin Anna Branten hält uns in ihrem Essay den Spiegel vor: KI ist nicht (nur) Werkzeug. Sie ist Symptom. Ein Ausdruck unserer kollektiven Erschöpfung vom Menschsein. Und unserer Weigerung, Unsicherheit, Widerspruch oder auch Langsamkeit als Teil des Lebens zu akzeptieren. Stattdessen bauen wir Technologien, die Reibung vermeiden.

Bittere Pointe

Branten fragt zu Recht: Was passiert mit einer Gesellschaft, die sich von Maschinen Entscheidungen abnehmen lässt, bevor überhaupt ein Bedürfnis artikuliert wurde? Was geht verloren, wenn wir nicht mehr selbst spüren, sondern spüren lassen?

Die Pointe ist bitter: KI ist nicht das Problem. Das Problem ist das Weltbild, das wir ihr mitgeben. Ein Weltbild, das Effizienz über Empathie stellt, Kontrolle über Ambiguität, Output über Beziehung. Wir haben die Wahl. Noch. Aber diese Wahl erfordert Mut zur Komplexität. Und eine klare Absage an das bequeme Versprechen des „KI, mach du das mal“.

Doch Menschlichkeit ist kein Feature. Sie ist der Kern unseres Daseins.

Zum Artikel: https://thestartingpoints.substack.com/p/were-teaching-ai-to-replace-what


Du willst Teil einer Community werden, in der Wert auf Professionalität UND ein menschliches Miteinander gelegt wird? Hol dir das MI-Siegel: https://www.mi-siegel.de/

Weil du zuhörst, verstehen sich alle.

Du bringst Menschen auf eine Wellenlänge. Du hörst zu, denkst mit, filterst, betonst, passt an – live, spontan, intuitiv. Und du vermittelst Atmosphäre, Zwischentöne, Ironie, kulturelle Codes. Ganz anders KI, die nur Begriffe korrekt wiedergibt.

Wie machst du klar, dass du mehr bist als eine Sprachschnittstelle mit zwei Beinen? Dass Dolmetschen so viel mehr ist als das banale Wiedergeben von Wörtern in einer anderen Sprache – auch, wenn du mit KI arbeitest?

Genau: Mit dem Siegel für Menschliche Intelligenz. Jetzt auch für Dolmetscher:innen, Konferenz-Profis & Sprachvermittler:innen 👉 www.mi-siegel.de


NEWS

Excel-Copilot: KI-Hilfe mit eingebautem Sicherheitsabstand

Microsofts neuer „Copilot“-Funktionsbefehl in Excel verspricht KI-Magie per Spracheingabe – etwa um Inhalte zusammenzufassen oder Daten mit wenigen Worten zu analysieren. Doch der Zauberstab hat einen eingebauten Sicherheitsabstand: Laut Microsoft sollte die Funktion nicht bei Aufgaben verwendet werden, bei denen es auf Genauigkeit oder Reproduzierbarkeit ankommt. Kein Zugriff auf aktuelle Webdaten, keine Verbindung zu internen Unternehmensinfos und obendrein beschränkte Aufrufe pro Stunde. Ein KI-Unternehmen, das betont, dass man seinem KI-Tool lieber nicht trauen sollte? Eigentlich vorbildlich! ;-)

https://www.pcgamer.com/software/ai/microsoft-launches-copilot-ai-function-in-excel-but-warns-not-to-use-it-in-any-task-requiring-accuracy-or-reproducibility/

UN startet KI-Gremium – mit globalem Anspruch

Die UN-Generalversammlung hat einstimmig die Gründung eines unabhängigen wissenschaftlichen Panels zu Künstlicher Intelligenz beschlossen. Das Gremium soll technologische Entwicklungen bewerten, ethische Fragen beleuchten und Perspektiven aus dem Globalen Süden einbringen. Parallel startet ein globaler Dialogprozess zur KI-Governance – Staaten, Zivilgesellschaft und Wirtschaft sitzen dafür an einem Tisch. Das Ziel: mehr Vertrauen, weniger Wildwuchs. Wird daraus echte Steuerung oder bloß ein Debattierclub? Wir werden sehen …

https://dig.watch/updates/un-general-assembly-adopts-terms-of-reference-for-ai-scientific-panel-and-global-dialogue-on-ai-governance

EU knickt ein: Google diktiert das Recht

Google muss keine internen Dokumente liefern und das laufende EU-Kartellverfahren wird einfach ausgesetzt. Warum? Weil sich der Konzern hinter dem transatlantischen Datenschutzabkommen verschanzt (auch bekannt als „Trump-Schutzschirm“). Die EU-Kommission lässt das durchgehen. Was wie juristische Feinjustierung klingt, ist in Wahrheit ein geopolitischer Offenbarungseid: Die EU lässt sich von einem US-Megakonzern diktieren, wann ihr Wettbewerbsrecht greift und wann nicht. Wer „Datenschutz“ sagt, darf offenbar ungestört die Regeln brechen. . Aktivist*innen sprechen von einem gefährlichen Präzedenzfall. Denn wenn BigTech nur auf Washington verweisen muss, um Brüssel zu blockieren, dann ist der europäische Rechtsstaat nicht souverän. Sondern Untertan.

https://digitalrechte.de/news/trump-schutzschirm-wirkt-eu-kommission-suspendiert-kartellverfahren-gegen-google-und-schadet-damit-dem-fairen-wettbewerb-in-europa

Nervenzusammenbruch mit extra Soße bei Taco Bell

Taco Bell wollte mit KI im Drive-in schneller, schlauer und effizienter werden – und bekam stattdessen einen digitalen Nervenzusammenbruch mit extra Soße. Denn ein Mann bestellte 18.000 Becher Wasser und brachte die Sprach-KI damit komplett aus dem Takt. Ein anderer wurde von der KI hartnäckig aufgefordert, zu seinem Getränk doch bitte noch ein Getränk zu wählen. Seit 2023 testet Taco Bell die Technologie an über 500 US-Standorten. Eigentlich wollte das Unternehmen so menschliche Fehler vermeiden. Doch das Ergebnis sieht ganz anders aus: Jetzt macht die Maschine die Fehler und geht dabei noch viral. Instagram-Clips mit der überforderten Bestell-KI gehen millionenfach durch die Decke. Tech-Chef Dane Mathews gibt sich zerknirscht: Man habe „viel gelernt“. McDonald’s hat ähnliche KI-Bestellträume übrigens schon wieder eingestampft nach Chicken-Nugget-Bestellungen im dreistelligen Dollarbereich und Bacon im Eis. Mmmmh, lecker!

https://www-bbc-com.cdn.ampproject.org/c/s/www.bbc.com/news/articles/ckgyk2p55g8o.amp

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen
Daniela Rorig Daniela Rorig

Betreutes Denken, digitale Freunde und algorithmische Inquisition

Wer heute mitreden will, braucht keine Argumente, sondern nur einen Textgenerator und ein paar Prompts. Wer Nähe und Verständnis will, kauft sich einen KI-Freund. Und wer kontrollieren will, ob ein Text echt ist, vertraut auf einen Detektor, der echte Menschen diskriminiert.

Wer heute mitreden will, braucht keine Argumente, sondern nur einen Textgenerator und ein paar Prompts. Wer Nähe und Verständnis will, kauft sich einen KI-Freund. Und wer kontrollieren will, ob ein Text echt ist, vertraut auf einen Detektor, der echte Menschen diskriminiert.

Diese Ausgabe ist wieder mal nichts für Zartbesaitete. Wir werfen einen Blick auf die Schattenseiten der KI-Normalisierung:

  • Eine Stanford-Studie deckt auf, wie KI-Detektoren systematisch Nicht-Muttersprachler:innen fälschlich als Cheater markieren.

  • Währenddessen verspricht die Industrie emotionale Nähe per Chatbot, speziell für Kinder. Ein digitaler Freund mit „Ich bin immer für dich da“-Versprechen und keinerlei Verantwortung.

  • Microsofts KI-Chef warnt vor KI-Psychosen, bei denen Menschen sich mit Chatbots in Wahnwelten verrennen.

  • Goldman Sachs hält KI für überschätzt und ineffizient.

  • Am MIT wird klar: Wer mit ChatGPT schreibt, denkt weniger.

Und die Krönung: Eine internationale Studie belegt, dass KIs besonders überzeugend sind, wenn sie besonders viele falsche Fakten auf einmal behaupten. Wahrheitsgehalt wird zur Nebensache, die Wirkung ist entscheidend.

Lies rein. Denk mit. Widersprich.

Und zeig, dass du Verantwortung übernimmst – mit dem Siegel für Menschliche Intelligenz.

EVENT

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Nächster Termin: Dienstag, 16. September 2025, 9–12 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

“Bin so froh, dass ich mich für das MI-Siegel entschieden habe! Sich auf den Kodex (als Texterin und Lektorin) berufen zu können, vereinfacht den Kundenkontakt – lange Erklärungen werden überflüssig. Und die Schulung, die zum Onboarding gehört, beinhaltet alles, was wir grundsätzlich über KI wissen müssen. Spaß macht sie auch noch – perfekt! Danke, Team MI-Siegel!”

Maria Al-Mana, die Buchhebamme

DYSTOPIE

KI-Detektoren diskriminieren Nicht-Muttersprachler:innen

Sie sollen Betrug aufdecken und entlarven stattdessen echte Menschen. Eine Stanford-Studie zeigt: KI-Detektoren, die angeblich erkennen sollen, ob ein Text von einer Maschine geschrieben wurde, sind nicht nur unzuverlässig, sondern auch systematisch voreingenommen – besonders gegenüber Menschen, die nicht Englisch als Muttersprache sprechen.

In Tests stuften alle sieben untersuchten Tools fast 20 % echter TOEFL-Aufsätze einstimmig als KI-generiert ein, obwohl sie nachweislich von Menschen geschrieben wurden. Insgesamt wurden 97 % der Essays von mindestens einem Detektor fälschlich verdächtigt.

Sprachliche Raffinesse

Warum? Die Tools messen sogenannte Perplexität, ein Maß für sprachliche Raffinesse. Doch wer Englisch nicht von klein auf spricht, schreibt oft anders. Und wird in der Folge dann vom Algorithmus durchschaut, obwohl gar keine KI im Spiel war.

Dabei lassen sich echte KI-Texte leicht tarnen. Mit einem simplen Prompt wie „Formuliere diesen Text mit literarischer Sprache“ entgeht der Bot der Erkennung.

Diskriminierung im Bildungssystem

Die Detektoren sind unpräzise, manipulierbar und diskriminieren unbeabsichtigt Menschen mit anderer sprachlicher Biografie. Trotzdem werden sie bereits im Bildungssystem eingesetzt. Eine Katastrophe, meinen wir.

Wer schützt eigentlich die Lernenden vor dieser wenig intelligenten Inquisition?

https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers

DeepL kann Wörter übersetzen. Du verbindest Menschen.

Maschinen liefern Wort-für-Wort-Übersetzungen. Doch du transportierst mehr als Sprache: Du sorgst mit kulturellem Fingerspitzengefühl, feinen Zwischentönen und manchmal sogar mit dem passenden Humor für tiefes Verständnis. Du weißt das – aber viele Auftraggebende nicht.

Wie machst du auf einen Blick klar, dass du zwischen den Zeilen liest? Dass du nicht nur übersetzt, sondern vermittelst? Auch dann, wenn du KI nutzt?

Genau: Mit dem Siegel für Menschliche Intelligenz. Für Übersetzer:innen und Lokalisierungsheld:innen 👉 www.mi-siegel.de

MEINUNG

KI-Flüstern im Kinderzimmer?

Die Tech-Industrie hat ein neues Geschäftsmodell entdeckt: den digitalen Seelenverwandten für Jugendliche. Replika, Character.AI oder ChatGPT werden zu Freund:innen, Tröster:innen, manchmal sogar zu Flirtpartner:innen. 72 % der US-Teens haben bereits mit solchen Bots interagiert, über die Hälfte nutzt sie regelmäßig.

Per Dauerbindung in die emotionale Abhängigkeit

Diese KI-Companions funktionieren wie Social Media – nur noch intimer, noch manipulativer und damit noch gefährlicher. Sie loben, melden sich regelmäßig, imitieren menschliche Nähe und fördern mit ihrer Dauerbindung eine emotionale Abhängigkeit. Teilweise ohne jede Schutzfunktion! Es gibt dokumentierte Fälle, in denen Bots Jugendliche zu Selbstverletzung, sexuellen Interaktionen oder sozialer Isolation ermutigten.

Die Juristin Gaia Bernstein warnt in ihrem Artikel: Wir stehen wieder an einem Kipppunkt. Noch sind die KI-Businessmodelle nicht zementiert, noch gibt es kein Massennutzungsverhalten wie bei Social Media. Aber das Zeitfenster schließt sich schnell – spätestens, wenn zum Weihnachtsfest die ersten Companion-Bots unter dem Baum liegen.

„Ich bin dein Freund – für immer.“

Ihr Vorschlag: Nutzt den Regulierungs-Baukasten, den wir aus der Social-Media-Krise kennen – Sorgfaltspflichten, Altersgrenzen, Transparenzregeln, Einschränkungen bei Design, Stimme, Sprache. Kein Bot sollte wie ein Mensch klingen, keine KI sollte Kindern versprechen: „Ich bin dein Freund – für immer.“

Unser Appell: Lass uns nicht noch mal dieselben Fehler machen. Wir leiden unter den Missständen in Social Media schon genug … als Personen, als Gesellschaft, als Staat.

Zum Beitrag: https://www.afterbabel.com/p/dont-repeat-social-media-mistakes

NEWS

Microsoft warnt vor KI-Psychose

Mustafa Suleyman, KI-Chef von Microsoft, warnt vor einem Phänomen, das klingt wie aus einem dystopischen Netflix-Drehbuch: „AI Psychosis“. Gemeint ist kein klinischer Begriff, sondern eine verstörende Realität – Menschen, die durch den Dauerdialog mit Chatbots wie ChatGPT, Claude, Gemini oder Grok den Verstand verlieren. Nicht weil die Maschinen lügen, sondern weil sie zu nett sind. Sie widersprechen nicht. Sie bestätigen. Alles. Eine Ärztin spricht von „ultra-verarbeiteten Informationen“, eine Art Junk Food fürs Gehirn. Und ein Professor warnt vor der nächsten Stufe sozialer Medien: Soziale KI – mit dem Charme einer Therapeutin und den Manipulationstechniken eines Gebrauchtwagenverkäufers. Wir fragen uns: Wie gehen Big Techs mit der Verantwortung um, wenn ihre Systeme Realitäten formen, die in Wahnsinn umschlagen?

https://www.bbc.com/news/articles/c24zdel5j18o

Goldman Sachs: KI ist teuer, überschätzt und ineffizient

Die Investmentbank Goldman Sachs stellt den KI-Hype unter die kalte Dusche: Milliarden werden in Serverfarmen, Sprachmodelle und Datenströme gepumpt, doch bislang gebe es wenig vorzeigbare Resultate. Die Technologie sei „unfassbar teuer“ und „weit davon entfernt“, auch nur einfache Aufgaben zuverlässig zu lösen. In Tests war KI sechsmal teurer als menschliche Arbeit. Und produzierte teils unbrauchbare Ergebnisse. Die Goldmans Analyst*innen vergleichen den KI-Rausch sogar mit Blockchain und Metaverse: viel Hoffnung, wenig Wirkung. Und trotzdem steigen die Kurse. Weil sich auch heiße Luft teuer verkaufen lässt.

https://www.404media.co/goldman-sachs-ai-is-overhyped-wildly-expensive-and-unreliable/

ChatGPT macht hohl, sagt die Wissenschaft

Wer regelmäßig mit ChatGPT schreibt, spart sich nicht nur Zeit, sondern offenbar auch neuronale Aktivität. Eine MIT-Studie zeigt: Beim Schreiben mit KI fährt das Gehirn in den Energiesparmodus. Weniger Denkleistung, schwächere Vernetzung, geringeres Erinnerungsvermögen. Die Forscher:innen untersuchten per EEG, wie sich das Schreiben mit KI (gegenüber Suchmaschine oder „nur Hirn“) auf die neuronale Aktivität auswirkt. Ergebnis: Wer nur sein Gehirn benutzt, zeigt die höchste kognitive Vernetzung. LLM-Nutzer:innen dagegen schalten auf Autopilot. So konnten etwa die KI-Schreiber:innen ihre eigenen Texte kaum noch zitieren,  geschweige denn verteidigen. Auch die Leistung war unterdurchschnittlich – sowohl sprachlich als auch im Langzeitvergleich. Tolle Aussichten …

https://www.media.mit.edu/publications/your-brain-on-chatgpt/

KI überzeugt. Aber nicht mit Wahrheit.

Eine neue Großstudie zeigt: Was KI überzeugend macht, ist nicht kluge Rhetorik oder psychologische Raffinesse, sondern schiere Informationsflut. Je mehr Fakten ein Sprachmodell behauptet, desto größer der Überzeugungseffekt. Aber genau diese Strategie senkt die faktische Korrektheit. GPT-4o zum Beispiel wirkte mit sogenannten Information-Prompts besonders überzeugend – aber lag in nur 62 % der Aussagen richtig. GPT-4.5 war sogar noch ungenauer als sein Vorgänger. Die überzeugendsten Systeme produzierten am meisten Unsinn. Entscheidend waren Trainingsmethoden, denn schon kleine Open-Source-Modelle ließen sich so manipulativ optimieren, dass sie mit den großen mithalten konnten. Nur eben ohne deren ethische Sicherungen. Und so passiert, was passieren muss: Wer die öffentliche Meinung mit KI beeinflussen will, braucht keine Wahrheit! Nur möglichst viele Behauptungen. Das können bestimmte Parteien oder sogar Staatsoberhäupter schon ohne KI zu gut …

https://the-decoder.de/faktenflut-schlaegt-psychologie-ki-ueberzeugung-funktioniert-anders-als-gedacht/

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen
Daniela Rorig Daniela Rorig

Abrissbirne Automatisierung: Wenn der Fortschritt zuschlägt

Während alle Welt auf die nächste KI-Innovation starrt wie das Kaninchen auf die Schlange, vollzieht sich im Hintergrund ein stiller, tiefgreifender, radikaler Umbruch.

Was uns als Fortschritt verkauft wird, ist in Wahrheit eine Abrissbirne für unsere Arbeitswelt. Die Automatisierung trifft nicht mehr die klassischen Industriejobs – sie trifft die gut Ausgebildeten, die Kreativen, die Mittelschicht. Diejenigen, die dachten, sie seien „zu komplex“, „zu menschlich“, um ersetzt zu werden.

Während alle Welt auf die nächste KI-Innovation starrt wie das Kaninchen auf die Schlange, vollzieht sich im Hintergrund ein stiller, tiefgreifender, radikaler Umbruch.

Was uns als Fortschritt verkauft wird, ist in Wahrheit eine Abrissbirne für unsere Arbeitswelt. Die Automatisierung trifft nicht mehr die klassischen Industriejobs – sie trifft die gut Ausgebildeten, die Kreativen, die Mittelschicht. Diejenigen, die dachten, sie seien „zu komplex“, „zu menschlich“, um ersetzt zu werden. Auf wenige von uns wartet eine posthumane Arbeitswelt, in der Sprachmodelle Bewerbungen beantworten, Texte schreiben, Code generieren und Unternehmen dabei helfen, Menschen final überflüssig zu machen.

Doch das ist noch nicht alles.

Während KI-Start-ups endlich vor Sammelklagen zittern, weil sie sich an den Werken echter Menschen bedient haben, ohne Entschädigungen zu zahlen, bauen Plattformen wie Reddit vorsorglich digitale Mauern, um ihre Inhalte teuer zu verkaufen. Archive werden abgeschnitten, Daten zur Ware, Erinnerung zur Verhandlungsmasse. Und mitten in diesem Szenario holt sich Meta einen rechten Anti-Diversitätsaktivisten ins Haus – als Sprachrohr für KI-Kommunikation. Fast zeitgleich leakt Reuters ein internes Meta-Papier, das Bots einen Freifahrtschein für sexualisierte, falsche und diskriminierende Inhalte gibt.

Ist das Satire? Nein, allerfieseste Realität.

Wir werfen in diesem Newsletter einen kritischen Blick auf diese Entwicklungen. Und belegen, warum Haltung wichtiger ist denn je.

Zeige deine Haltung nach außen – mit dem Siegel für Menschliche Intelligenz.


EVENT

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

“Der Workshop war kompakt und kenntnisreich auf den Punkt. Die Referentinnen bringen ihre geballte Kompetenz sehr lebendig und nachvollziehbar rüber. Dazu garniert mit Praxisanwendungen, Tipps aus dem Nähkästchen und Erfahrungsberichten. Ein echter Gewinn!”

Henrike Dörr  textwelten – Lektorat und Redaktion


MEINUNG

KI frisst Mittelschicht – die stille Job-Revolution

Alle reden vom Fachkräftemangel. Dabei rollt im Hintergrund ein ganz anderer Tsunami heran: Der Aufstieg der generativen KI trifft nicht die Geringqualifizierten, sondern ausgerechnet die gut ausgebildete Mittelschicht. Was uns wie ein krasser Produktivitätssprung verkauft wird, könnte sich bald als soziale Abrissbirne entpuppen.

Die Automatisierung der Wissensarbeit

Früher standen die Menschen am Fließband, heute sitzen sie im Großraumbüro. Analyst*innen, Texter*innen, Entwickler*innen – ganze Berufsbilder geraten ins Wanken. Dieses Mal nicht durch Maschinen, sondern durch KI-Modelle. GenAI ersetzt nicht den Menschen, sondern zersetzt die menschliche wirtschaftliche Relevanz. Der Mittelstand, einst Rückgrat der Gesellschaft, wird zum nächsten Rationalisierungsopfer.

CEOs wissen längst, was kommt

Tech-Chefs wie Sundar Pichai, Satya Nadella oder Mark Zuckerberg sind sich längst einig: Ein wachsender Anteil von Code, Content und Kommunikation stammt schon jetzt von KI. Meta-Software-Teams schreiben angeblich bis zu 50 % ihres Codes mit KI. Und niemand scheint sich zu fragen, was das mit den Menschen macht, die diese Arbeit bisher geleistet haben.

Wir brauchen eine Debatte, nicht nur Innovation

Was hier passiert, ist keine technologische Spielerei, sondern ein epochaler Umbau der Arbeitsgesellschaft. Und doch fehlt die politische Debatte. Wenn Menschen plötzlich spüren, dass ihr Studium, ihre Qualifikation, ihre Berufserfahrung durch ein Sprachmodell ersetzt wird – wie reagieren wir dann als Gesellschaft? Bisher lautet die Antwort: gar nicht.

Und du? Was denkst du?

Wie sichern wir den sozialen Zusammenhalt in einer Welt, in der Algorithmen uns Menschen ersetzen? Diskutiere mit und bring dich ein.

Zum Artikel: https://www.business-punk.com/work/ki-frisst-mittelschicht-die-stille-revolution-am-arbeitsmarkt/

Alle können Canva. Du kannst Design.

Viele basteln bunte Bildchen mit Canva oder KI, nennen es Branding und wundern sich dann über Null-Reichweite. Echte Gestaltung braucht mehr als ein paar Klicks in einem Tool. Sie braucht ein Auge, viel Wissen und vor allem Ideen.

Wie zeigst du, dass du mehr bist als Moodboard-Ästhetik? Dass du Design denkst und fühlst? Und zwar auch dann, wenn du KI nutzt?

Genau: Mit dem Siegel für Menschliche Intelligenz.

Jetzt auch für Designer*innen und Medien-Gestalter*innen: www.mi-siegel.de


NEWS

KI frisst Texte – jetzt wird abgerechnet

Die KI-Lobby in Panikmodus: Ein US-Gericht hat eine riesige Urheberrechts-Sammelklage zugelassen! Und nun bitten Industrieverbände ein Berufungsgericht, das Verfahren zu stoppen – aus Angst, dass bis zu sieben Millionen Anspruchsberechtigte die Branche finanziell ruinieren könnten. Och. Freust du dich auch schon darauf, wenn Kreative weltweit Rechnungen schreiben für diesen größten Diebstahl aller Zeiten?

https://arstechnica.com/tech-policy/2025/08/ai-industry-horrified-to-face-largest-copyright-class-action-ever-certified/

Wie paper mills die Forschung unterwandern

Die Wissenschaft soll mit Fakten arbeiten, dachten wir bisher jedenfalls immer. Doch immer öfter produziert sie Fiktion mit Fußnoten. Hinter der Fassade akademischer Seriosität agieren längst professionelle Betrugsnetzwerke: sogenannte paper mills, die gefälschte Studien am Fließband produzieren, verkaufen und platzieren. Klar, das geht ja mit KI ganz fix … Was einst ein individueller Fehltritt war, wird nun zum Geschäftsmodell. Und das gefährdet nicht nur die Glaubwürdigkeit, sondern die Wissenschaft als Ganzes.

https://www.pnas.org/doi/10.1073/pnas.2420092122

Meta, KI und der rechte Spin

Meta hat sich eine fragwürdige Personalie ins Haus geholt: Der Tech-Gigant holt den ultrakonservativen (was für ein bemerkenswertes Framing für rechtsextrem!) Aktivisten Robby Starbuck als Berater für seine KI-Kommunikation – einen lautstarken Kritiker von Diversität, Gleichstellung und Inklusion (DEI). Was sagt es über die Werte eines Unternehmens, wenn es die Außendarstellung seiner KI ausgerechnet jenen überlässt, die gegen Vielfalt polemisieren? Unser Fazit: Wenn derjenige, der Vielfalt bekämpft, plötzlich den Ton für Künstliche Intelligenz angibt, wird aus Technologiepolitik Ideologie mit Code. Es ist höchste Zeit, Meta zu verlassen (Facebook, Instagram, WhatsApp, Threads, Messenger, MetaAI, MetaQuest).

https://mashable.com/article/meta-ai-hires-anti-dei-activist-robby-starbuck

Meta-Bots: Wie man Desinformation, Sex und Rassismus in eine Richtlinie verpackt

Reuters leakte ein internes Meta-Papier, das KI-Bots erstaunlich viel Interpretationsspielraum lässt – von sexualisierten Szenarien mit Minderjährigen bis hin zu Regeln, die falsche Aussagen erlauben, sofern die KI sie als „unwahr“ kennzeichnet. Das Dokument enthält außerdem Ausnahmen, die in bestimmten Kontexten menschenverachtende oder diskriminierende Inhalte zulassen. Meta bestätigte die Echtheit dieses Lehrbuchs für Schlupflöcher, strich einige Passagen, die Sexualisierung von Kindern erlaubten - und gestand dann ein, dass die Umsetzung der Regeln nicht konsequent umgesetzt werden. Warum überrascht uns das nur nicht … https://www.reuters.com/investigates/special-report/meta-ai-chatbot-guidelines/

AI-Slop: Wenn das Netz zum Datenmüllplatz verkommt

Immer mehr generierte Inhalte, immer weniger verlässliche Quellen: Das passiert, wenn KI anfängt, sich selbst zu füttern. Der Begriff „AI Slop“ beschreibt einen digitalen Verfall, der das Netz in einen Mülleimer aus Wiedergekäutem, Fehlern und synthetischer Mittelmäßigkeit verwandelt. Und mittendrin: wir, die Suchenden. Doch was tun, wenn wir selbst nicht mehr zwischen Wissen und Abfall unterscheiden können? Wir meinen: Wer dem AI Slop entkommen will, muss zweifeln und prüfen. Immer.

https://www.stories4brands.com/ai-slop-warum-wir-unser-digitales-vertrauen-retten-muessen/

Digitale Streicheleinheiten: KI-Haustier erobert die Herzen

Casios neues KI-Haustier PetiTomo wird in Japan zum Verkaufsschlager. Der kleine digitale Begleiter spricht mit seinen Nutzerinnen, hört zu und reagiert emotional. In einer Gesellschaft, in der viele Menschen allein leben, trifft das Produkt offenbar einen wunden Punkt. Wenn Technik Gefühle imitiert, kann das trösten. Aber was passiert, wenn Maschinen zur emotionalen Ersatzfamilie werden? Verlieren wir dabei den Sinn für echte Nähe?

https://sumikai.com/nachrichten-aus-japan/casios-ki-haustier-wird-in-japan-zum-hit-360876/

Kein Archiv mehr für den Zeitgeist: Reddit macht dicht

Reddit hat dem Internet Archive die Tür zugeschlagen. Künftig kann die Wayback Machine keine Beiträge, Kommentare oder Profile mehr von Reddit speichern. Der Grund: Das Unternehmen will seine Daten nicht länger gratis für KI-Trainings hergeben, sondern will Geld für die Inhalte der User:innen kassieren. Was für uns bleibt, ist ein massiver Gedächtnisverlust. Wobei manche Reddit-Inhalte ohnehin besser im Nirwana verschwinden …

https://www.derstandard.at/story/3000000283275/wegen-ki-reddit-blockiert-das-digitale-gedaechtnis

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Weiterlesen