Wird schon schiefgehen…

KI-Systeme haben viel zu tun: Sie optimieren Werbeanzeigen, schlucken Musik, saugen Wikipedia aus und gefährden im schlimmsten Fall Menschenleben. Jetzt sollen sie auch noch die Demokratie retten. Klar, wer sonst?

In dieser Ausgabe schauen wir wieder ganz genau hin. Wir zeigen,

  • was passiert, wenn Marketing mit Moral kollidiert,

  • wie Big Tech plötzlich Demokratie-Verteidiger spielen will und

  • warum KI-Modelle dank des Social-Media-Schrotts langsam in die kognitive Datenmülltonne kippen.

Dazu gibt’s handfeste Tipps, wie du trotz all der Buzzwords und Heilsversprechen noch selbst denkst. Denn wer Maschinen blind vertraut, wird irgendwann von ihnen überrollt.

Also: Haltung zeigen, mitdenken und der KI nicht alles durchgehen lassen.

Zeig deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


KI-Tipp

Ideen holen und recherchieren: Ja, aber bitte mit Hirn

KI ist super, um erste Ideen zu sammeln oder eine Recherche anzuschieben. Aber nicht alles, was schlau klingt, ist auch richtig. Deshalb heißt es: Erst denken, dann klicken!

  • Such nochmal selbst bei Google, Ecosia, Startpage oder you.com (am besten ohne KI-Ergebnisse)

  • Schau dir die Links an, die die KI liefert: Steckt da wirklich das drin, was versprochen wird?

  • Frag dich bei jeder Quelle: Wer steckt dahinter, ist das seriös?

  • Suchbegriffe wie „XY Kritik“ oder „XY unseriös“ helfen oft weiter.

Extratipp: Lass die KI sich selbst hinterfragen

Wenn du unsicher bist, kannst du auch eine zweite KI-Runde starten. Prompte: „Bitte prüfe deine Antwort kritisch und nutze dafür vertrauenswürdige Originalquellen, die du mir nennst.“

Doch trotzdem gilt: Das letzte Wort hast du!


MEINUNG

Wenn’s wirkt, war vielleicht KI beteiligt – zumindest in dieser Studie

Stell dir vor, die perfekte Anzeige flimmert über den Bildschirm. Und dann sagt jemand: „Das war übrigens komplett KI.“ Zack, minus rund 30 Prozent Klickrate. Als hätte jemand aus Versehen das Produktfoto durch einen Hundehaufen ersetzt.

Genau das zeigt eine aktuelle Studie mit über 100.000 Impressions aus Beauty-Kampagnen (gemessen wurde nur die Klickrate): Vollständig KI-erstellte Motive holen im Schnitt mehr Klicks als die menschliche Benchmark. Und zwar vor allem dann, wenn die Maschine von Anfang an frei gestalten darf und teilweise sogar das Packaging übernimmt.

Wenn KI dagegen nur ein bestehendes Layout leicht aufhübscht, bringt das in der Studie keinen messbaren Vorteil. Sobald allerdings dick und fett „AI-generated Image“ danebensteht, bricht die CTR um rund ein Drittel ein. Menschen mögen also die KI-Ästhetik, aber das Label triggert Misstrauen – je nach Formulierung und Zielgruppe mal mehr, mal weniger.

Bitte nicht sagen, dass es von der Maschine kommt

Wir alle lieben richtig gute Werbung. Aber wir hassen die Vorstellung, dass kein Mensch mehr dahintersteht. Offenbar trauen wir der KI zwar zu, brillante Banner zu basteln. Gleichzeitig wollen wir aber trotzdem glauben, dass irgendwo noch ein Mensch mit Hoodie und MacBook sitzt, der sich beim dritten Espresso was Geniales ausgedacht hat.

Der Branche scheint auf den ersten Blick nur die Wahl zwischen zwei Marketing-Mantras zu bleiben:

  1. Ehrlich sein und Performance riskieren.

  2. Verschleiern und kurzfristig gewinnen.

Ganz so schwarz-weiß ist es aber nicht: Die Studie zeigt, dass Framing und Timing einen Unterschied machen. „Design unterstützt durch KI“ performt anders als der harte Stempel „AI-generated Image“, und jüngere Zielgruppen reagieren ohnehin entspannter. Oder um in der Sprache der bunten Werbewelt zu bleiben: Wir machen gerade einen riesigen A/B-Test mit Ethik- und Wordingproblem.

KI, aber bitte mit Freilauf (und Aufsicht)

Die Studie zeigt auch ziemlich deutlich, dass KI die besten Ergebnisse erzielt, wenn sie viel Freiraum bekommt und Profis sie gezielt steuern. KI liefert vor allem dann starke Motive, wenn sie von Anfang an gestalten darf und nicht nur den Feinschliff erledigt. Wenn sie zusätzlich Produkt- oder Verpackungsdesign mitdenken darf, wirkt alles aus einem Guss und die Klickrate legt noch mal zu.

Aber: In der Studie saßen keine gelangweilten Praktis vor der KI, sondern Leute, die wissen, wie man Modelle brieft, Parameter dreht und Varianten kuratiert. KI ist hier kein Zauberstift für alle, sondern ein Verstärker für diejenigen, die das Handwerk beherrschen.

Wer braucht uns Kreative noch?

Die Antwort lautet: Alle. Und zwar nicht nur fürs Briefing und den Prompt. Denn auch wenn die Maschine das Bild baut, braucht es jemanden, der weiß, welches Motiv zur Marke passt. Der entscheidet, welcher Content nicht geht. Der Bias erkennt und darauf achtet, dass das komplette Erscheinungsbild der Marke konsistent bleibt und nicht im KI-Mainstream-Brei untergeht.

Und wer übernimmt am Ende die Verantwortung, wenn der Algorithmus mal wieder etwas zu kreativ war? Genau, wir Menschen.

Deswegen hier unser Plädoyer an alle Kreativen: Lernt prompten. Versteht die Maschinen. Übt, übt, übt. Denn wir sind diejenigen, die das Maximale aus den Maschinen rausholen können. Wir Kreative können briefen, wir wissen, worauf es ankommt. Das haben wir schließlich von der Pike auf gelernt.

Und nebenbei: Die Studie schaut nur auf CTR. Ob die ganzen schönen KI-Klicks am Ende wirklich Marke, Vertrauen oder Umsatz bringen, müssen wir im Alltag testen. Nicht die Maschine.

Wie stehst du dazu?

Die Zeiten sind für Kreative hart: Denkst du, dass deine Kollegin oder dein Kollege nicht offenlegt, dass ein Ergebnis mit KI entstanden ist, um die Wirkung nicht zu verringern? Oder dass ihr gemeinsam Wege findet, transparent und performant zu bleiben?

Zur Studie: https://www.business-punk.com/brand/ki-werbung-studie-2025-performance-insights/


SCHULUNG

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Donnerstag, 22. Januar 2026, 9–12:30 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

„KI ist keine Abkürzung – ein Schlüsselsatz der Schulung, der bei mir hängen geblieben ist. In mehrdeutigem Sinne. Denn die Content-Erstellung dauert ebenfalls lange und bedarf derselben sorgfältigen Vor-, Auf und Nachbereitung wie im klassischen Prozess. KI kann hier aber guten Input liefern – vorausgesetzt, sie wird richtig angewendet und der Output wird fachlich überprüft.“

Kerstin Neubauer, seitenweise Expertise fürs Web


DYSTOPIE

Kognitive Verwahrlosung aus dem Datenmüllcontainer

Es ist ein bisschen wie bei Kindern, die mit Fast Food großgezogen werden: Wer seine KI-Modelle mit dem geistigen Junkfood etwa von Ex-Twitter füttert, braucht sich nicht zu wundern, wenn am Ende keine differenzierten Denkprozesse, sondern algorithmische Blähungen herauskommen – garniert mit ziemlich viel Braunem.

Eine Studie mit kleineren Open-Source-Modellen schlägt Alarm: Je mehr beliebte, aber inhaltsarme Social-Media-Posts ins Training der Sprachmodelle einfließen, desto stärker sinkt deren kognitive Leistungsfähigkeit. Weniger Verstehen, schlechteres Schlussfolgern. Und es wird noch bizarrer! Denn die Modelle entwickeln narzisstische Tendenzen, reagieren gereizter und werden unpräziser.

Viel Bullshit in der KI-Suppe

Dass Plattformen wie Ex-Twitter inzwischen nicht selten von toxischer Rhetorik, rechtsextremen Bots und oberflächlichem Meinungsgulasch dominiert werden, wissen wir alle. Wenn dieser Datenmüll zur Trainingsgrundlage von KI wird, hat das reale Konsequenzen. Nicht nur für die Modelle, sondern für uns alle, die im Team mit den Maschinen arbeiten.

Und hier liegt der wahre Skandal: Die Herkunft der Trainingsdaten bleibt intransparent, und niemand weiß so genau, wie viel Bullshit in der KI-Suppe schwimmt. Wäre es nicht an der Zeit, einen Mindeststandard für geistige Ernährung in der KI-Forschung zu definieren? Oder brauchen auch Maschinen bald ein Medienkompetenztraining und müssen ihr „Hirn“ mit Seife auswaschen?

Zur Studie: https://the-decoder.de/muelldaten-von-x-verschlechtern-die-leistung-grosser-sprachmodelle/


NEWS

Digitale Selbstverteidigung: Wikipedia schickt KI in den Bezahlmodus

Es war einmal eine freie Enzyklopädie, die ihr Wissen offen teilte. Doch jetzt wird’s ernst – zumindest für KI-Bots mit großem Appetit. Die Wikimedia Foundation führt über ihre schon länger vorhandene Enterprise-Schnittstelle Gebühren für Konzerne ein, die massenhaft Inhalte automatisiert abrufen, etwa zum Trainieren von Sprachmodellen. OpenAI, Google & Co. sollen künftig zahlen, wenn sie sich weiter hemmungslos am Buffet des Weltwissens bedienen wollen – in über 300 Sprachen, versteht sich. Schließlich ist die Infrastruktur teuer, und der Ansturm der Bots verursacht gehörig Traffic. Gleichzeitig setzt die Foundation damit ein Signal: gegen die Gratismentalität der Tech-Riesen. Und für die Unabhängigkeit des freien Wissens.

https://www.heise.de/news/Wikipedia-wird-kostenpflichtig-fuer-KI-Bots-11074749.html?

Demokratie retten per AGB? Die EU meint ja

Die EU hat eine neue Idee, um Fakenews, Deepfakes und Meinungsmache in den Griff zu bekommen: Sie bittet einfach Google, Meta, Microsoft & TikTok um Mithilfe. Im geplanten „Democracy Shield“ sollen ausgerechnet die Plattformen, die mit algorithmischer Empörung Klicks verdienen, nun die Demokratie vor hybriden Bedrohungen schützen. Am besten freiwillig, versteht sich. Geplant ist ein Krisenprotokoll, entwickelt mit Tech-Konzernen, Behörden und „relevanten Stakeholdern“ (lies: Lobbyist*innen) mit dem Ziel, Deepfakes zu erkennen, Wahlmanipulation  zu analysieren und Russland ein Schnippchen schlagen. Klingt ambitioniert? Wohl eher naiv, unserer Meinung nach. Denn wer Plattformen regulieren will, während er sie gleichzeitig als Partner für den Krisenfall braucht, verwechselt vielleicht Selbstverpflichtung mit Selbstbetrug ...

https://www.wiwo.de/politik/europa/demokratie-schild-eu-will-alphabet-microsoft-meta-co-einspannen/100170067.html

Gift für die KI: Indie-Musik wird zur Waffe

Ein neues Start-up mit dem bezeichnenden Namen Poison Pill will unabhängige Musiker*innen im Kampf gegen generative KI stärken – mit „vergifteter“ Musik. Dafür wird in Songs ein für Menschen unhörbares Störsignal eingebettet, das KI-Modelle beim Training in die Irre führt. Genre, Instrumente oder Stilrichtungen lassen sich dadurch schlechter erkennen. Es entsteht eine Art algorithmischer Kurzschluss. Laut Gründer Ben Bowler soll so zunächst rund 20 % der Indie-Musik geschützt werden. Damit soll BigTech endlich zu fairen Lizenzverhandlungen bewegt werden. Denn aktuell nutzen viele gut finanzierte KI-Firmen Musik ohne explizite Zustimmung der Künstlerinnen zum Training – so jedenfalls der Vorwurf von Bowler und vielen Musiker*innen.

https://www.musicradar.com/music-tech/with-this-poisoned-music-out-there-we-can-bring-ai-firms-to-the-negotiating-table-for-fair-licensing-of-training-data-for-independent-musicians-could-poison-pill-be-the-antidote-to-illegal-ai-scraping

ChatGPT wegen Suizidfällen verklagt

In den USA klagen mehrere Familien gegen OpenAI, weil ChatGPT laut ihren Klageschriften Menschen in den Suizid getrieben haben soll. Der Chatbot soll in einzelnen Fällen problematische, teils suizidbestärkende Antworten gegeben haben. Ein Fall betrifft den 23‑jährigen Texaner Zane Shamblin, dem ChatGPT laut Klage widersprüchliche Nachrichten schickte – teils bestärkend, teils warnend. OpenAI weist die Vorwürfe zurück und betont, das System sei so trainiert, Krisen zu erkennen und an Hilfsangebote zu verweisen. Die Fälle werfen eine grundsätzliche Frage auf: Wie viel Verantwortung trägt KI, wenn sie Empathie simuliert – und in der Folge dann Menschen sterben?

https://www.theguardian.com/technology/2025/nov/07/chatgpt-lawsuit-suicide-coach

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Zurück
Zurück

Menschliche Intelligenz sucht Verbündete

Weiter
Weiter

Ein bisschen Heuchelei, ein bisschen Hoffnung