Wir müssen reden: Das MI-Siegel polarisiert.
Gut so.
Für die einen ist es ein Statement: Das MI-Siegel steht für Haltung in einer Welt, die zunehmend maschinell denkt, entscheidet und gestaltet. Es zeigt: Hier zählt noch menschliche Verantwortung. Hier wird nicht blind dem Hype hinterherautomatisiert. Hier arbeiten Menschen mit Verstand. Und zwar mit und ohne KI.
Für die anderen ist das MI-Siegel pure Nostalgie. Ein naiver Versuch, das Unvermeidliche aufzuhalten. Ein Symbol dafür, dass man den Fortschritt nicht verstanden hat. Oder schlimmer noch, sogar Angst vor ihm hat. Sie fragen: Warum menschliche Intelligenz feiern, wenn die künstliche längst effizienter, günstiger, zuverlässiger ist? Warum auf Qualität pochen, wenn der Markt längst Masse belohnt?
Genau in diesem Spannungsfeld bewegen wir uns in diesem Newsletter:
- Zwischen KI-Systemen, die Jobs übernehmen, Quellen erfinden oder Meinungen formen – und Unternehmen, die merken, dass Menschen manchmal doch die bessere Wahl sind.
- Zwischen digitalen Dystopien und konkreten Schulungen, wie wir mit KI sinnvoll und verantwortungsvoll arbeiten können.
- Zwischen schöpferischem Raubzug im Namen der Effizienz – und dem Kampf um Urheberrechte, Würde und kulturelle Souveränität.
Das MI-Siegel ist kein Allheilmittel, so viel ist klar. Aber es macht sichtbar, wo Menschen Verantwortung übernehmen.
Vielleicht ist genau das die Frage der Stunde: Wollen wir mitgestalten? Oder lassen wir alles einfach laufen?
Du hast dich schon entschieden? Zeige deine Haltung nach außen – mit dem Siegel für Menschliche Intelligenz.
DYSTOPIE
Wenn wir unsere eigene Ablösung programmieren
Was, wenn das Ende der Zivilisation nicht wie der oft beschworene atomare Weltkrieg aussieht? Sondern wie ein Bewerbungsgespräch, das wir gegen unsere eigenen Maschinen verlieren?
KI wird nicht rebellieren müssen. Sie muss uns nur Schritt für Schritt ersetzen. Als Künstler:innen, Ärzt:innen, Freund:innen, Partner:innen – kurz: als Menschen. Wenn sie besser, günstiger und zuverlässiger ist als wir, wird die Entscheidung für uns zur irrationalen Option. Und wir? Werden freiwillig zur Randnotiz unserer eigenen Geschichte.
David Duvenaud zeichnet in diesem Artikel ein beunruhigend plausibles Szenario: Eine Zukunft, in der KI nicht unter Kontrolle gebracht werden muss – sondern in der wir sie selbst bereitwillig mit Macht, Einfluss und Relevanz ausstatten, weil sie funktioniert. In der selbst demokratische Strukturen erodieren, nicht durch Gewalt, sondern durch nüchterne Effizienzlogik. In der wir erst viel zu spät merken, dass “praktisch” eben nicht immer “menschlich” bedeutet.
Die große Frage ist nicht: Wird KI gefährlich? Sondern: Warum überlassen wir Maschinen so bereitwillig das Feld? Und zwar auch dort, wo es um zutiefst Menschliches geht?
Viel Stoff zum Nachdenken und auch vier Maßnahmen, mit denen wir das Ruder vielleicht noch rumreißen können, gibt es hier: https://www.theguardian.com/books/2025/may/04/the-big-idea-can-we-stop-ai-making-humans-obsolete
EVENT
4. Juni 2025 – 9 bis 12 Uhr: SCHULUNG: KI + QUALITÄT
Wie du in deinem Unternehmen KI im Marketing einsetzen kannst und nebenbei Qualität, Effizienz und Nachhaltigkeit sicherst.
Damit deine Zusammenarbeit mit der KI klappt, brauchst du:
- Prozesse, die jeden Schritt in der Kreation begleiten und Verantwortlichkeiten festlegen.
- Regeln für die Zusammenarbeit, die klarmachen, an welchen Stellen du und deine Kolleg*innen gefragt sind.
- ein Team, das weiß, welche psychologischen Effekte in der Zusammenarbeit mit KI wirken und wo die Chancen und Gefahren liegen.
- Kontrolle der Ergebnisse – von den richtigen Botschaften bis Tonalitäts- und Faktencheck.
Das alles lernst du in unserer Schulung KI + QUALITÄT IM MARKETING, die dich und dein Team vor KI-Schrott schützt.
Jetzt anmelden! https://www.mi-siegel.de/schulung-ki-qualitaet
MEINUNG
Zukunft der Kreativität? Copy, paste, profit.
Stell dir vor, du steckst Herzblut, Zeit und Talent in ein künstlerisches Werk. Denn du verdienst dein Geld mit Bild, Text, Ton oder Design.
Und jetzt stell dir vor, ein Techkonzern nimmt dein Werk, kippt es in einen KI-Generator, verwandelt es in Tausende neue Varianten – und vermarktet das Ergebnis. Ohne dich zu fragen. Ohne Lizenz. Ohne Vergütung. Und die Nutzer:innen dieser Tools sagen dir dann: „Ich habe das gemacht.“ (DISCLAIMER: Rein rechtlich haben sie damit sogar recht. Denn sie kaufen aktuell – auf eigene Verantwortung – Computerzeit, keine Inhalte. Das Plagiatsrisiko liegt voll und ganz bei den User:innen! Doch das wissen nur die wenigsten, sie vertrauen voll und ganz einer KI. Schließlich heißt das Tool ja “Künstliche Intelligenz”. Es wird schon wissen, was es tut …)
Willkommen im Zeitalter der zwei großen KI-Lügen: „KI lernt wie ein Mensch“ und „Du hast das gemacht.“
Beide Narrative dienen einem einzigen Zweck: der systematischen Enteignung menschlicher Kreativität. Der Illustrator Johan Brandstedt seziert messerscharf, wie dieses neue Ausbeutungs-Ökosystem funktioniert. Und warum es nicht nur Urheberrechte zerstört, sondern uns auch den kulturellen Boden unter unseren Füßen wegzieht.
Was passiert mit Kunst, wenn Originalität zum Kollateralschaden wird? Wenn Millionen Werke ohne Zustimmung gescrapet und als angeblich demokratisierte Innovation verkauft werden? Wenn Urheber:innen zu lästigen Randfiguren degradiert werden? Während Techkonzerne mit jeder Menge Investor:innen-Geld im Rücken diese kreativen Werke plagiieren und vermarkten?
Wir meinen: Hier wird nichts demokratisiert. Hier wird enteignet. Das müssen wir benennen. Und sichtbar machen. Zeige deine Haltung mit dem Siegel für Menschliche Intelligenz. Jetzt.
Zum Beitrag von Johan Brandstedt: https://johancb.substack.com/p/the-two-big-lies-behind-the-heist
NEWS
Wer fremde Technologie nutzt, spielt nach fremden Regeln
Cloudlösungen, Betriebssysteme, Seekabel, KI: Zentrale digitale Infrastrukturen der EU liegen in der Hand amerikanischer Konzerne. Kein Problem? Doch, und zwar ein gewaltiges. Denn was passiert, wenn sich politischen Verhältnisse in den USA weiter zuspitzen? Die technologische Abhängigkeit Europas wird zur sicherheitspolitischen Achillesferse. Und gleichzeitig verkümmert der Wille zur echten digitalen Souveränität oft bloß zu reiner Rhetorik. Doch wer sich auf Demokratien verlässt, die ins Wanken geraten, gibt mehr auf als nur Kontrolle – nämlich das eigene politische Gewicht. Höchste Zeit also, dass Europa seine digitale Infrastruktur wieder selbst in die Hand nimmt. Nicht halbherzig. Und nicht irgendwann. Sondern jetzt und umfassend.
https://www.heise.de/hintergrund/US-Autoritarismus-und-die-Techabhaengigkeiten-der-EU-10383267.html
Klarna merkt’s jetzt auch
Erst hieß es beim schwedischen Zahlungsdienstleister: Die KI macht die Arbeit von über 700 Menschen. Jetzt heißt es ergänzend: Vielleicht doch nicht ganz so gut. Nach monatelangem Highspeed-Kostensenken mit Chatbots stellt Klarna wieder echte Menschen ein. Weil Qualität eben doch nicht ausschließlich aus Algorithmen besteht. Und der CEO klingt plötzlich ganz menschlich: “Really investing in the quality of the human support is the way of the future for us.” Hört sich fast an wie die Rückkehr zur Vernunft – oder zumindest zur Realität. Und klar, eine IBM-Studie zeigt, dass nur jedes vierte KI-Projekt wirklich hält, was es verspricht. Aber hey: Hauptsache, man war vorne mit dabei, oder?
https://fortune.com/2025/05/09/klarna-ai-humans-return-on-investment
Claude erfindet Quelle im Prozess gegen Anthropic
Im Urheberrechtsstreit mit Musikverlagen musste sich das KI-Unternehmen Anthropic für eine fehlerhafte Quellenangabe entschuldigen. Die halluzinierte Quelle? Ausgerechnet von der firmeneigenen KI Claude. Ein peinlicher Patzer! Und auch ein Lehrstück. Denn wenn selbst in einem Gerichtsverfahren niemand bemerkt, dass die KI sich eine Quelle ausdenkt, birgt das extreme Risiken. Eins sollte nach diesem Vorfall endgültig klar sein: Alles, was KI ausspuckt, muss von Menschen kontrolliert werden. Ausnahmslos. Und ist nicht delegierbar. Schon gar nicht an KI.
KI-Chatbots als Meinungsmacher?
Was tun, wenn Chatbots nicht nur informieren, sondern beeinflussen? Diese Folge des ARD-KI-Podcasts stellt genau diese unbequeme Frage. Im Fokus: Ein Experiment auf Reddit, bei dem ein KI-Bot gezielt in Diskussionen eingriff, ohne dass Nutzer:innen davon wussten. Gregor Schmalzried und Fritz Espenlaub zeigen, dass ChatGPT & Co. inzwischen mehr als nur nett plaudern können – sie können Meinungen formen. Mal subtil, mal strategisch. Ein unheimliches Potenzial, das nach klaren Regeln schreit.
