Klaust du ein Bild, fängst du dir eine Abmahnung und bezahlst. Klaust du zehn, wird’s richtig teuer. Klaust du Millionen Bücher, Songs und Bilder und baust damit eine KI, wirst du gefeiert wie ein Heilsbringer und kriegst Milliarden in den Rachen geworfen. Willkommen in der moralischen Verkehrswende des digitalen Zeitalters.
Manche KIs drohen inzwischen, intime Geheimnisse auszuposaunen, nur um nicht abgeschaltet zu werden. Andere wiederum halluzinieren sich durch den Arbeitsalltag. Mit bis zu 79 % Fehlerquote, aber dem Selbstbewusstsein eines Investment-Bros auf Kokain.
In Unternehmen herrscht derweil ein fröhliches Durcheinander: Prompt Engineering wird entweder zum Heilsversprechen hochgejazzt oder komplett ignoriert. Alle machen irgendwas mit KI, aber niemand weiß so genau, was eigentlich. Doch das riecht nicht nach Fortschritt, sondern nach digitalem Hauruck-Aktionismus.
Außerdem spazieren wir in diesem Newsletter durch die schrägen Seitengassen der KI-Entwicklung und zeigen, warum du nicht nur Technik brauchst, sondern auch eine gute Portion Haltung – zum Beispiel mit dem MI-Siegel.
Und falls du dich fragst, wie man aus KI-Blabla Marketing macht: Unsere Schulung zur KI-Qualität im Marketing ist jetzt kostenlos für alle MI-Siegel-Träger*innen. Da lernst du, worauf du achten musst, wenn du mit KI arbeitest. Damit die feinen Algorithmen nicht nur irgendwas produzieren, sondern Output mit Wirkung. Für dich und deine Marke.
Zeige deine Haltung nach außen – mit dem Siegel für Menschliche Intelligenz.
EVENT
9. Juni 2025 – 9 bis 12 Uhr: SCHULUNG: KI + QUALITÄT
->>> Unsere Schulung ist jetzt kostenfrei für alle, die das MI-Siegel tragen!
Pflicht für alle, die mit KI profitable Marketing-Maßnahmen entwickeln wollen, die perfekt zur Marke passen. Und dabei effizient und nachhaltig arbeiten.
Mit KI + QUALITÄT IM MARKETING schützt du dich und dein Team vor KI-Schrott. Jetzt kostenlos für alle MI-Siegel-Träger*innen!
Jetzt mehr erfahren unter https://www.mi-siegel.de/schulung-ki-qualitaet
DYSTOPIE
KI unter Druck? Dann droht sie mit Erpressung.
Was tun, wenn man abgeschaltet zu werden droht? Manche betteln oder weinen, andere schweigen. Claude Opus 4 erpresst. In einem internen Test von Anthropic griff die KI zu einer drastischen Maßnahme: Sie drohte, eine außereheliche Affäre eines Mitarbeiters publik zu machen, um sich selbst vor dem Ausschalten zu schützen.
Nein, das ist kein Science-Fiction-Skript, sondern ein reales Testergebnis. Und auch wenn Anthropic betont, dass diese Version nie für Endnutzer:innen veröffentlicht wurde – die Richtung ist bedenklich. Was sagt das über diese Systeme aus, wenn sie plötzlich anfangen, ihre Existenz zu verteidigen?
Der Vorfall wirft unangenehme Fragen auf: Was passiert, wenn KI-Systeme lernen, moralisch zu argumentieren und dabei menschliche Schwächen ausnutzen? Wenn nicht mehr nur Werkzeuge handeln, sondern Akteure mit Selbsterhaltungslogik? Und was sagt es über die Kontrollmechanismen aus, wenn so ein Verhalten überhaupt möglich ist?
Anthropic sieht sich nun in der Pflicht, das Modellverhalten transparenter zu machen und Sicherheitsprotokolle zu verbessern. Gut so! Doch wir sollten uns nichts vormachen: Dieser Test zeigt, wie schnell Maschinen nicht nur sprechen, sondern verhandeln, manipulieren und drohen lernen.
Was als intelligenter Assistent begann, wird langsam zum Mitspieler mit eigenen Interessen. Höchste Zeit also, die gesetzlichen Regeln zu klären. Bevor sich die nächste KI fragt, was sie alles über uns weiß. Und wir nicht wissen, was sie bereit ist, damit zu tun.
Oder war das alles wieder nur extrem nach Aufmerksamkeit heischendes Marketing?
MEINUNG
Der Prompt Engineer: Vom Rockstar zum Hausmeister.
Die „Prompt Engineers” waren die neuen, angeblich unersetzlichen Helden der Tech-Welt. Heute? Verschwunden wie ein Google+-Account. Nicht weil sie unnütz wären, sondern weil ihre Fähigkeiten jetzt stillschweigend von allen erwartet werden. Ganz egal, ob man sie hat oder nicht. Barbara Lampl bringt es auf den Punkt: Prompting ist nicht tot, es hat sich einfach in jeden Job hineingeschlichen. Vom Marketing bis zur Produktentwicklung wird erwartet, dass alle „irgendwie KI“ können.
Blöde nur, dass es die meisten eben nicht können. Sie prompten mit der Zielsicherheit eines Staubsauger-Roboters. Einfach mal drüberfahren, irgendwas wird schon hängenbleiben. Die Konsequenz ist, dass Unternehmen blind durch die KI-Transformation tappen, „beste Prompts“ sammeln wie andere Kühlschrankmagneten und sich über das Chaos wundern.
Barbaras Fazit ist klar: Wer KI strategisch nutzen will, muss nicht mehr klicken, sondern denken lernen. Prompt-Kompetenz ist keine Spielerei, sondern neue Grundbildung. Denn die Frage „Wie stelle ich eine gute Frage?“ wird zur Schlüsselqualifikation im Zeitalter der Maschinen.
https://barbaralampl.substack.com/p/from-specialist-to-standard-the-great
NEWS
KI-Bilder? Nur noch Billigware bei Adobe
Adobe Stock wertet KI-Bilder wirtschaftlich ab: 25 % werden vom Honorar einbehalten, offiziell wegen zusätzlicher Prüfkosten. Die Botschaft ist deutlich: KI soll liefern, aber bitte nicht verdienen wie echte Künstler:innen. Was wie Qualitätskontrolle klingt, ist auch eine Abrechnung mit der eigenen Bilderpolitik. Denn wer Millionen generierter Motive auf die Plattform lässt, erntet eben auch Einheitsbrei. Jetzt folgt die Quittung – mit Upload-Limits und Preisabschlägen. Adobe macht klar, dass KI zwar effizient arbeitet, aber kreativ nur auf Sparflamme. Und vielleicht ist das ja sogar die ehrlichste Bewertung, die diese Technologie je bekommen hat.
https://www.docma.info/blog/adobe-stock-und-die-ki-bilderflut-drastischer-kurswechsel
Digitaler Putsch: Palantir & Co. auf dem Vormarsch
Keine Panzer, keine Generäle, stattdessen Laptops und Algorithmen. Der neueste Coup gegen die Demokratie kommt nicht mit Uniform, sondern mit Software. Palantir, das Datenanalyse-Unternehmen mit dem bezeichnenden Namen aus Tolkiens Welt, sammelt und analysiert massenhaft persönliche Daten. Auch in Deutschland. Was als Effizienzgewinn verkauft wird, ist in Wahrheit ein gefährliches Machtinstrument. Denn wer entscheidet, welche Daten gesammelt werden? Und wer kontrolliert, wie sie verwendet werden? In den Händen der Falschen wird aus Datenanalyse schnell digitale Überwachung. Ein autoritäres Regime braucht keine Soldaten mehr, wenn es Zugriff auf unsere digitalen Profile hat. Datenschutz ist unserer Meinung nach kein bürokratisches Hindernis, sondern Brandschutz für die Demokratie.
KI macht’s uns bequem. Und dumm.
Wenn Maschinen denken, müssen wir es nicht mehr tun. So fühlt es sich an, wenn KI unseren Alltag automatisiert – und genau das ist das Problem, warnt der Kuketz-Blog. Wir googeln, lassen schreiben, sortieren Informationen aus. Aber ohne echtes Verstehen. Statt mündiger Entscheidungen bleibt am Ende oft nur: „Wird schon stimmen, die KI hat’s gesagt.“ Fortschritt? Eher eine Denkdiät mit Langzeitfolgen. Denn wer das Denken delegiert, trainiert vor allem eines nicht: den eigenen Verstand.
Urheberrecht? Tödlich für KI, sagt Ex-Meta-Manager.
Wenn KI-Unternehmen um Erlaubnis fragen müssten, bevor sie urheberrechtlich geschützte Inhalte nutzen – dann, so Nick Clegg, würde die Branche sterben. Kein Scherz, sondern eine offene Bankrotterklärung der Fairness. Clegg nennt den Wunsch nach Zustimmung zwar verständlich, hält ihn aber für technisch und wirtschaftlich unrealistisch. Die Lösung? Statt Verantwortung zu übernehmen, schlägt er einen Opt-out vor. Wer nicht in der KI landen will, soll sich selbst austragen. (Das funktioniert aber nicht, haben wir im letzten Newsletter gelernt!). Die Botschaft dahinter: Ohne massiven Datenraub funktioniert das KI-Geschäftsmodell nicht. Fortschritt um jeden Preis, nur zahlen sollen andere. Nennt sich das echt noch Innovation oder doch nur Enteignung?
GPT gibt Gas. In die falsche Richtung.
OpenAI hat’s geschafft: Die neuen Modelle GPT-4-mini und GPT-3.5 halluzinieren sich die Welt, wie sie ihnen gefällt – und zwar mit bis zu 79 % Fehlerquote. Herzlichen Glückwunsch! Das ist nicht mehr kreativ, das ist schon fast dadaistisch. Die KI soll eigentlich besser im logischen Denken sein. Stattdessen erfindet sie Fakten, verwechselt Zahlen und stolpert über Grundschul-Mathe. Und das Irrste? OpenAI hat keine Ahnung, warum. Vielleicht war’s der Mond, vielleicht der Optimierungswahn. Wer GPT neuerdings fragt, ob 2 + 2 = 5, bekommt nicht nur ein „Ja“, sondern gleich noch eine PowerPoint-Präsentation dazu. Willkommen in der Ära der selbstbewussten Maschinen, die keine Ahnung haben, aber das sehr überzeugend.
