Generative KI kann inzwischen fast alles – außer zuverlässig liefern, was sie verspricht. Sie schreibt Kinderbücher, aber bringt sie nicht zu Ende. Sie speichert riesige Textmengen, nur um dann an semantischen Mehrdeutigkeiten zu scheitern. Und Google ersetzt die Suche durch einen vorverdauten Info-Brei, der ungefähr so nahrhaft ist wie Instantnudeln aus dem Plastikbecher. Es beginnt die Ära der „AI Summary“, in der Nutzer:innen weniger klicken und noch weniger hinterfragen.
Auch politisch wird die Luft dünn: Trumps neuer KI-Aktionsplan kombiniert exportfreudige Chip-Offensiven mit anti-woker Rhetorik und umweltpolitischem Rückbau. Hauptsache, die KI verkauft sich gut, egal, wie’s drinnen aussieht.
Doch es geht auch anders: In Stanford tüftelt man an faireren Verfahren zur Bewertung von Sprachmodellen. Bislang wurden KI-Modelle nicht einheitlich evaluiert. Die Prüfungsfragen waren vom Komplexitätsgrad her so unterschiedlich wie Mensch-ärgere-dich-nicht und Schach. Jetzt heißt es Schwierigkeitskalibrierung statt Leistung schönrechnen.
Und wer denkt, dass all das nur technische Spielerei ist, sollte dringend Rainer Mühlhoffs neues Buch lesen. „Künstliche Intelligenz und der neue Faschismus“ ist kein dystopischer Ausflug in die Zukunft, sondern ein analytischer Schlag ins Hier und Jetzt. Wer KI naiv als neutrales Tool begreift, verkennt, wie schnell Algorithmen zu Machtinstrumenten werden. Und wer dabei systematisch ausgeschlossen wird.
Viel Konkurrenz, wenig Kompetenz
Gefühlt 90 Prozent der Leute, die irgendwas mit Text anbieten, sind schlechter als du. Dank KI wird der Anteil immer größer. Und Auftraggebende können die Qualität nicht beurteilen (darum suchen sie ja Textprofis).
Wie zeigst du auf einen Blick, dass du den Auftrag verdienst? Dass du Text kannst und weißt, ob und wie du KI nutzt?
Genau: Mit dem Siegel für Menschliche Intelligenz. 👉 www.mi-siegel.de
Buchtipp: „Künstliche Intelligenz und der neue Faschismus“
Rainer Mühlhoff – Reclam, 160 Seiten, ISBN: 978-3-15-014666-8
Dieser Essay entwirft keine ferne Zukunftsvision, sondern ein politisches Warnsignal: Was passiert, wenn autoritäre Bewegungen und algorithmische Entscheidungssysteme sich verbinden? Rainer Mühlhoff ist Professor für Ethik und kritische Theorien der Künstlichen Intelligenz an der Universität Osnabrück. Er enttarnt in diesem Buch eine moralisch bedenkliche Allianz zwischen Tech-Eliten und rechtsnationalen Bewegungen, entlarvt das Streben nach Kontrolle als neue Form des Faschismus und wirft einen unerschrockenen Blick auf ideologische Machtstrukturen im Code.
Warum lesen? Wer wissen will, wie normative Verzerrungen in KI zum Instrument von Exklusion werden – und warum technokratische Euphorie leicht autoritären Zielen dient – findet hier klare Antworten. Ein essenzieller Denkanstoß für alle, die KI nicht nur als Werkzeug, sondern als gesellschaftspolitisches Machtfeld verstehen wollen.
Wer nach der Lektüre immer noch „nur ein Tool“ ruft, sollte mal prüfen, ob der eigene moralische Kompass nicht längst in einer US-amerikanischen Cloud geparkt wurde.
EVENT
Hol dir das MI-Siegel und bekomme die Schulung „KI + Qualität im Marketing“ dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch durchdachte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Nächster Termin: Dienstag, 16. September 2025, 9–12 Uhr
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an: menschlicheintelligenz@gmail.com
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Für mich waren diese 3 Stunden extrem aufschlussreich, zum einen, weil ich mein rudimentäres Wissen und meine eigenen Versuche nun gut einordnen und ausbauen kann – strukturiert und nicht nur intuitiv wie bisher. Zum anderen danke ich euch, dass ihr die Vorgehensweise so konkret an einem Werbekampagnen-Beispiel festgemacht habt. Ihr habt das nämlich dankenswerterweise so gestaltet, dass ich das nun gut für mich und meine Arbeit übersetzen kann.”
Daniela Pucher – Autorin und Coach
NEWS
Klickfrei ins Hirnkoma
Googles neuestes Kunststück heißt „AI Summary“ – und es macht genau das, was der Name verspricht: Google serviert uns eine vorverdaute Info-Häppchenplatte direkt im Suchfeld. Tim El-Sheikh spricht in seinem bissigen Kommentar von einer schleichenden Hinrichtung der klassischen Websuche. Praktisch? Vielleicht. Aber auch gefährlich, wie eine neue Pew-Studie zeigt: Denn kaum taucht ein AI-Zusammenfassungskasten auf, sinkt die Klickrate dramatisch. Wir kontrollieren die angezeigten Inhalte nicht mehr. Und so wird dann leicht aus einer abgestürzten Boing ein abgestürzter Airbus …
Regeln sind was für Demokraten
Trump präsentiert Amerikas neuen KI-Aktionsplan mit allem, was das Tech-Herz begehrt – und dem, was der Umwelt nicht gut tut. 90 Maßnahmen sollen KI „Made in USA“ zur globalen Exportware machen: Full-Stack-Pakete aus Hardware, Software und Standards für alle Freund:innen Amerikas. Gleichzeitig werden Umweltvorschriften gelockert und föderale Regulierungen ausgebremst. Trumps Botschaft: Schluss mit jeder „Wokeness“ im Code. China soll abgehängt werden, aber auf dem Weg dorthin darf ruhig ein bisschen verbrannte Erde entstehen.
Wenn die KI ein Buch schreibt, aber nicht fertig wird
Ein Reddit-Nutzer wollte mit KI ein 700-seitiges Kinderbuch erschaffen. Doch statt Geschichten mit indischer Mythologie und KI-Magie zu verschmelzen, lieferte ChatGPT Anfänge und Absätze, aber kein fertiges Werk. Offenbar verwechselt mancher „künstliche Intelligenz“ mit „magischem Feenstaub auf Knopfdruck“. Der Fall zeigt: Zwischen KI-Muse und menschlicher Arbeit liegen Welten. Kreativität braucht mehr als Syntax. Sie braucht Haltung, Geduld und gelegentlich einen Kaffee zu viel. Und nein, auch der lässt sich (noch) nicht prompten.
https://www.it-boltwise.de/die-herausforderungen-der-ki-gestuetzten-buchproduktion.html
Langtext, Kurzschluss
Lange Kontextfenster – das klingt erstmal smart. Doch in der Realität gleicht das oft einem Schluckauf mit Ansage. Eine neue Studie von Chroma Research zeigt: Wenn die Prompt-Historie wächst, schrumpft die Präzision. Besonders bitter: Logisch strukturierte Texte verwirren die Modelle mehr als wild durchmischte Satzbausteine. Und sobald semantische Mehrdeutigkeit oder inhaltliche Ablenkungen auftauchen, verwandelt sich die Maschine in einen höflich halluzinierenden Papagei. Fazit der Forscher:innen: Wer viel sagt, sagt bald nichts mehr. Zumindest, wenn man’s der KI überlässt. Unsere Empfehlung: weniger Tokens, mehr Nachdenken.
Endlich Äpfel mit Äpfeln vergleichen
Sprachmodelle versprechen Fortschritt im Wochenrhythmus. Doch wer prüft eigentlich, ob die Tools wirklich klüger geworden sind oder nur besser beim Posen? Genau hier setzt ein neues Verfahren von Stanford an: Die Forscher:innen schlagen ein Evaluierungssystem vor, das Schwierigkeitskalibrierung, ein adaptives Fragensystem und eine generative Fragenerstellung zur Pflege der Datenbank kombiniert. Das ist billiger als vorher. Und vor allem fairer. Denn wenn ein Modell nur deshalb „besser“ ist, weil es leichter geprüft wurde, dann ist das kein Fortschritt, sondern ein Intelligenz-Cosplay. Und wir bewerten Äpfel nicht länger zusammen mit Orangen, um sie dann stolz als Bananen zu verkaufen.
https://news.stanford.edu/stories/2025/07/new-cost-effective-way-to-evaluate-AI-language-models
