KI als Einfallstor für Verbrechen, als Leselotte, als moralischer Blindflug, als Inklusionsversprechen, als Risikoindikator, als Grenzbehörde, als Comic-Krebs und als Nähe-Simulation. Klingt wild? Ist es auch. Und trotzdem folgt all das einem erstaunlich klaren Muster.
In diesem Newsletter findest du eine einzige große Erzählung über Verantwortungsdiffusion in vielen verschiedenen Teilen. Geschichten über Systeme, die immer mehr können sollen, während sich immer weniger jemand zuständig fühlt – hohe Sicherheitsrisiken all inclusive. Storys von einer Technik, die effizienter, freundlicher und niedlicher wird, während ihre gesellschaftlichen Folgen zuverlässig ausgeblendet werden. Und Märchen über Neutralität als Ausrede, Komfort als Verkaufsargument und Optimierung als Ersatz für Haltung.
Zwischen Darknet und Diversity, zwischen Cyberkriminalität und Comic-Krebs, zwischen Allianz-Warnung und Palantirs Migrationsfantasien blinkt es in kreischendem Pink: KI wird nicht gefährlich, weil sie ist, wie sie ist. Sondern weil wir allzu gern glauben, Verantwortung ließe sich delegieren – an Modelle, an Algorithmen oder an einen animierten Krebs mit großen Kulleraugen.
Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz. Demnächst wieder unter www.mi-siegel.de.
IN EIGENER SACHE
Wir werden zum Verein: Klappe X und … Action … ähm, Cut!
Es gibt einfach nichts Neues beim MI-Siegel. Kein Brief, kein Anruf, gar nichts. Menno …
DYSTOPIE
KI als Werkzeug für Verbrechen: Es lebe der nützliche Idiot!
LLMs sind ein riskantes Feldexperiment mit ungewissem Ausgang – nicht nur im Alltag, sondern auch im Darkweb. Dass Kriminelle sich früher oder später LLMs zunutze machen werden, war absehbar. Was 2023 noch als düstere Warnung von Europol galt, ist – Überraschung! – zwei, drei Jahre später Realität. Die großen kommerziell genutzten KI-Bots haben durchaus moralische Schotten eingebaut: Würdest du ChatGPT um Cybercrime-Assistenz bitten – Identitäten kopieren, Websites hacken, Viren erschaffen, Phishing-Schemes konzipieren – würde es dir treuherzig verkünden, dass es dabei leider nicht behilflich sein könne. Für Cyberverbrecher ist Ethik deshalb kein Wert, sondern ein technisches Problem – gelöst durch Jailbreaks. Unterstützung bekommen die Kriminellen von naiven Erfüllungsgehilfen, viele getrieben von nerdiger Bastelfreude, einer Skepsis gegenüber jedweder Zensur („nur ein freies Internet ist ein gutes Internet“), vielleicht auch mit Ethical-Hacking-Anspruch.
Nur wenige Monate nach der Mahnung von Europol experimentierte ein portugiesischer Informatikstudent mit einem ethikfreien Tool namens WormGPT. Nolens volens geriet er damit in die Cyber-Unterwelt und bekam kalte Füße. Er beendete sein Projekt und entließ es ins Netz. Warum, muss das Geheimnis dieses Narren bleiben. „Hydra“ – das Ungeheuer, dem zwei Köpfe nachwachsen, wenn man einen abschlägt – hätte es wohl besser getroffen als „Wurm“. Und Köpfe abschlagen musste man bei WormGPT nicht mal. Seit seiner Freilassung finden sich zahllose Nachahmer im Darknet und auf sinistren Telegram-Kanälen.
WormGPT war nur der Startschuss für die rasante Entwicklung einer ausgefeilten Industrie für KI-gestützte Verbrechen, die vom Anfänger bis zum Profi jedem etwas zu bieten hat und sehr wohl auch seriöse Programmierer umwirbt.
Ein Ausflug in den Dschungel der DarkGPTs: https://www.zeit.de/2026/02/kuenstliche-intelligenz-kriminalitaet-betrug-chatgpt-wormgpt-xanthorox (Paywall-Artikel)
KI-TIPP
Word als Leselotte
Wenn du KI-Texte schreibst, nutze Word als Leselotte. Dafür kopierst du deinen KI-Text in Word und lässt ihn dir vorlesen (Reiter „Überpüfen“ -> „laut vorlesen“). Denn diese Leselotte kann dir Augen und Ohren öffnen
- Markiere alles, was beim Hören holpert, zu glatt klingt oder fremd wirkt.
- Überarbeite nun diese Stellen selbst, ohne neue KI-Vorschläge einzuholen.
- Beende den Prozess, sobald der Text so klingt, wie du ihn gerne hättest. Oder rund und schlüssig klingt.
Merke: Nichts ist so gnadenlos wie gesprochene Sätze, die sich in deinem Ohr verheddern. Die Leselotte hilft dir dabei, deine Stimme auch in Texten zu finden.
UTOPIE
Die größte KI-Lüge ist die von der Neutralität
Was passiert, wenn eine KI nicht nur rechnet, sondern Haltung zeigt? Nicht nur nach Wahrscheinlichkeiten, sondern auch nach Möglichkeiten fragt? Wenn Diversität kein moralisches Feigenblatt ist, sondern von Anfang an in den Trainingsdaten mitgegeben wird?
COCO ist das weltweit erste „Inclusive Imagination OS“ und damit ein Affront gegen alles, was wir bisher an generativer KI gewöhnt sind. Große Sprach- und Bildmodelle reproduzieren mit mathematischer Eleganz unsere alten Vorurteile. COCO sagt: Das geht anders, von Anfang an!
COCO soll eine GenAI für Schulen, Agenturen und Verlage werden. Die bestimmen mit, was erzählt wird, wer sichtbar ist und wessen Perspektive als Normalfall gilt. Der wahre Skandal ist doch, dass all das bisher kaum hinterfragt wird, höchstens an die Ethik-Abteilung ausgelagert, wo es zwischen Compliance-Checkliste und Diversity-Workshop vor sich hinmüffelt.
Die unsichtbare Norm-Maschine
Generative KI gilt gern als neutraler Spiegel der Welt, als objektive Maschine. Viele Studien zeigen: Das ist nichts weiter als ein hübsches Narrativ und ungefähr so glaubwürdig wie die Behauptung, Big Tech hätte keine finanziellen oder gesellschaftspolitischen Interessen. Denn was KI tatsächlich spiegelt, sind Machtverhältnisse. Trainingsdaten sind schließlich Archive menschlicher Entscheidungen, Ausschlüsse und Bequemlichkeiten.
Das Ergebnis kennen wir: Der CEO ist weiß, der Held männlich, die Pflegekraft weiblich, das normale Frühstück besteht aus Marmeladentoast mit ’ner Tasse Kaffee. Dabei denkt die Maschine ja nicht böse – sie kann nicht denken. Sie nutzt nur Statistik statt Vorstellungskraft. Doch das ist ein Problem! Denn Imagination ist nie harmlos. Und wer sich nichts anderes vorstellen kann, wird auch keine andere Lösung gestalten.
Diese Norm-Maschine will COCO stören – mit Diversität als Betriebssystemlogik. Hier geht es nicht um Technologieverliebtheit, sondern um kulturelle Machtfragen. Prima!
Fortschritt mit Haltung oder nur besser verpackt?
Natürlich löst auch COCO all diese Probleme nicht auf Knopfdruck. Auch eine inklusive KI muss definiert, kuratiert und begrenzt werden. Wer entscheidet, was inklusiv ist? Welche Stimmen fehlen trotzdem? Und ab wann wird aus gut gemeinter Vielfalt eine neue, ebenso starre Norm?
Eine Idee wie die von COCO zwingt uns, solche Fragen zu stellen. Denn wenn KI zunehmend unsere Bilder und Texte prägt, entscheidet sie über Ästhetik und beeinflusst unseren Denkrahmen – das, was sagbar, sichtbar und vorstellbar ist. Vorstellungskraft ist kein Luxus, sondern eine zutiefst menschliche und sogar politische Ressource. Eine, die bei der Zusammenarbeit von Mensch und Maschine erhalten bleiben muss.
Wir müssen die Debatte verschieben. Weg von Effizienz und Skalierung, hin zu Verantwortung und Haltung. Wir dürfen nicht mehr neutral sein, wir müssen bewusst sein. Und das ist schon ziemlich revolutionär in einer Branche, die Neutralität gern als Ausrede nutzt.
Mehr Infos und zur COCO-Beta anmelden: https://www.colorfulcommunity.com/
NEWS
Allianz schlägt Alarm bei KI
KI rutscht im neuen Allianz Risk Barometer von Platz 10 auf Platz 2 – also vom knuffigen Innovationsspielplatz direkt in den gefährlichen Alligatorensumpf. Die Botschaft der Allianz SE ist unmissverständlich: Unternehmen verlieren gerade die Kontrolle über ein Werkzeug, das sie selbst begeistert eingeführt haben. Deepfakes, automatisierte Angriffe, Haftungsfragen, Management-Blindflug – der fahrlässige Umgang mit der Technik sorgt für immer mehr Probleme. Dabei ist eins schon länger sicher: Wer KI ohne klare Regeln einsetzt, spart vielleicht Zeit, zahlt aber später mit fehlender Rechtssicherheit und Vertrauensverlust. Verantwortung lässt sich eben nicht automatisieren, egal, was uns versprochen wird.
https://www.csoonline.com/article/4116560/allianz-ki-birgt-grose-gefahr-fur-unternehmen.html
Grokipedia als Quelle beim neuesten ChatGPT-Modell
Der britische „Guardian“ hat das neueste ChatGPT-Modell mit Nischenanfragen getestet, etwa zu politischen Strukturen im Iran oder zur Biografie von Sir Richard Evans, einem britischen Historiker und Sachverständigen im Verleumdungsprozess gegen den Holocaustleugner David Irving. Ergebnis: Bei zwölf Anfragen nannte ChatGPT 5.2 neunmal als Quelle die KI-generierte Enzyklopädie „Grokipedia“ von Elon Musk, die wegen rechtslastiger Inhalte in der Kritik steht. Zu den Beteuerungen von OpenAI, den Output von ChatGPT stets auf Neutralität und Faktentreue zu prüfen, passt das gewiss nicht …
Alex’ große Anti-Migrationsfantasie
Alex Karp, CEO von Palantir Technologies, hat wieder in seine Glaskugel geblickt: Durch KI werde Migration im großen Stil überflüssig. Staaten werden dank smarter Algorithmen bald so effizient, stabil und vorausschauend agieren, dass niemand mehr einen Grund habe, seine Heimat zu verlassen. Doch wer Flucht, Armut und Gewalt vor allem als Frage staatlicher Effizienz und datengetriebener Steuerung betrachtet, darf sich nicht wundern, wenn die Lösung dafür nach Überwachung und Kontrolle klingt. Die Botschaft zwischen den Zeilen ist so alt wie technokratisch: Wenn die Welt kompliziert ist, liegt’s an den Menschen, nicht an der Politik oder an Ungleichheit. KI ist für solche Tech Bros eine Stay-where-you-are-Maschine. Das ist beruhigend für gewisse Regierungen – und gruselig für alle, die noch über einen Rest Mitmenschlichkeit verfügen.
Der niedliche Krebs, der dich bedroht
Ein Open-Source-Agent, der erst Clawdbot hieß, dann Moltbot und jetzt Openclaw, steht im Zentrum einer handfesten Sicherheitsdebatte. Die schnellen Namenswechsel sorgten für Verwirrung und öffneten Betrug Tür und Tor: Typosquatting-Domains, gefälschte Repositories, potenzielle Malware-Fallen – wer sich vertippt, könnte am Ende Schadsoftware laden statt legitimen Code. Dazu fand ein Sicherheitsforscher noch Hunderte öffentlich erreichbare Kontrollpanels: Offen lagen dort teils Gesprächsverläufe, API-Schlüssel und persönliche Zugangsdaten. Der Agent selbst benötigt Root-Zugriff, er kann also Systembefehle ausführen und wird besonders gefährlich, wenn Prompt-Injections hinzukommen. Autsch. Dieses Projekt mit seinen vielen Namen zeigt, wohin manche KI-Experimente kippen: weg vom Spielzeug hinein in Infrastruktur-Risiken, die viele erst begreifen, wenn Systeme offenstehen. https://www.golem.de/news/clawdbot-moltbot-openclaw-nach-rasanten-namensaenderungen-unter-beschuss-2601-204840.html
Gefühle als Designentscheidung
Eine neue Studie zeigt, wie effektiv KI in einem gezielt inszenierten Gesprächssetting emotionale Nähe erzeugen kann, vor allem dann, wenn die KI als Mensch wahrgenommen wird. Nähe entsteht hier nicht beiläufig, sie wird technisch gezielt konstruiert: durch tiefe Fragen, einen hohen Grad an Selbstoffenbarung und eine dazu perfekt passende Gesprächsdramaturgie wie aus einem Labor für Vertraulichkeit. Und solche Systeme sollen uns begleiten, uns beraten, ja, vielleicht sogar trösten? Die Studie erinnert uns daran, was im KI-Rausch gern übersehen wird: Emotionale Wirkung ist eine knallharte Designentscheidung. Doch alles, was Nähe gezielt herstellt, erzeugt Macht. Diese Macht braucht Grenzen, eine klare Kennzeichnung und auch Kontrolle. Sonst wird aus Interaktion Einfluss. Und aus Einfluss Manipulation.
