Wer zieht die rote Linie? Wer unterschreibt trotzdem?

Es gibt Wochen, in denen passiert so viel auf einmal, dass wir eigentlich kurz innehalten möchten und fragen: Warten wir eigentlich noch auf den nächsten Hammer? Oder haben wir ihn gerade schon verpasst?

Diese Ausgabe handelt von Grenzen. Von welchen, die gezogen werden, von denen, die überschritten werden. Und von den Menschen, die trotz allem Nein sagen.

Das Pentagon will die Anthropic-KI autonom Ziele erfassen lassen und Bürger*innen überwachen – und bekommt zunächst ein klares Nein. Was folgt, ist eine Lektion in Konzernmoral: OpenAI-CEO Sam Altman bekundet öffentlich Solidarität und unterschreibt in derselben Nacht den Pentagon-Deal. Fast tausend Mitarbeiter*innen von Google und OpenAI schreiben einen offenen Brief.

Außerdem erfährst du, warum deine Stimme längst kein persönliches Gut mehr ist. Zehn Minuten öffentliche Rede reichen laut Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC), um einen sprachlichen Deepfake zu bauen, der eine Versicherung austrickst. Damit steht fest, dass die Voice-ID als Sicherheitsversprechen keine gute Idee ist.

Dazu haben wir: einen KI-Chatbot im US-Gesundheitsministerium mit sehr speziellen Ernährungsideen, KI-Gesichter, die durch ihre vollkommene Mittelmäßigkeit erschrecken, einen Oxford-Professor, der das ganze KI-Rennen mit der „Hindenburg“ vergleicht, und die OpenAI-Akte, die zeigt, was hinter den Kulissen eines 300-Milliarden-Konzerns wirklich los ist.

Und noch etwas: Wir sind jetzt ein eingetragener Verein und damit sind wir ein WIR, das auch rechtlich eines ist. Nun kommt das MI-Siegel zurück, yeah! Mehr dazu weiter unten.

Auch diese Ausgabe ist eine Einladung, Haltung zu zeigen – in einer Zeit, in der das in manchen Staaten und Weltregionen schon fast eine Heldentat ist.

Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz. In den nächsten Tagen wieder unter mi-siegel.de


IN EIGENER SACHE

WIR. SIND. EIN. EINGETRAGENER. VEREIN.

Es gibt Dinge, die man einfach irgendwann in trockene Tücher bringen muss. Wir sind jetzt ein eingetragener Verein! Eine klare Struktur für das, was hier seit einer Weile wächst: ein Netzwerk aus Menschen, die sich gemeinsam für Qualität engagieren. Und zwar ganz egal, ob sie KI nutzen oder nicht.

Das bedeutet:

  1. Das MI-Siegel kommt zurück. Schau in den nächsten zwei Wochen immer mal wieder auf unserer Website vorbei. Das Siegel war nie ein Qualitätslabel im PR-Sinne – kein Button, den man sich ans Revers heftet, um beim nächsten Pitch besser auszusehen. Es ist ein Bekenntnis: Deine Arbeitsergebnisse entstehen mit menschlicher Intelligenz. Immer.
  2. Das Schulungsangebot wird ausgebaut. Mehr Formate, mehr Themen, mehr Gelegenheiten, das eigene KI-Verständnis nicht dem nächsten Hype-Zyklus zu überlassen, sondern kritisch zu schärfen. Wer wissen will, wann und was, der hält einfach die Augen offen, hier im Newsletter und auf LinkedIn.

Dieser e.V. ist die logische Konsequenz aus einer simplen Erkenntnis: Wer ernsthaft daran arbeitet, dass KI-Kompetenz kein Luxus bleibt, der braucht irgendwann mehr als eine schicke Website und einen Newsletter. Er oder sie braucht ein WIR, das auch rechtlich eines ist.

Jetzt haben wir das. Und du weißt, wo du uns findest.


WISSENSCHAFT

Deine Stimme ist ein lukratives Angriffsziel

Banken und Versicherungen verkaufen Voice-ID als komfortables Zukunftsmodell: Sprich kurz in dein Telefon, schon bist du identifiziert. Doch es gibt ein krasses Sicherheitsproblem: Denn die Stimme, die das System hört, muss nicht die deine sein.

Zehn Minuten reichen

Das Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) hat das Voice-ID-System einer großen deutschen Versicherungsgesellschaft per Penetrationstest erfolgreich ausgehebelt. Grundlage war eine zehnminütige öffentliche Rede der Zielperson – das reichte, um einen überzeugenden Audio-Deepfake zu bauen und Zugriff auf den persönlichen Account zu bekommen. Das ist kein Hack im klassischen Sinn, sondern eine gut trainierte KI, die geduldig zuhört und dann spricht. Wie real die Bedrohung ist, zeigt ein Fall aus der Praxis, der schon ein paar Jahre zurückliegt: Der CEO eines britischen Energieunternehmens überwies einen sechsstelligen Betrag, weil er glaubte, seinen Chef an der Leitung zu haben. Es war eine geklonte Stimme.

Wettrüsten von KI gegen KI

Die AISEC-Forscher*innen wechseln methodisch zunächst auf die Seite der Angreifer*innen: Sie erstellen selbst Fälschungen und entwickeln darauf aufbauend Erkennungsalgorithmen. Die Plattform „Deepfake Total“ macht diese Detektionsleistung bereits öffentlich zugänglich. Trotzdem bleibt es ein Wettrüsten. Denn die Erkennungssysteme sind immer nur so gut wie ihr aktueller Trainingsstand, und die Deepfake-Technologie entwickelt sich schneller als jede Regulierung.

Voice-ID als alleiniges Sicherheitsverfahren ist damit schlicht nicht mehr vertretbar. Wer täglich Sprachnachrichten verschickt oder öffentliche Reden hält, sollte wissen: Die eigene Stimme ist längst kein Geheimnis mehr. Doch wer haftet, wenn die Stimme, der wir vertraut haben, nicht echt war?

https://www.aisec.fraunhofer.de/de/spotlights/Deepfakes.html


MEINUNG

Von roten Linien und dicken Hämmern

Gruseliger geht es nicht mehr? Doch, der nächste Hammer kommt bestimmt. Beim Thema KI ist das garantiert. Bis wir uns nach einem Schlag wieder zurechtgeschüttelt und neu eingenordet haben, passiert das nächste Ding.

Der Angriff auf den Iran liefert uns das perfekte Stichwort an dieser Stelle: Krieg. Das US-Verteidigungs-,’tschuldigung, Kriegsministerium will die Anthropic-KI auch militärisch nutzen können. Anthropic – die Firma hat(te) eine Partnerschaft mit dem Pentagon – möge bitte alle Sicherheitsvorkehrungen beim Einsatz seiner KI für militärische Zwecke entfernen, damit die Technik zur autonomen Zielerfassung von Waffen oder zur Überwachung in den USA eingesetzt werden kann. Bämm, der nächste Hammerschlag!

Überwachung von Bürger*innen? Verstieße gegen den vierten Zusatzartikel der US-amerikanischen Verfassung zum verbrieften rechtlichen Schutz vor staatlichen Übergriffen. Und autonome Zielerfassung von Waffen? Da wähnt man sich gleich in einem neuen Emmerich-Film. Doch es ist brandgefährliche, düstere Realität.

Nein sagen – im richtigen Moment eine gute Idee

Anthropic hat das Überschreiten dieser roten Linie abgelehnt, aus Gewissensgründen. Dann arbeiten wir mit den Doofis halt nicht mehr, trotzkopfte der Oberbefehlshaber der US-Streitkräfte. Pentagon-Chef Pete Hegseth sinngemäß verkürzt so: „Entweder ihr tut, was wir sagen, oder wir stufen euch als Risiko für die Lieferkette ein.“ Einerseits relevant für die nationale Sicherheit, andererseits ein Sicherheitsrisiko – wie da wohl ein Schuh draus wird? Vielleicht hat Hegseth ja eine KI gefragt, was um Himmels willen er Anthropic sagen soll, wenn die sich weigern.

Jedenfalls war damit Schluss für Anthropic im Pentagon. Moralische Geradlinigkeit scheint dort niemanden zu beeindrucken. Vielmehr verhandelte man bereits parallel dazu mit der Konkurrenz: Google und OpenAI. Dass Sam Altman am Donnerstag öffentlich Solidarität mit Anthropic-CEO Dario Amodei bekundete, aber noch in derselben Nacht des 27. Februar einen eigenen Pentagon-Vertrag unterschrieb, ist Altman-Heuchelei pur. Doch jetzt ein neuer Hammer, aber einer, den wir begrüßen:

Mitarbeiter*innen von Google und OpenAI haben einen offenen Brief namens We Will Not Be Divided veröffentlicht, den bislang knapp 1.000 Personen aus beiden Unternehmen unterzeichnet haben.

„We are the employees of Google and OpenAI […]. We hope our leaders will put aside their differences and stand together to continue to refuse the Department of War’s current demands for permission to use our models for domestic mass surveillance and autonomously killing people without human oversight.“ (Hervorhebung von uns, aus Gründen 😊). Und siehe da: Am Freitagabend desselben Tages – also noch während Anthropic vor die Tür gesetzt wurde – kündigte OpenAI einen ersten Deal an. Nach massiven Gegenreaktionen legte Altman am 3. März nach und veröffentlichte überarbeitete Vertragsklauseln mit schärferen Surveillance-Beschränkungen. Geht doch.

Menschen schalten ihren Kopf ein und werden sich ihrer Verantwortung bewusst. Eine gute Nachricht in wilden Zeiten.

https://notdivided.org


KI-TIPP

Hülsenhilde trifft deinen KI-Text

KI liebt Worthülsen. Sie baut Sätze, die nach Kompetenz klingen, nach Zukunft, nach klarer Haltung – und dabei oft ins Leere laufen. Blöd. Aber genau das Modell, das Blabla-Texte produziert, kannst du als Lektorin einsetzen. Wir nennen sie: Hülsenhilde.

So rufst du Hilde:

  • Kopiere deinen fertigen KI-Text zurück in den Chat und gib diesen Prompt ein: „Markiere alle unkonkreten Aussagen. Wo bleibe ich allgemein? Welche Begriffe klingen gut, sagen aber inhaltlich wenig? Sieh genau hin!“
  • Überarbeite die markierten Stellen mit echten Beispielen, konkreten Zahlen oder einer klaren Haltung. Besonders aufmerksam wird Hilde bei Wörtern wie innovativ, ganzheitlich oder zukunftsorientiert. Denn das sind meist die Platzhalter für die Stellen, an denen dein authentischer Input fehlt.

Der Trick funktioniert, weil du das Modell in eine andere Rolle versetzt: Du machst die Text-Produzentin zur Text-Kritikerin. Hülsenhilde ist gnadenlos, denn genau das ist ihr Job.

Merksatz: Wenn alles zukunftsorientiert ist, ist nichts konkret. Frag Hilde mal, was sie mit solchen Worthülsen eigentlich meint. 😉


NEWS

MAHA, MUHAHA!

Make Amerika Healthy Again – MAHA: US-Gesundheitsminister Robert F. Kennedy Jr. hat ja die eine oder andere krude Verschwörungstheorie auf Lager und ist als entschiedener Impfgegner bekannt. Sein Ministerium betreibt einen Ernährungs-Chatbot; irgendein Spaßvogel hat den getestet und von dem Ding höchst bizarre Ernährungsratschläge erhalten. Lustig? Vielleicht. Man braucht allerdings nicht viel Phantasie, um sich Settings vorzustellen, in denen es nicht mehr lustig ist, wenn Bots keinen Spaß verstehen. https://www.404media.co/rfk-jrs-nutrition-chatbot-recommends-best-foods-to-insert-into-your-rectum/

Miet dir nen Menschen! KI-Agenten als Recruiter

Spätestens seit OpenClaw ist das Konzept des KI-Agenten bekannter geworden: Clevere E-Mitarbeiter*innen verrichten auf deinen Zuruf willig (und selbstverständlich unbezahlt) Büroarbeit und entlasten dich davon: den Posteingang überwachen, Unterlagen sichten und sortieren, Termine kollisionsfrei organisieren. All das, wofür man früher Assistent*innen, Office Manager*innen, Sekretär*innen eingestellt hat, soll jetzt die KI tun. Fähige Leute finden ist ein zeitraubendes Geschäft. Was spricht dagegen, die KI auch dafür zu nutzen? Tatsächlich gibt es schon Plattformen, auf denen sich Real Humans anbieten, um von KI-Agenten gefunden zu werden, zum Beispiel Rent a Human. Mehr als heiße Luft ist das aber wohl nicht: https://www.derstandard.de/story/3000000310915/openclaw-moltbook-rent-a-human-ki-ai-agenten

Die Akte OpenAI

OpenAI wurde 2015 als Non-Profit gegründet, mit dem Versprechen: Wenn wir AGI – Artificial General Intelligence – bauen, gehört der Gewinn der Menschheit. Zehn Jahre später kippt der 300-Milliarden-Konzern genau den Mechanismus, der dieses Versprechen rechtlich absicherte – den Gewinndeckel für Investor*innen. Denn das haben Investor*innen zur Bedingung für weiteres Funding gemacht. So viel zu unabhängig. The Midas Project und das Tech Oversight Project haben unter dem Namen The OpenAI Files die bislang umfassendste Sammlung dokumentierter Bedenken veröffentlicht: Governance-Probleme, Führungsversagen, eine Schweigekultur mit lebenslangen NDAs (Geheimhaltungsvereinbarungen) und interne Stimmen, die eine klare Sprache sprechen. CTO Mira Murati, Alignment-Chef Jan Leike, Co-Gründer Ilya Sutskever: alle weg und alle skeptisch. Hier geht’s zu den Abgründen aus hunderten Dokumenten, Zeugenaussagen und Medienberichten: https://www.openaifiles.org

Hindenburg 2.0 – diesmal als Sprachmodell

Michael Wooldridge, KI-Professor in Oxford, hat einen nüchternen Vergleich parat: Der aktuelle KI-Wettlauf erinnert ihn an das Luftschiff „Hindenburg“ kurz vor dem Absturz. Viele Versprechen, wenig Sicherheitstests und ein riesiger Kommerzdruck. Ein einziges spektakuläres Versagen – ein KI-Hack, der den Flugverkehr lahmlegt oder eine Algorithmus-Entscheidung, die eine Bank in die Knie zwingt – könnte das globale Vertrauen in KI über Nacht zerstören, so wie 1937 das brennende Zeppelin-Wrack dem Luftschiff-Zeitalter ein Ende gesetzt hat. Wooldridges Diagnose klingt ernüchternd einfach: KI-Chatbots sind unberechenbar – brillant heute, kompletter Blindflug morgen. Trotzdem antworten sie immer so, als wären sie sich sicher. Sein Rat: Hört auf, diese Werkzeuge als digitale Freund*innen zu vermarkten. Sie sind einfach nur schnöde Tabellenkalkulationen. https://www.theguardian.com/science/2026/feb/17/ai-race-hindenburg-style-disaster-a-real-risk-michael-wooldridge

KI-Gesichter: Zu schön, um wahr zu sein? Nein, zu langweilig

KI kann inzwischen Gesichter generieren, die täuschend echt wirken. Nur leider auch ziemlich fade. Eine Studie der Universität New South Wales zeigt: KI-Gesichter fallen nicht durch Perfektion auf, sondern durch komplettes Fehlen jeder Eigenheit. Doch auch sogenannte Super Recognizer – Menschen mit fotografischem Gesichtsgedächtnis, die auch auf körnigen Überwachungsvideos noch Täter*innen identifizieren – fallen auf diese erschreckende Mittelmäßigkeit herein. Acht von ihnen erkannten immerhin die KI-Gesichter im Schnitt zu 35 Prozent besser als normale Menschen. Denn die tippten auf KI, wenn ein Gesicht besonders jung wirkte. Doch KI produziert Gesichter von absoluter Durchschnittlichkeit. Das ist vielleicht das Gruseligste daran. https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-woran-super-recognizer-ki-generierte-gesichter-erkennen-a-3a05d86c-a623-480d-b6ca-170c0ed04349