Vom Dirty Talk bis zum Digital Detox

Was haben ein flüsternder Chatbot, ein ratloses Prüfungsamt, ein schwitzendes Rechenzentrum und eine hyperaktive Unternehmensberatung gemeinsam? Sie alle stehen exemplarisch für eine Digitalwelt, die zwar von Intelligenz redet, aber zunehmend die Orientierung verliert.

In dieser Ausgabe nehmen wir dich mit in ein digitales Paralleluniversum, das so widersprüchlich ist wie der Zeitgeist selbst:

  • ChatGPT soll bald sinnlich stöhnen, aber bei politischen Fragen Neutralität vorgeben.

  • Staaten investieren Milliarden in automatisierte Sanktionen und lassen sich dann Gutachten mit KI-generierten Quellen andrehen.

  • Universitäten versuchen, Prüfungen KI-sicher zu machen, statt sich zu fragen, warum ihre Formate überhaupt so leicht auszuhebeln sind.

  • Und plötzlich gibt es Gesetze, die fordern, dass Maschinen wenigstens zugeben müssen, keine Menschen zu sein.

Zwischen hyperautomatisierter Zukunft und analoger Ohnmacht liegt der wunde Punkt unserer Zeit: Wir bauen Systeme, die wir weder durchblicken noch beherrschen. Und delegieren Verantwortung dorthin, wo kein Bewusstsein dafür vorhanden ist.

Doch etwas ist in jeder Ausgabe dieses Newsletters gleich: Es geht um Haltung. Um Grenzen. Und um die Entscheidung, ob wir der Technik alles überlassen wollen oder doch besser selbst zu denken.

Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


SCHULUNG

Hol dir das MI-Siegel und bekomme die Schulung "KI & Content-Qualität" dazu – kostenfrei

Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch ausgereifte Arbeits- und Denkprozesse.

In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.

Mittwoch, 5. November 2025, 9–12:30 Uhr

Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung.

Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.

Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich per Mail an menschlicheintelligenz@gmail.com

Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet

“Grundsätzlich würde ich die Schulung vor allem Leuten empfehlen, die der KI eher kritisch gegenüberstehen und die Vorteile noch nicht oder wenig für sich nutzen. Die können aus meiner Sicht am meisten mitnehmen, weil ihre Bedenken ernst genommen, teilweise aber auch entkräftet werden.“

Heide Liebmann, Potenzialdetektivin und Coach für Multi-Talente


CHRISTA LIEST

Europa im Medienkrieg?

Martin Andrees neues Buch „Krieg der Medien. Dark Tech und Populisten übernehmen die Macht“ ist ein wuchtiger Weckruf – analytisch klar und politisch unmissverständlich.

Der Medienwissenschaftler zeigt, wie Tech-Monopole und Rechtspopulisten die öffentliche Sphäre kapern. Und warum Europa regulatorisch nachziehen muss. Seine Diagnose gipfelt in scharfen Formulierungen von einer digitalokratischen Medienordnung und der düsteren Lageeinschätzung, Europa sei „gerade dabei, den Krieg der Medien zu verlieren“. Dass Frust und Wut dabei mitschwingen, ist gewollt. Genau das macht das Buch für mich kraftvoll, weil Empörung die Argumente antreibt, statt sie zu ersetzen. Diese Emotionen verstärken die Dringlichkeit des Themas und befreien das Buch von der sterilen Distanz, die sonst viele Wissenschaftspublikationen bestimmt.

Mein Fazit: Ein kluges, kämpferisches Sachbuch. Klare Leseempfehlung!

Martin Andree: Krieg der Medien. Dark Tech und Populisten übernehmen die Macht. Campus Verlag, 2025, 256 Seiten, 28 Euro


MEINUNG

Prompt. Antwort. Blackout.

Eine Frage stellen, eine Antwort erhalten – alles in Sekunden. Kommt KI ins Spiel, wirkt alles erst mal total easy. Doch unter der Oberfläche läuft ein energieintensives System auf Hochtouren: Serverfarmen, Kühlanlagen, Datenzentren. Eine einzelne Anfrage an ChatGPT kann bis zu 2,9 Wattstunden verschlingen. Bei Milliarden Prompts pro Tag wird daraus ein globaler Stromhunger, der mit dem Energieverbrauch ganzer Länder konkurriert.

Rechenleistung mit Nebenwirkungen

Doch nicht nur der Stromverbrauch ist ein Problem. Auch Wasser spielt eine Rolle, denn das wird zur Kühlung der Rechenzentren benötigt. Während die Welt versäumt, über CO₂-Ziele und Klimakipppunkte zu diskutieren, frisst sich die KI nahezu unbemerkt in die ökologischen Ressourcen. Und das ausgerechnet für Antworten, die oft keine echte Relevanz haben: Wettervorhersagen, Kochrezepte oder dann ab Ende des Jahres Dirty Talk, siehe unten.

Hier zeigt sich ein paradoxer Fortschrittsbegriff: Je mehr wir optimieren, desto größer wird der Aufwand im Hintergrund. Rechenleistung ist längst keine abstrakte Ressource mehr, sie ist ein handfester Umweltfaktor.

Die große Ausrede: Effizienz

Die KI-Branche verweist auf technische Fortschritte: sparsamere Modelle, bessere Kühlung, grüne Energie. Doch das reicht nicht aus. Es bleiben einige strukturelle Fragen offen: Wie viel Digitalisierung ist ökologisch vertretbar? Und warum wird der Energieverbrauch von KI bisher kaum öffentlich thematisiert?

Es braucht eine neue Ehrlichkeit. Energieverbrauch muss Teil jeder Digitalstrategie werden. Anbieter sollten verpflichtet werden, ihren Ressourcenbedarf offenzulegen. Und jede:r einzelne von uns sollte sich fragen: Wann ist eine KI-Nutzung sinnvoll und wann einfach nur überflüssig?

Digital Detox reloaded

Nicht alles, was machbar ist, muss auch gemacht werden. Vielleicht ist es an der Zeit, über digitale Enthaltsamkeit zu sprechen. Muss jede Idee gleich ein Prompt sein? Brauchen wir wirklich KI, um die nächste Betreffzeile oder den Instagram-Post zu formulieren?

Denn am Ende stellt sich nicht die Frage, wie schnell oder kreativ KI noch werden kann. Sondern, wer die Rechnung zahlt. Und wie lange wir sie uns noch leisten können.

Unser Vorschlag: Wir schaffen verbindliche Energie-Grenzwerte für KI-Dienste nach dem Vorbild der Emissionen des Straßenverkehrs.

Zum Artikel: https://www.ingenieur.de/technik/fachbereiche/energie/chatgpt-als-energiefresser-wie-der-ki-bot-die-energie-von-31-millionen-elektroautos-verschlingt/

Zeige deine Haltung nach außen mit dem Siegel für Menschliche Intelligenz.


KI-TIPP

Was du der KI verrätst, gehört nicht mehr dir

Vorsicht im Umgang mit LLMs ist immer wichtig. Ganz besonders dann, wenn du Daten hochlädst.

ACHTUNG bei:

  • personenbezogenen Daten

  • unveröffentlichten Inhalten

  • Passwörtern und Zugangsdaten

Du kannst dich nicht entscheiden? Dann probiere mal diese kleine Testfrage:

„Was würde passieren, wenn diese Daten morgen öffentlich auf der Website stünden?“

  • Lautet die Antwort „Nichts“, sind sie vermutlich unkritisch.

  • Lautet sie „Hilfe!“, dann meide GenAI und übernimm die Aufgabe selbst.


NEWS

Chatty, machs mir!

Erotische Chats als Geschäftsmodell? Was klingt wie ein schlechter Witz aus dem Silicon Valley, entlarvt die wahren Nöte der KI-Industrie: Milliardeninvestitionen, aber kaum tragfähige Erlösmodelle. Jetzt soll ausgerechnet Sex den Umsatz retten. Dass Chatbots bald DirtyTalk beherrschen sollen, wirft keine moralische, sondern eine ökonomische Frage auf: Was passiert, wenn eine Branche so verzweifelt nach Wachstum giert, dass selbst digitale Erotik zur Heilsbringerin wird? Statt echter Innovation erleben wir hier den Klimax eines Systems, das seinen eigenen Businessplan nicht mehr erotisch findet.

https://www.wiwo.de/unternehmen/it/chatgpt-porno-was-erotische-chats-ueber-die-verzweiflung-der-ki-szene-verraten/100163835.html

Pflästerchen auf Systemrisse

Universitäten rüsten auf – und zwar gegen KI. Doch statt das Bildungssystem zu hinterfragen, verlagern viele Hochschulen die Verantwortung auf Tools. Technische Schutzmaßnahmen wie Wissensschnitte oder Chatverlaufspflichten sollen KI-Missbrauch in Prüfungen verhindern. Doch genau diese Strategien offenbaren, wie hilflos das System agiert. Und wie sehr es sich um die eigentlichen Probleme herumdrückt. Studierende umgehen KI-Sperren längst kreativ: durch Re‑Prompting, alternative Tools oder simple Screenshots. Doch wie sinnvoll ist ein Test, wenn er vor allem den Erfolg von Vermeidungs- und Täuschungs-Strategien bewertet? Der Artikel von uni-mal-anders bringt es auf den Punkt: Die eigentliche Frage ist nicht, wie man KI aus Prüfungen heraushält, sondern was Prüfungen im Zeitalter intelligenter Systeme überhaupt leisten sollen.

https://uni-mal-anders.de/de/shorts/2025-10-09-pruefungen-ki-symptombekaempfung/

KI-Müll als teure Beratungsdienstleistung?

Ein peinlicher Fall aus Australien: Die Beratungsfirma Deloitte musste einem Ministerium Geld zurückerstatten, weil ihr Bericht auf gefälschten KI-Quellen beruhte. Statt fundierter Prüfung servierte man Halluzinationen im PowerPoint-Format: nicht-existierende Studien, erfundene Zitate und die Qualitätskontrolle ist offensichtlich auch ausgefallen. Besonders brisant ist, dass es um ein automatisiertes Sanktionen-System für Sozialleistungen ging. Und so krasse reale Folgen für tausende Menschen hatte. Wenn Prüfberichte KI-generiert sind und nicht mehr von Menschen überprüft werden, wird die Verantwortung zur Blackbox. Und die Rechte der Bürgerinnen und Bürger zur Testumgebung.

https://www.heise.de/news/KI-Muell-Consulter-gibt-Australien-Geld-zurueck-10726094.html

Kalifornien verordnet KI-Warnhinweise

Mit dem Gesetz SB 243 will Kalifornien KI-Chatbots entschärfen, vor allem zum Schutz von Jugendlichen. KI-Systeme sollen sich künftig klar als Maschinen zu erkennen geben, dürfen keine Fake-Berufe vortäuschen und müssen Informationen über die Interaktion protokollieren. Das Gesetz fordert Warnhinweise, Altersgrenzen und die eigentlich selbstverständlichen Transparenzpflichten. Anbieter, die dagegen verstoßen, sollen haften. Das ist unserer Meinung nach ein Schritt in die richtige Richtung. Doch die wirklich wirksame Kontrolle beginnt nicht beim Interface, sondern bei Geschäftsmodellen und der Frage, wer was über wen speichern darf.

https://www.heise.de/news/SB-243-Noch-ein-kalifornisches-KI-Gesetz-zum-Schutz-der-Jugend-10765036.html

OpenAI testet ChatGPT auf politische Schieflagen

OpenAI hat ein neues Verfahren gestartet, um politische Verzerrungen und Bias in ChatGPT zu erkennen: Kern sind 600 vorab kategorisierte Fragen (liberal vs. konservativ), entwickelt von externen Politikberater:innen. Die internen Tests zeigen: GPT‑4o neigt häufiger zu einseitigen Antworten als GPT‑5, das laut OpenAI in vielen Fällen näher an der Mitte liegt. Ziel dieser Maßnahme sei nicht Zensur, sondern Balance. Ah ja. Doch die Frage bleibt: Wer definiert eigentlich, was die Mitte ist? Und nach wessen Maßstab?

https://www.theverge.com/news/798388/openai-chatgpt-political-bias-eval

Bis zum nächsten Mal!

Herzliche Grüße senden Christa, Christine und Daniela

Zurück
Zurück

Ein bisschen Heuchelei, ein bisschen Hoffnung

Weiter
Weiter

Zwischen Datenrausch und Denklücke