Klimasünder, Jobkiller, Fairnessfake.
Künstliche Intelligenz galt lange als das glänzende Versprechen der digitalen Zukunft: effizient, gerecht, klimafreundlich und geradezu unendlich skalierbar. Ein Werkzeug, das unsere Probleme nicht nur lösen, sondern gleich wegoptimieren sollte. Doch während die CEOs in ihren Privatjets gen Tech-Konferenz entschweben und per Video-Call Massenentlassungen verkünden, beginnt sich ein anderes Bild abzuzeichnen: eines, in dem der Fortschritt vor allem auf der Vernichtung von menschlicher Kreativität, Ressourcen, Arbeitsplätzen und sozialer Verantwortung basiert.
In dieser Ausgabe geht es um die Bruchstellen zwischen KI-Versprechen und Wirklichkeit: Ein Umweltbericht zeigt, dass ausgerechnet der digitale Hoffnungsträger zu einem krassen Klimasünder geworden ist. Parallel dazu entlassen Unternehmen ganze Abteilungen, weil angeblich der Algorithmus effizienter ist als jeder Mensch. Und das alles geschieht mit dem Verweis auf technische Notwendigkeit, wobei niemand so genau sagen kann, woher Strom und Wasser eigentlich kommen, die diese angebliche Notwendigkeit antreiben.
Doch die Effizienzillusion reicht tiefer: Immer häufiger wird KI als vermeintlich „faire“ Entscheidungshilfe in Schule, Verwaltung und Arbeitswelt eingesetzt. Was dabei auf der Strecke bleibt, ist der Kontext. Also genau das, was menschliches Leben ausmacht: Biografie, Beziehung, Ambivalenz, Ecken und Kanten. Und wer sich auf generative KI im Arbeitsalltag verlässt, merkt in vielen Arbeitsbereichen schnell, dass die Produktivität ausbleibt und der Schulungsaufwand wächst. Am Ende produziert die KI für uns Profis vor allem eines: Das Bedürfnis, alles noch mal selbst zu machen.
Wer immer noch glaubt, dass Fairness berechenbar, Arbeit automatisierbar und Klimaschutz KI-kompatibel sei, sollte diese Ausgabe besser nicht verpassen. Es könnte sein, dass der Fortschritt gerade eine Ehrenrunde im Kreisverkehr dreht – mit einem Navi, das “Zukunft” als Ziel hat, aber leider kein GPS-Signal empfängt.
Code is Poetry. Nur wen interessiert’s?
Schlank, performant und auf den Punkt. Als IT-Entwickler*in weißt du, wie viel Erfahrung und Können hinter jeder Zeile steckt. Dass jedes IT-Projekt eine umfassende Strategie braucht.
Wer dich beauftragt, möchte, dass es funktioniert und möglichst wenig kostet. Wie beweist du deinen Wert? Besonders, wenn du mit KI arbeitest, die dir vermeintlich Zeit spart – und deinen Preis drücken müsste?
Genau: Mit dem Siegel für Menschliche Intelligenz. Jetzt auch für IT-Entwickler*innen. www.mi-siegel.de
MEINUNG
Klimakiller KI: warum schöne Worte nicht mehr reichen (und Greenwashing nicht CO₂-neutral ist)
Künstliche Intelligenz soll unsere Probleme lösen, unsere Arbeit erleichtern und unser Leben optimieren. So versprechen uns das die BigTech-Unternehmen. Doch was, wenn ausgerechnet diese digitale Hoffnungsträgerin zum Klimakiller wird? Das französische KI-Unternehmen Mistral hat nun den ersten Umweltbericht seiner Art veröffentlicht – ein mutiger Schritt, der sich irgendwo zwischen Fortschritt und PR-Stunt bewegt. Denn was da ans Licht kommt, ist weder grün noch nachhaltig, sondern grau mit dramatisch-dürstender Tendenz. Die Zahlen sprechen für sich:
CO₂-Bilanz:
- 1,14 g pro Chat (ca. 400 Wörter)
- 20.400 Tonnen CO₂ in 18 Monaten – das entspricht dem Jahresausstoß von rund 4.500 Verbrennerfahrzeugen.
Wasserverbrauch:
- 45 ml pro Chat
- insgesamt 281.000 m³ in 18 Monaten – also rund 112 olympische Schwimmbecken. Cheers.
Und wir sind gerade noch in der Aufwärmphase. Denn der wahre Klimaknaller versteckt sich nicht im Gespräch mit der KI, sondern in ihrer Erziehung: Über 85 % des ökologischen Fußabdrucks entstehen beim Training der Modelle – ein Prozess, der etwa so energieeffizient ist wie ein Kohlekraftwerk aus den 1950er Jahren unter Volllast. Und dann wäre da noch die Hardware: Chips, GPUs, Serverracks. Alles ressourcenintensiv, energiehungrig und global gesehen so gerecht verteilt wie das Gratisbuffet beim Weltwirtschaftsforum.
Klar, wir wollen nicht nur meckern: Mistral zeigt immerhin als Erste Flagge. Transparenz ist ein Anfang. Aber leider eher ein Anfang mit Nebelmaschine. Der Bericht bleibt in vielen Punkten wolkig: Woher kommt der Strom? Woher kommt das Wasser? Es ist ja leider heute schon so, dass französische Atomkraftwerke im Sommer abgeschaltet werden müssen, weil die Flüsse nicht mehr genug Wasser führen. Und was passiert am Ende mit der Hardware?
Ein interessantes Gedankenspiel liefert der Bericht dennoch: das Verhältnis von Nutzung (Inference) zur Umweltbelastung als Maßstab – eine Art „Effizienz-Score“ für KI, analog zum Label für den Kühlschrank. Klingt gut, fühlt sich fast an wie Hoffnung. Aber zwischen Etikett und Ethik liegen oft Welten.
Was fehlt, ist ein verbindlicher, branchenweiter KI-Öko-Score. Einer, der nicht nur hübsch aussieht, sondern klare Ansagen macht: Woher kommt die Energie? Wie viel Wasser wird verbraucht – und wo kommt es her? Welche Lieferkette führt vom Rohstoff bis zum Datenzentrum? Solange solche Informationen freiwillig bleiben, dienen sie vor allem einem Zweck: dem grünen Selbstbild der Tech-Industrie. Und das ist ungefähr so beruhigend wie ein SUV mit Solardach.
Unser Fazit: Wenn wir zulassen, dass KI als Fortschrittsmaschine unreflektiert durchstartet, ohne Rücksicht auf Klima, Ressourcen und Gerechtigkeit, dann ist die Digitalisierung nicht nachhaltig, sondern raubt der Menschheit neben den Kreativleistungen auch noch die Ressourcen. Die große Transformation braucht mehr als Rechenleistung. Sie braucht Haltung, Transparenz und ein bisschen Demut. Etwa vor der Natur. Oder dem menschlichen Schöpfungsgeist.
Was denkst du? Brauchen wir einen verpflichtenden Öko-Score für KI? Oder reicht es, wenn die KI uns demnächst erklärt, dass das alles halb so wild sei – mit 1,14 Gramm CO₂ pro Antwort? Schreib uns gerne: info@mi-siegel.de
Zum Artikel: https://www.basicthinking.de/blog/2025/07/30/ki-umweltbericht/
EVENT
Hol dir das MI-Siegel und bekomme die Schulung „KI + Qualität im Marketing“ dazu – kostenfrei
Wie gelingt wirklich guter KI-gestützter Content? Nicht durch noch mehr Tools oder noch längere Prompts, so viel ist sicher. Sondern durch durchdachte Arbeits- und Denkprozesse.
In unserer Schulung lernst du, wie du mit KI effizient, markenkonform und nachhaltig arbeitest, ohne auf Qualität zu verzichten. Perfekt für alle, die KI im Marketing professionell und wirksam einsetzen wollen.
Nächster Termin: Dienstag, 16. September 2025, 9–12 Uhr
Preis regulär: 500 € zzgl. MwSt. – als Träger:in des MI-Siegels (120 € zzgl. MwSt./Jahr) bekommst du kostenfrei Zugang zur Schulung
Du möchtest teilnehmen und hast noch kein MI-Siegel? Hier kannst du dir das MI-Siegel holen.
Du möchtest ohne MI-Siegel teilnehmen? Dann melde dich bis Mittwoch, 10. September 2025, per Mail an info@mi-siegel.de
Mehr Infos: https://www.mi-siegel.de/schulung-ki-qualitaet
“Danke für den spannenden Workshop! Dank eures präzise aufgearbeiteten Inputs habe ich einen Einblick bekommen, wie die Large-Language-Modelle eigentlich funktionieren, und viele praktische Hinweise mitgenommen, wie man nutzbringend mit ihnen arbeiten kann – inklusive der Situationen, in denen man besser die Finger davon lässt und erst mal selber nachdenkt und konzipiert. Welche Fallen drohen, wie uns die KI an der Nase herumführen will.”
Jens Jürgen Korff M. A. – korffTEXT
NEWS
150 Stellen gestrichen – die KI übernimmt, der CEO fliegt privat
Der milliardenschwere Atlassian-Mitgründer Mike Cannon-Brookes hat die Streichung von 150 Stellen angekündigt – einige davon sollen künftig von KI-Technologien übernommen werden. Betroffen sind vor allem der Kundendienst, der sich zunehmend automatisieren lässt. Verkündet wurde die Entscheidung per Videoanruf aus dem Homeoffice. Auch Mitgründer Scott Farquhar verteidigte die Entlassungen und forderte gleich noch eine Reform des australischen Urheberrechts, damit KI ungehindert Daten sammeln kann. Weniger höflich gesagt: Callcenter raus, Datensaugmaschine rein. Oder: Die Automatisierung schreitet voran, menschliche Arbeitskraft wird zur austauschbaren Ressource. Kleines Detail: Erst Anfang des Jahres hatte Cannon-Brookes sich einen Privatjet für über 75 Millionen Dollar zugelegt, trotz seines öffentlichen Engagements für Klimaschutz. Wer weiß, vielleicht will er diese miese CO₂-Bilanz mit einem besonders empathischen Kündigungsschreiben ausgleichen …
https://futurism.com/ceo-lays-off-150-employees-replaced-ai
Gerechtigkeit als Score?
In einem kritischen Essay über Digitale Tanzformation warnt Autorin Alexa Steinbrück vor dem wachsenden Einfluss von KI-basierten Bewertungssystemen – etwa in der Schule, im Job oder bei Sozialleistungen. Was als objektive Metrik daherkommt, sei oft ein System der Entkontextualisierung: KI berücksichtigt keine individuellen Lebensrealitäten, sondern arbeitet nach standardisierten Mustern. Da bleibt kein Raum für das, was Menschen tatsächlich prägt. Besonders problematisch: Wenn sich politische Gerechtigkeitsversprechen auf technische Fairness-Claims stützen, geraten Macht- und Diskriminierungsfragen aus dem Blick. Wer den Kontext ausblendet, produziert am Ende nicht mehr Fairness, sondern technokratische Gleichförmigkeit – so lässt sich Steinbrücks Argumentation pointiert zusammenfassen. Die Forderung der Autorin: Technologie darf nicht über Menschen urteilen, ohne sie zu verstehen. Und Gerechtigkeit beginnt nicht im Algorithmus, sondern im sozialen Kontext. Dem schließen wir uns gerne an!
Wenn Effizienz zur Illusion wird
Der Hype um KI verspricht Produktivität, Einsparungen und Automatisierung auf Knopfdruck. Doch laut einem Beitrag der Computerwoche kann genau das Gegenteil eintreten: Viele Unternehmen tappen in die Zeit- und Kostenfalle, wenn sie generative KI-Tools unkritisch einsetzen. Gründe dafür sind u. a. unterschätzter Schulungsaufwand, mangelhafte Ergebnisse, hoher Prompt-Optimierungsbedarf sowie der Trugschluss, KI könne ohne menschliches Gegenlesen sinnvoll arbeiten. Statt Erleichterung entstehen so neue Abhängigkeiten von externen Plattformen (z. B. OpenAI) und versteckte Zusatzkosten – etwa durch Datenabfluss oder Lizenzmodelle. Besonders kritisch: Der Druck zur KI-Nutzung komme oft von oben, während die tatsächliche Mehrarbeit unten entsteht. Und wenn die Erwartungen nicht erfüllt werden, heißt es plötzlich: „Ihr macht’s falsch“ statt „Wir haben es falsch gedacht.“ Und wenn gar nichts mehr hilft, generiert die KI halt die Erfolgsmeldung.
