Der Mensch, das unbekannte Wesen im KI-Zeitalter

Die AGI (Artificial General Intelligence) kommt gleich, die Tech Bros übernehmen die Macht – so lautet die Dauerschleife. Dabei sind die wichtigsten Fragen der Menschheit bis heute ungeklärt: Was ist Bewusstsein? Was macht uns noch aus, wenn Maschinen denken können? Philosoph Anders Indset hat dem alten Descartes-Satz neulich einen Twist verpasst, über den es sich lohnt, nachzudenken.

In dieser Ausgabe beschäftigen wir uns außerdem mit der Frage, was eigentlich bleibt, wenn Maschinen das Denken übernehmen. Und ob „Denken“ überhaupt der richtige Begriff ist für das, was uns als Menschen ausmacht. Spoiler: vermutlich nicht.

Gleichzeitig zeigt dieser Newsletter, dass KI auch dann unterwegs ist, wenn niemand groß drüber redet: in Windrädern, die Vögeln ausweichen oder in Satelliten, die Plastikmüll aufspüren. Und fünf Schüler*innen aus Delmenhorst haben das gebaut, woran Kultusministerien seit Jahrzehnten scheitern. Das alles existiert – parallel zur Pentagon-Posse um Anthropic, zu Autor*innen, die ihr Menschsein inzwischen auf den Buchrücken schreiben müssen, und zu einer Kennerin aus Kenia, die für 1,80 Dollar die Stunde dafür gesorgt hat, dass selbstfahrende Autos Katzen erkennen.

Wir gönnen euch als Leser*innen in dieser Ausgabe bewusst mal eine Verschnaufspause von dem ewigen Hin und Her zwischen zwei Extremen, wenn es um KI geht – der Euphorie und der Angst, die das Thema bei vielen Menschen wahlweise auslösen. KI existiert nicht in einer Welt, auch nicht zwei. Es sind viele. Wir entscheiden täglich, welche Welt wir stärken.

Und in Sachen MI-Siegel: Nun warten wir auf die Steuernummer und genießen dabei den speziellen Charme deutscher Verwaltungsprozesse – immer schön eins nach dem anderen.


NACHDENKEN

Descartes 2.0: menschliches Denken im KI-Zeitalter

KI-Tools entwickeln sich rasant weiter, keine Frage. Zwar ist die AGI immer noch nicht „just around the corner“, ebensowenig wie die vor allem von Tech Bros immer wieder an den Himmel gemalten monetären Segnungen, die der Welt (sprich/denke „uns Bros“) dank KI dermaleinst zuteilwerden. Doch die bange Frage, ob KI uns Menschen irgendwann doch den Garaus machen wird, steht immer noch im Raum.

Mit ihrem wundervollen Denkapparat haben Menschen das Werkzeug der Philosophie entwickelt, einen Schatz, den wir immer wieder heben können. Philosoph*innen graben schon seit Jahrtausenden nach Antworten auf Fragen, zu denen bislang noch keine*r eine Antwort gefunden hat, etwa Warum gibt es überhaupt etwas und nicht vielmehr nichts? Wem beim Unterfangen, sich das Nichts vorzustellen, mit der Zeit eher schwindelig wird, der*die versucht sich vielleicht an der Frage, was Geist ist oder Bewusstsein. Nicht minder schwieriges Terrain!

Cogito, ergo sum: Was René Descartes im 17. Jahrhundert formulierte, prägt unser aufgeklärtes Selbstbild als Menschen bis heute. Wir sind denkende Wesen und werden uns im Denken unserer selbst gewiss. Das war ein echter U-Turn, den Descartes da vollbracht hat – weg von Gott als Ausgangspunkt, hin zu uns selbst.

Sum, ergo cogito?

„Vieles Gewaltige lebt, doch nichts ist gewaltiger als der Mensch“, spricht der Chor in Sophokles’ Tragödie „Antigone“. Dass wir KI zuweilen bedrohlich finden, hat vielleicht schlicht damit zu tun, dass wir selbst sie erfunden haben. Und KI im Turbo-Entfesselungsmodus ist nicht das erste Beispiel dafür, dass an dem Satz „Die Lösungen von heute sind die Probleme von morgen“ was dran ist. Die ganze Fossilwirtschaft ist nur eines von vielen weiteren Beispielen, wie die gesamte Welt aktuell schmerzlich erfahren darf.

Und wenn es gar nicht so sehr das Denken ist, das uns als Menschen ausmacht? Fakt ist doch, dass wir Menschen mehr sind als das, was wir tagein, tagaus so denken, an Problemen lösen, an Infos verarbeiten, an Berechnungen vollbringen, an Entscheidungen treffen. Mensch versus Maschine: Denken wir daran am Ende mit einem falschen Begriff herum – Intelligenz? Der Philosoph Anders Indset stellte neulich auf LinkedIn genau diese Frage. Und gab dem Descartes‘schen Satz einen weiteren Twist, der ganz neue Horizonte eröffnet.

Lehnt euch zurück bei ’ner Tasse Tee oder einem Glas Wein und geht der spannenden Frage nach, worin genau aus philosophischer Sicht gesehen ein ganz wesentlicher Unterschied zwischen KI und Menschen liegt.

https://www.linkedin.com/pulse/mehr-als-denken-anders-indset-mbxbf


UTOPIE

Gut gedacht und gut gemacht. Ja, das gibt es auch!

Stell dir vor, KI macht etwas Sinnvolles. Ja, das gibt es wirklich! Und diese Beispiele sollten viel öfter gezeigt werden. Wir haben mal drei Stück rausgesucht:

Ein Satellit als Mülldetektiv

Forschende der EPFL Lausanne und der Universität Wageningen haben das System ADOPT entwickelt, das Plastikmüll-Teppiche im Meer per Satellit aufspürt – mit einer Auflösung von bis zu fünf Metern pro Pixel. Erkannt werden dabei sogenannte Windrows: mehrere hundert Meter lange Müllhalden mit hoher Kunststoffkonzentration, die bisher schlicht unsichtbar durch die Ozeane trieben. ADOPT geht noch einen Schritt weiter und berechnet, wohin der Müll in den nächsten 24 Stunden treiben wird, damit Bergungsschiffe nicht planlos durch den Ozean kurven wie Menschen bei IKEA, die ihre Einkaufsliste zu Hause vergessen haben. Leider läuft das Projekt bisher nur bis Herbst 2026.

https://punkt4.info/nachrichten/detail/news/forschende-identifizieren-plastikmuell-mithilfe-von-ki-und-satellitendaten

Das Windrad, das Vögeln höflich Platz macht

Ein Bürgerwindpark in Hohenlohe hatte ein in ganz Deutschland bekanntes Problem: Wo ein Rotmilan in der Nähe der Windräder auftauchen könnte, muss pauschal abgeschaltet werden. Und zwar unabhängig davon, ob der Greifvogel gerade wirklich vor Ort ist. Die Hohenloher haben daraufhin selbst getüftelt und entwickelt: BirdVision heißt das Ergebnis. Das KI-Kamerasystem mit 360-Grad-Blick erkennt Vögel und stoppt das Windrad innerhalb von 25 bis 30 Sekunden, wenn sich ein Vogel auf weniger als 200 Meter nähert. Und nach wenigen, vogelschützenden Minuten läuft es einfach weiter. Der begleitende Biologe bestätigte eine Erkennungsrate von über 90 Prozent. Wow.

https://www.swr.de/swraktuell/baden-wuerttemberg/heilbronn/birdvision-vogelschutz- und-windenergie-in-niedernhall-windpark-100.html

Der Gabelstapler, der auf den richtigen Ladezeitpunkt wartet

Das Schleswig-Holsteiner Startup encentive berechnet, wann ein Gabelstapler geladen werden soll – klingt unspektakulär, ist es aber nicht. Ein mittelständischer Betrieb mit Kühlhäusern, Wärmepumpe und PV-Anlage auf dem Dach trifft jeden Tag Dutzende Lade-Entscheidungen, ohne zu wissen, wann Strom günstig ist und wann die eigene Anlage gerade ohnehin zu viel produziert. encentive bringt alle Entscheidungsparameter zusammen und automatisiert die Abläufe. Mitgründer Daniel Ehnes sagt von sich, er habe eine „tiefe intrinsische Motivation – ein Satz, der in der derzeitigen Multimillionen-Dollar-Startup-Welt schon fast subversiv klingt.

https://wtsh.de/de/mit-ki-den-energieverbrauch-optimieren

Was diese drei gemeinsam haben

Diese drei Projekte zeigen, was möglich ist, wenn jemand mit KI-Unterstützung Fragen stellt, die uns alle angehen – und nicht nur darauf abzielt, Gewinne zu optimieren. Während anderswo KI-Systeme trainiert werden, um Fakenews, AI-Slop und generischen Mist zu produzieren, räumen diese hier den Ozean auf, retten Vögel und sparen Strom.

Das alles existiert gleichzeitig. Wir entscheiden, was uns wichtiger ist.


HÖREN – LESEN – SCHAUEN

KI als Therapeut*in?

ChatGPT, Claude oder Gemini um Antwort zu banalen Alltagsfragen bitten: soweit, so alltäglich. Immer mehr Menschen nutzen die Tools aber auch als Hilfe in psychisch schwieriger Lage. Können KI-Bots Menschen therapieren? Der Film begleitet vier junge Menschen, die die Technik um Rat in Lebenskrisen bitten. Der Schutz der eigenen Privatsphäre ist da nur eins der vielen Fragezeichen dabei. Außerdem gibt es ein Studio-Experiment: Erkennen Therapieklient*innen, ob sie mit einer KI oder einem Menschen sprechen?

https://www.ardmediathek.de/film/ich-werde-von-einer-ki-therapiert


KI-TIPP

Schubladen-Soraya fegt blinde Flecken weg

KI klingt so unparteiisch, doch das ist leider kompletter Unsinn. Denn was ein Modell für neutral hält, ist in Wirklichkeit ein aus Millionen Texten destillierter Mainstream – mehrheitlich englischsprachig, westlich, akademisch und urban geprägt. Besonders verhängnisvoll: Was nicht in diesen Texten vorkam, existiert für das Modell schlicht nicht. Etwa Perspektiven aus dem Globalen Süden oder die Sicht von Pflegekräften, Handwerker*innen oder Menschen, die nie die Chance hatten oder nutzen wollten, ihre Meinung ins Internet zu schreiben.

Dein Bias-Radar

KI soll auch nicht anecken oder jemanden vergraulen. Daher formuliert sie so lange um, bis alle ein bisschen (un)zufrieden sind. Genau hier kommt Schubladen-Soraya ins Spiel: Sie ist dein Bias-Radar. Du kannst mit ihr die KI aus ihrer bequemen Antwort-Routine herausholen und sie nach ihren eigenen Schubladen fragen.

So rufst du Soraya:

  • Kopiere deinen Text in den Chat und prompte zum Beispiel: „Welche Annahmen stecken in dieser Antwort?“ Oder „Wessen Perspektive fehlt hier komplett?“
  • Wechsle den Kontext: „Beantworte dieselbe Frage jetzt aus der Sicht einer Sozialarbeiterin in Lagos“. Oder einer Rentnerin im Ruhrgebiet. Schau, wie sich die Antwort verändert.
  • Frag direkt nach dem blinden Fleck: „Welche Gruppe oder Haltung kommt in deiner Antwort systematisch zu kurz?“ Aha-Effekte garantiert!.
  • Lass Soraya den Rahmen benennen: „Aus welcher kulturellen Warte heraus habe ich diese Frage eigentlich gestellt?“ Manchmal ist die Antwort darauf schon die eigentliche Erkenntnis.

Schubladen-Soraya zeigt dir, wo das Modell stillschweigend Annahmen macht, die du vielleicht gar nicht teilst, geschweige denn teilen wolltest, wenn du mal drüber nachgedacht hättest.

Merksatz: Wer KI nicht nach ihren Schubladen fragt, übernimmt sie einfach.


NEWS

Wir können Claude nicht sabotieren. Ehrenwort.

Das Pentagon hat Anthropic bekanntlich zum nationalen Sicherheitsrisiko erklärt, weil das Unternehmen seine KI im Kriegseinsatz sabotieren könnte. Anthropic beteuert per Gericht: Es gibt kein Backdoor, kein Kill-Switch, wir haben Claude längst nicht mehr so im Griff, wie ihr denkt. Äh? Dass Claude bis vor kurzem per 200-Millionen-Dollar-Vertrag für klassifizierte Militäreinsätze zugelassen war, ist unter diesen Umständen ziemlich … merkwürdig. Der Rettungsengel OpenAI hatte natürlich schon einen Vertrag in der Schublade und ist selbstlos sofort eingesprungen. Wer sagt, Silicon Valley sei nicht irgendwie romantisch? https://www.wired.com/story/anthropic-denies-sabotage-ai-tools-war-claude/

Fünf Schüler*innen bauen, was Kultusministerien nicht hinkriegen.

Fünf Gymnasiast*innen aus Delmenhorst haben ein KI-Tool namens SkillFIT entwickelt, das Sportnoten fairer machen soll – statt einheitlicher Tabellen werden nun endlich individuelle Ausgangsbedingungen berücksichtigt. Statt einer Fixzeit für die Eins im Sprint soll der persönliche Fortschritt zählen, inklusive chronischer oder vorübergehender Einschränkungen.  Eine Superidee! Die Erwachsenen dürfen jetzt gern mitschreiben. https://www.ndr.de/nachrichten/niedersachsen/oldenburg_ostfriesland/gymnasiasten-zeigen-wie-ki-sport-noten-fairer-machen-kann,ki-188.html

1,80 Dollar die Stunde. Dafür überfahren Autos keine Katzen.

Joan Kinyua aus Kenia hat jahrelang Straßenszenen gelabelt, damit selbstfahrende Autos Katzen von Baustellen unterscheiden können. Als sie Berlin besuchte, erkannte sie die Straßen – sie hatte sie schon tausendmal gesehen. Heute ist sie Präsidentin der Data Labelers Association und erklärt Politiker*innen geduldig, was Big Tech längst weiß und trotzdem ignoriert: Die Konzerne wissen, welche Schäden KI verursacht. Doch Konsequenzen gibt es nicht. Ein Anbieter zahlt nach Jahren Protest inzwischen 1,80 statt 1,50 Dollar die Stunde. Fortschritt sieht anders aus. Aber Hauptsache, das Auto kann eine Katze von einer Baustelle unterscheiden. https://netzpolitik.org/2026/versteckte-kosten-von-ki-sie-wissen-welche-schaeden-kuenstliche-intelligenz-verursacht/

„Human Authored“ – das neue Gütesiegel für Bücher.

Dass Bücher von Menschen geschrieben werden, galt lange als so selbstverständlich, dass es niemand extra auf den Buchrücken draufschreiben musste. Diese Zeiten sind vorbei. Die britische Society of Authors hat ein „Human Authored“-Logo eingeführt, das Autor*innen auf ihre Buchrückseite drucken können – freiwillig, weil die Regierung bislang keine Pflicht zur Kennzeichnung KI-generierter Inhalte eingeführt hat. Zum Launch auf der London Book Fair verteilten über tausend Autor*innen ein leeres Buch mit dem Titel „Don’t Steal This Book““  Schöne neue Literaturwelt. https://www.theguardian.com/technology/2026/mar/10/uk-society-authors-logo-identify-books-written-by-humans-not-ai