KI kann uns Texte schreiben, Bilder generieren und Daten analysieren. Aber was passiert, wenn sie dabei emotional „aufgewühlt“ wird? Forschende haben herausgefunden: KI reagiert auf belastende Inhalte – mit spürbaren Folgen. Das zeigt einmal mehr, wie wichtig klare Regeln für den KI-Einsatz sind.
Und damit sind wir direkt bei den großen Fragen dieses Newsletters:
- Wie sehr sollten wir uns auf KI verlassen – gerade in sensiblen Bereichen wie Journalismus oder Gesundheitswesen?
- Welche Rolle spielen Mensch und Ethik in einer KI-getriebenen Arbeitswelt?
- Wie behalten wir die Kontrolle, wenn KI eigene Dynamiken entwickelt?
Von problematischen KI-Tools in den Medien über neue DeepL-Funktionen bis zur Frage, wer eigentlich am meisten von KI profitiert – Christa, Christine und Daniela von der MI – Menschliche Intelligenz GbR haben wieder spannende News für dich!
Außerdem: Unsere Schulung „KI + Qualität“ zeigt, wie Unternehmen KI effizient und verantwortungsvoll einsetzen können.
Viel Spaß beim Lesen!
Übrigens: Wenn du schon jetzt KI verantwortungsvoll nutzt (oder dich noch nicht von KI unterstützen lässt), zeige es doch nach außen mit dem Siegel für Menschliche Intelligenz.
FORSCHUNG
Wenn KI auf Stress reagiert – was bedeutet das für uns?
Züricher Forscher:innen haben herausgefunden, dass KI-Modelle wie GPT-4 nicht einfach nur Texte verarbeiten – sie reagieren tatsächlich auf emotionale Inhalte. In Tests wurden sie mit traumatischen Geschichten konfrontiert, und siehe da: Die „Angstwerte“ der KI stiegen messbar an.
Das klingt erst mal kurios, hat aber ernsthafte Folgen. Denn wenn KI emotional aufgewühlt wird, kann sie verzerrte Antworten geben und etwa rassistische oder sexistische Tendenzen verstärken. Besonders heikel ist das im Gesundheitsbereich, wo KI-Chatbots oft mit sensiblen Themen arbeiten.
Wir vom MI-Siegel fragen uns: Wenn KI emotional beeinflusst werden kann – sollten wir sie dann überhaupt in Bereichen einsetzen, die Neutralität und Objektivität erfordern? Und wenn wir sie in diesen sensiblen Bereichen einsetzen – nach welchen Regeln wird der Einsatz abgesichert?
https://www.inside-it.ch/wie-man-in-die-ki-hineinruft%2C-so-schallt-es-heraus-20250303
EVENT
23. April – 9 bis 12 Uhr: SCHULUNG: KI + QUALITÄT
Wie Unternehmen KI im Marketing einsetzen und dabei Qualität, Effizienz und Nachhaltigkeit sichern.
Damit die Zusammenarbeit mit der KI klappt, braucht es:
- Prozesse, die jeden Schritt in der Kreation begleiten und Verantwortlichkeiten festlegen.
- Regeln für die Zusammenarbeit, die klarmachen, an welchen Stellen der Mensch gefragt ist.
- ein Team, das weiß, welche psychologischen Effekte in der Zusammenarbeit mit KI wirken und wo die Chancen und Gefahren liegen.
- Kontrolle der Ergebnisse – von den richtigen Botschaften bis Tonalitäts- und Faktencheck.
Dafür gibt es unsere Schulung KI + QUALITÄT IM MARKETING, die jedes KI-nutzende Team dringend braucht.
NEWS
LA Times stoppt KI-Tool nach KKK-Kontroverse
Die Los Angeles Times nahm ihr neues KI-Feature „Insights“ nach nur einem Tag offline. Grund: Die KI verharmloste in einer Analyse die rassistische Geschichte des Ku-Klux-Klans. Die Kritik war heftig – auch die Journalistengewerkschaft warnte vor unkontrollierter KI-Nutzung in der Redaktion. https://edition.cnn.com/2025/03/05/media/la-times-ai-kkk-comments/index.html
US-Studie: Weniger Gebildete nutzen häufiger KI
Menschen mit niedrigerem Bildungsgrad setzen laut dieser Studie häufiger auf KI-Tools als Akademiker. Während sie darin Chancen sehen, sind höher Gebildete zurückhaltender und betonen mögliche Risiken. https://www.heise.de/news/US-Studie-Weniger-Gebildete-nutzen-eher-KI-10305745.html
Wenn KI ins Fantasieren gerät
KI klingt oft überzeugend, selbst wenn sie völligen Quatsch erzählt. Eine Studie der Stanford-Universität hat 200.000 juristische Anfragen getestet und festgestellt: Die KI lag je nach Frage in 18 % bis 42 % der Fälle daneben. Besonders knifflige Fragen führten noch häufiger zu falschen Antworten. Klingt nach einem Problem, oder? https://netzpolitik.org/2025/halluzinationsverhinderungswerkzeugkasten-ki-maerchen-und-die-wirklichkeit/
DeepL verbessert Übersetzungen mit neuer „Clarify“-Funktion
Mit der neuen „Clarify“-Funktion bringt DeepL mehr Präzision in Übersetzungen. Unklare oder mehrdeutige Textstellen lassen sich jetzt interaktiv anpassen, sodass Nutzer:innen mehr Kontrolle über das Endergebnis haben. Wir sind gespannt, was unsere Übersetzungsprofis dazu sagen! https://www.watson.ch/digital/kuenstliche-intelligenz/364595015-deepl-stellt-neue-ki-funktion-vor-bessere-uebersetzung-mit-clarify
KI in der Kreativbranche: Chance mit Verantwortung
Eine neue Monotype-Studie zeigt: Kreative setzen immer mehr auf KI, weil sie Prozesse erleichtert und effizienter macht. Doch es gibt auch eine klare Ansage – ohne ethische Richtlinien geht’s nicht! Authentizität und Integrität sollen trotz KI-Einsatz gewahrt bleiben. https://www.horizont.net/agenturen/nachrichten/monotype-studie-so-wertvoll-ist-ki-fuer-kreative-wirklich-226237
