„Delve“ mal kurz in diesen Gedanken: Wir glauben, KI-Content performt genauso gut wie menschliches Schreiben, obwohl das Gegenteil gemessen und belegt ist. Wir glauben, der Inkognito-Modus schützt unser Gespräch über Steuern und Investments, obwohl er das laut einer Sammelklage gegen Perplexity offenbar nicht tut. Und wir glauben, AGI komme bald um die Ecke, obwohl ChatGPT noch nicht mal einen Timer stellen kann und dabei noch frech behauptet, es könnte das problemlos.
Der rote Faden dieser Ausgabe ist wieder mal eine Wahrnehmungslücke. 72 Prozent der SEO-Fachleute liegen mit ihrer Einschätzung zum KI-Content falsch. Vermutlich nicht aus Dummheit, sondern weil das Eingestehen teuer wäre. Kognitive Dissonanz kostet halt viel weniger als ein neuer Workflow. Und während wir fest an unsere eigene Urteilsstärke glauben, übernehmen wir still und heimlich das Vokabular einer Maschine. „Delve“ – auf Deutsch „eintauchen“ – war vor ChatGPT ein Wort, das mächtig viel Staub angesetzt hatte. Jetzt delven alle im englischen Sprachraum, das Max-Planck-Institut hat’s gemessen.
Dann ist da noch eine Gruppe von Wissenschaftler*innen, die AGI nüchtern definiert und feststellt, dass wir davon noch ein gutes Stück entfernt sind. Und eine Initiative, die sagt: Kein Mensch ist Fake – und damit nicht nur einen Hashtag liefert, sondern eine echte Anlaufstelle für Menschen, die digitaler Gewalt ausgesetzt sind. Außerdem gibt’s noch einen Tipp, wie du KI endlich nach Belegen fragst, statt ihr einfach zu glauben.
Ach ja, und Donald Trump hat die EU-Digitalgesetze entdeckt. Natürlich als Tauschmittel. Man kann sich über vieles wundern in dieser Ausgabe – vielleicht auch über die Idee, Zollpolitik und Datenschutz in denselben Verhandlungssack zu stecken.
Was gibt’s Neues vom MI-Siegel? Wir warten immer noch auf die Steuernummer. Unfassbar – auch vier Monate nach unserer Gründungsversammlung sind wir nicht voll einsatzbereit. Grmpf.
STUDIE
SEO-Studie: Platz 1 gehört dem Menschen. Überraschung.
Semrush hat sich eine Arbeit gemacht, die viele Content-Teams lieber nicht sehen wollen: 42.000 Blogbeiträge ausgewertet, 20.000 Keywords analysiert und dann die nackten Fakten auf den Tisch gelegt. Rein KI-generierter Content landet in gerade mal 9 Prozent der Fälle auf dem ersten Platz der Google-Suche. Von Menschen verfasste Texte: 80 Prozent. Wer hätte es gedacht. Na gut, alle außer denen, die unbearbeitete KI-Texte nicht von guten Texten unterscheiden können, ist klar …
72 Prozent täuschen sich selbst – und ihre Unternehmen
72 Prozent der befragten SEO- und Content-Marketing-Fachleute glaubten trotzdem, dass KI-Content genauso gut wie menschliche Texte performt. Eine bemerkenswerte Selbsttäuschung! Aber auch eine menschlich nachvollziehbare. Wer monatelang den halben Redaktionsstab durch Prompts ersetzt hat, will das im Nachhinein nicht als Fehler einordnen müssen. Kognitive Dissonanz ist billiger als eine Korrektur des Workflows.
Was sich aus diesen Zahlen auch ablesen lässt, ist, dass wir KI als Werkzeug falsch einsetzen. Schnelligkeit ist laut Befragung der größte Vorteil von KI-Content – 70 Prozent nennen ihn. Nur 19 Prozent sagen, KI verbessere die Qualität. Genau darin verbirgt sich die ganze Misere: Wir optimieren für Geschwindigkeit und wundern uns dann, warum die Ergebnisse mittelmäßig sind – und Google uns entsprechend abstraft. Google hat halt keinen Chef, dem man etwas schönreden kann.
Lasst die Profis wieder ran!
Das Argument, das du jetzt vielleicht im Kopf hast – „aber ab Position 5 ist der Unterschied doch viel kleiner“ – stimmt. Aber das rechtfertigt keinen Massenoutput ohne menschliches Urteil, sondern sorgt einfach nur für Mittelmaß. Herzlichen Glückwunsch, du rankst auf Position 7, direkt unter dem Mitbewerber, der seinen KI-Output noch schneller raushaut als du.
Doch wie kommen Teams, die auf KI first umgestellt haben, wieder zurück zu Qualität, ohne dabei den Prozess vollständig neu aufzubauen? Die Antwort ist ziemlich simpel und gleichzeitig die, die derzeit (noch) kaum jemand hören will: Menschliches Schreiben und Redigieren muss wieder als Kernleistung verstanden werden, nicht als optionaler Feinschliff über dem KI-Skelett. Das bedeutet, Texter*innen, Redakteur*innen, Journalist*innen, Übersetzer*innen, Lektor*innen – also Menschen mit Urteilsvermögen, Stilgefühl und dem Wissen, was eine Zielgruppe wirklich braucht – sind die Berufsgruppen der Stunde.
Tschüss, Automat. Hallo, Handwerk.
Auf der Website des MI Menschliche Intelligenz e. V. findest du jede Menge Content-Profis, die sich öffentlich zu etwas bekannt haben, das hoffentlich bald wieder Konjunktur hat: Qualität. Egal ob sie KI nutzen oder nicht: Wer das Siegel trägt, hat sich entschieden, Verantwortung für das zu übernehmen, was unter seinem oder ihrem Namen rausgeht. Handwerk mit Haltung eben – ein Gegenentwurf zu Prompt-and-publish, der ohne Massenoutput oder Ich-mach-mal-Content-nebenbei auskommt.
👉 Jetzt Siegel-Tragende finden
Zur Studie: https://www.semrush.com/blog/does-ai-content-rank-in-search-data-study/
FAKTEN
Echte Intelligenz? Superkomplex. Und einstweilen noch Menschensache.
Artificial General Intelligence kommt bald. Seufz, jaja … Doch was ist AGI überhaupt? Bei all dem vielen Gerede und Geraune zwischen Juchei und Auwei fehlt eine präzise Definition bislang. Dem hat sich nun eine Gruppe von Wissenschaftler*innen aus Universitäten und Forschungseinrichtungen weltweit angenommen. Arbeitshypothese: AGI besitze die Intelligenz einer leidlich gebildeten erwachsenen Person.
General Intelligence definierten die Forschenden dabei nach dem Cattell-Horn-Carroll-Modell, das in seiner ursprünglichen Version menschliche Intelligenz über insgesamt 10 kognitive Kategorien erfasst: Verständnis von vorhandenem Wissen, Lese- und Schreibfähigkeiten, Fähigkeit zum Umgang mit Zahlen, Fähigkeit zum Schlussfolgern, Kurzzeitgedächtnis, Langzeitgedächtnis, Abruf von Erinnerungen, Fähigkeit zur Analyse und Verknüpfung visueller Stimuli, Fähigkeit zur Analyse und Verknüpfung auditorischer Stimuli, Geschwindigkeit zur Erfassung/Verarbeitung von Erkenntnissen und Stimuli.
Die untersuchten Sprachmodelle GPT4 und GPT5 schneiden in den jeweiligen Kategorien höchst unterschiedlich ab, wie die Analysen zeigen. Dass die Lese- und Schreibfähigkeiten und das Rechnenkönnen der LLMs schon solide sind – keine große Überraschung. Auch beim Punkt „Wissen“ schneidet GPT5 mit 9 von 10 Punkten schon sehr gut ab. Ob hier allerdings „Comprehension“, sprich „Verständnis“ die richtige Bewertungsgrundlage ist? Wir hätten haben da Zweifel. Und: Gehört zur „Fähigkeit im Umgang mit Zahlen“ nicht auch das Zählenkönnen als die Basis fürs Rechnen überhaupt? Da scheint ChatGPT ganz offensichtlich noch überfordert – siehe unsere News dazu in dieser Ausgabe.
Wer sich auf A Definition of AGI durch die 10 Intelligenzkategorien klickt, kann sich nicht nur ein Bild davon machen, wie sich GPT4 und GPT5 im Einzelnen schlagen, sondern erfährt gleich nebenbei, wie wahnsinnig komplex das Zusammenspiel zwischen der Weltrealität und menschlicher Intelligenz ist.
Was wir mitnehmen? Die vielbeschworene AGI schielt gewiss noch nicht um die nächste Ecke.
KI-TIPP
Quellen-Quentin will Belege sehen
KI formuliert oft so, als hätte sie gerade in der Bibliothek nachgeschlagen – präzise, souverän, manchmal sogar leicht gelangweilt von deiner Unwissenheit. Was sie dabei verschweigt: Sie hat oft gar nichts nachgeschlagen. Studien, Zahlen, Namen, Jahreszahlen: A – alles wirkt belegt, nichts davon muss es sein. Halluzination heißt das im Fachjargon. Glatte Lüge wäre die bessere Bezeichnung.
Doch Quellen-Quentin ist relativ immun gegen Formulierungszauber. Dein Skeptiker checkt für dich den KI-Output:
- Kopiere eine KI-Antwort zurück in den Chat: „Welche konkreten Belege gibt es für diese Aussagen? Nenne Quellen mit Titel, Herausgeber und Jahr.“ Schau, was übrig bleibt.
- Frag nach Zahlen: „Woher stammt diese Zahl? Gibt es eine Originalstudie?“ Oft löst sich die Zahl in Luft auf.
- Lass Quentin sortieren: „Markiere, was belegbar ist – und was nur plausibel klingt.“ Der Unterschied ist oft erschreckend groß.
Und das Wichtigste: Teste alles selbst. Wirf jede von der KI genannte Studie in eine Suchmaschine. Oft existiert die angeführte Studie schlicht nicht.
Merksatz: Wer KI nicht nach Belegen fragt, glaubt ihr einfach. Und das geht gerne mal schief.
NEWS
Perplexity: Der Inkognito-Modus als Kulisse
Eine Sammelklage wirft Perplexity vor, über Jahre hinweg Millionen sensibler Chatverläufe an Meta und Google weitergegeben zu haben – darunter Gespräche über Steuern, Recht und Investments, die Nutzer*innen in dem Glauben führten, sie blieben privat. Kanal dafür sollen eingebettete Werbetracker wie Meta Pixel und Google DoubleClick gewesen sein. Laut Klageschrift bot der Inkognito-Modus dabei keinen Schutz: Eingeloggte Nutzer*innen wurden mitsamt E-Mail-Adresse erfasst, nicht eingeloggte sollen sogar über eine geteilte URL vollständig identifizierbar gewesen sein. Dabei betont Perplexity in seiner Datenschutzerklärung, sensible Daten weder zu verkaufen noch für verhaltensbasierte Werbung weiterzugeben. Da fragen wir uns, was genau der Inkognito-Knopf also tatsächlich schützt. Vielleicht das gute Gefühl beim Klicken?
Wir klingen immer mehr wie ChatGPT und merken es nicht
Forscher*innen des Max-Planck-Instituts haben in einer Studie über 740.000 Stunden menschlicher Sprache im englischsprachigen Raum ausgewertet – YouTube-Vorträge und Podcasts, aber auch spontane Gespräche – und festgestellt: Wörter, die ChatGPT besonders häufig verwendet (delve, comprehend, boast, swift, meticulous), tauchen in menschlicher gesprochener Sprache seit dem KI-Launch messbar häufiger auf. Die Studie belegt Anstiege von teils 25 bis 50 Prozent pro Jahr: „Delve“ war vor ChatGPT ein eher staubiges Wort, das praktisch nur in viktorianischen Romanen vorkam. Jetzt delven viele munter drauflos. Das zeigt eindeutig, dass nicht nur die KI von uns lernt, sondern wir offenbar auch von ihr. Ein Rückkopplungskreis, der sich quasi unbemerkt gerade schließt. Schön, wenn die eine oder andere alte Vokabel plötzlich wieder in ist, aber die sprachliche Vielfalt dürfte langfristig leiden, wenn wir der KI nach dem Mund reden.
https://arxiv.org/pdf/2409.01754
Kein Mensch ist Fake
„Kein Mensch ist illegal“, hieß es noch vor nicht allzu langer Zeit. Und heute? „Kein Mensch ist Fake.“ (Traurig, dass wir inzwischen betonen müssen, dass Menschen „kein Fake“ sind.) Janet Zentel und MI-Siegel-Träger Roger Basler de Roca haben eine Anlaufstelle für Aufklärung, Schutz und Hilfe bei KI-Fakes, Deepfakes und digitaler Gewalt geschaffen, die für dieses Thema sensibilisieren soll. Die Idee: Je mehr Menschen wissen, was gerade passiert und wohin sie sich im Ernstfall wenden können, desto weniger sind Betroffene mit digitaler Gewalt allein. Die Urheber*innen sind überzeugt: „Fortschritt entsteht nicht durch Technik allein, sondern durch die Art, wie Menschen sie nutzen.“ In diesem Sinne: gerne weiterverbreiten!
https://kein-mensch-ist-fake.de
US-EU-Techregulierung: Keine Deals ohne Dialog
Schafsfelle gegen Weizen, Salz gegen Seide, Kauris gegen Fisch – der Tauschhandel ist so alt wie die Menschheit. Der „Dealmaker“ aus dem Weißen Haus glaubte, eine neue hübsche Variante des ewig alten Themas gefunden zu haben: Tausche mit der EU „unfaire Behandlung von Tech-Konzernen“ gegen Zollerleichterungen! Es hagelte scharfe Kritik aus Europa: Wir lassen uns die bestehenden Digitalgesetze nicht aufweichen! Nun gibt es – vielleicht nicht die schlechteste Idee – einen Kompromiss in Form eines Gremiums für den permanenten Dialog zwischen den USA und der EU zu Regulierungsfragen.
- https://www.derstandard.at/story/3000000315397/trump-erkaempft-sich-mitspracherecht-bei-digitalgesetzen-der-eu
- https://www.heise.de/news/Bericht-EU-Kommission-will-US-Seite-bei-Techregulierung-enger-einbinden-11245086.html
Alleskönner ChatGPT? Noch nicht …
Was haben das Binden von Schnürsenkeln und Zählen gemeinsam? ChatGPT kann beides nicht. Auch die anderen Sprachmodelle tun sich schwer mit Dingen wie Zeiterfassung, dem Ablesen von Uhren und Ähnlichem, was mit Zählenkönnen zu tun hat. Nach dem fehlgeschlagenen Zeiterfassungsversuch eines TikTok-Users mit dieser Tatsache konfrontiert, winkt Sam Altman ab: „That’‘s a known issue“. ChatGPT hat im Versuch trotzdem rotzfrech darauf beharrt, zur Zeiterfassung in der Lage zu sein. Vielleicht in einem Jahr werde das halbwegs gut funktionieren, gibt Altman als Prognose aus. Wenn die stimmt, gibt es nächstes Jahr wenigstens eine unverfrorene ChatGPT-Lüge weniger.
