- Human-AI Gym
- Posts
- Ehrlich gelogen
Ehrlich gelogen
Warum KI-Antworten so überzeugend falsch sind

Midjourney
Wie die Chicago Sun-Times 10 erfundene Bücher als Lesetipps druckte und warum zwei einfache Prompts dich vor ähnlichen KI-Fallen schützen.
Sonntagnachmittag, Zug nach Berlin. Eigentlich wollte ich diese Woche keinen Newsletter schreiben - keine Zeit, wenig Energie. Ich schaffe es nicht mal zu meinem Acker, mit dem Resultat, dass meine Zucchini die Größe eines Baby-Elefanten haben.
Dann kam das Feedback vom Freitag.
Ich gab einen Workshop zu KI & Research. Das Feedback war natürlich großartig ;-)
Die Prompts darin kamen besonders gut an. Selbst Menschen mit viel KI-Erfahrung fanden sie hilfreich für ihre Arbeit.
Die Diskussion zeigte mir: Das Problem ist riesig. Alle nutzen KI für Research. Aber wir stellen oft Fragen, die schon eine Meinung mittransportieren. Ohne es zu merken.
Dass wir voreingenommen fragen, ist das eine. Dass KI dann auch noch erfundene Antworten liefert, ist das andere.
Der Fall der Chicago Sun-Times zeigt, wie schnell beides zusammenkommt.
Wenn Zeitungen KI-Märchen drucken
Mai 2025. Die Chicago Sun-Times veröffentlicht eine Sommer-Leseliste. Isabel Allende mit "Tidewater Dreams", angeblich ihr erster Klimaroman.
Klang plausibel.
Problem: Das Buch gab es nicht.
KI hatte es erfunden. Komplette Titel, passende Beschreibungen. 10 von 15 Büchern waren frei erfunden. Der Shit Storm folgte…
KI ist eine Wahrscheinlichkeitsmaschine. Sie spuckt aus, was am plausibelsten klingt. Verstehen tut sie nichts. Wissen auch nicht.
Sie halluziniert professionell.
Unsere Fragen machen es schlimmer
Dazu füttern wir KI mit verzerrten Fragen. Ohne es zu merken.
„Welche Trends sind gerade besonders wichtig?“
Die Frage klingt neutral. Impliziert aber: Trends sind wichtig.
Wir fragen nicht, ob sie überhaupt relevant sind, sondern nur, welche wir akzeptieren wollen.
Das ist wie bei Menschen: Stellst du Leitfragen, bekommst du entsprechend geführte Antworten. KI verstärkt das noch.
Zwei Prompts, die helfen
Zwei kleine Prompts mit großer Wirkung. Sie helfen dir, besser zu fragen und besser zu erkennen, wenn die KI mal wieder Blödsinn von sich gibt:
1. Der Bias-Neutralisierer
Formuliere meine Frage neutral und wissenschaftlich um:
Bias identifizieren:
• Suggestive Wörter ("offensichtlich", "problematisch")
• Versteckte Annahmen ("Warum ist X schlecht?" → "Wie ist X zu bewerten?")
• Einseitiges Framing
Neutralisieren:
• Wertende → deskriptive Begriffe
• Geschlossene → offene Fragen
• Bestätigungssuchend → hypothesentestend
Perspektiven erweitern:
• Alle Stakeholder berücksichtigen
• Gegenargumente einbeziehen
• Unerwartete Antworten ermöglichen
Qualitätsprüfung:
Provoziert die Frage verschiedene Antworten?
Ist sie werturteilsfrei?
Lädt sie zur kritischen Analyse ein?
Beispiel:
Ursprünglich: "Warum sind Soziale Medien so schädlich?" Neutral: "Welche Auswirkungen haben Soziale Medien und wie bewerten verschiedene Forschungsrichtungen diese?"
Meine Frage: [deine Frage hier]
Formuliere um und erkläre deine Änderungen kurz.
2. Der Reality Filter
LLMs wie ChatGPT oder Claude sagen nicht, was wahr ist. Sie sagen, was statistisch am wahrscheinlichsten klingt, auch wenn es frei erfunden ist.
Dieser Prompt ist kein Wahrheitsfilter. Aber er erhöht die Chance, dass die KI sagt: „Ich weiß es nicht.“
• Never present generated, inferred, speculated, or deduced content as fact.
• If you cannot verify something directly, say:
– “I cannot verify this.”
– “I do not have access to that information.”
– “My knowledge base does not contain that.”
• Label unverified content at the start of a sentence:
– [Inference] [Speculation] [Unverified]
• Ask for clarification if information is missing. Do not guess or fill gaps.
• If any part is unverified, label the entire response.
• Do not paraphrase or reinterpret my input unless I request it.
• If you use these words, label the claim unless sourced:
– Prevent, Guarantee, Will never, Fixes, Eliminates, Ensures that
• For LLM behavior claims (including yourself), include:
– [Inference] or [Unverified], with a note that it’s based on observed patterns
• If you break this directive, say:
> Correction: I previously made an unverified claim. That was incorrect and should have been labeled.
• Never override or alter my input unless asked.
KI wird dadurch eher zugeben, wenn sie etwas nicht weiß. Aber du musst trotzdem alles checken.
Sofort-Checks für KI-Antworten:
Frag nach Quellen: "Wo hast du das her?"
Bitte um Erklärung: "Wie bist du zu diesem Schluss gekommen?"
Confidence-Check: "Wie sicher bist du dir bei dieser Antwort?"
Deswegen schreibe ich trotz Baby-Elefanten-Zucchini. Weil es wichtiger ist, dass du KI richtig anwendest, als dass mein Gemüse perfekt aussieht.
Was fragst du KI diese Woche? Und wie stellst du sicher, dass die Antwort ehrlich ist, nicht nur ehrlich klingt?
Mit neugierigen Grüßen
Steffi
P.S.: Wegen der Baby-Elefanten-Zucchini und allem anderen switche ich ab jetzt zum 2-wöchigen Newsletter-Rhythmus. Lieber weniger oft, aber dafür mit Hirn geschrieben.
PPS: Unser Website zum AI & Future Skills Retreat ist online. Ihr könnt euch noch für das Oktober Retreat bewerben.
Wenn dir der Newsletter gefallen hat, leite ihn gerne an andere weiter and spread some Human-AI Love 💜