Kapitel neun
Wenn KI sich
irrt
Die Überprüfungsgewohnheiten, die
Amateure von Profis unterscheiden.
Die KI, die dir gerade einen makellosen Aufsatz geschrieben hat, kann dir mit der gleichen Überzeugung erzählen, dass Napoleon die Schlacht von Waterloo gewonnen hat. Sie wird nicht zögern. Sie wird nicht stottern. Sie wird eine komplett erfundene "Tatsache" im selben autoritativen Ton verkünden, den sie für alles andere benutzt. Das ist das Paradox im Umgang mit KI: Dieselbe Gewandtheit, die sie nützlich macht, macht sie gefährlich.
Plausibilität ist nicht Wahrheit
KI-Modelle rufen keine Fakten aus einer Datenbank ab. Sie sagen das nächste wahrscheinlichste Wort voraus. Wenn du nach etwas Realem fragst, leiten die Trainingsdaten sie zu korrekten Informationen. Wenn du nach etwas fragst, das es nicht gibt, sagt das Modell nicht "Das weiß ich nicht." Es generiert, wie eine korrekte Antwort aussehen würde -- komplett mit Namen, Daten und Quellenangaben. Alles erfunden.
Es gibt keine Korrelation zwischen dem, wie selbstsicher KI klingt, und dem, wie akkurat sie tatsächlich ist. Eine falsche Antwort und eine richtige Antwort sehen von außen identisch aus. Du kannst Genauigkeit nicht nach Ton, nach Details oder nach der Menge spezifischer Zahlen beurteilen, die die KI nennt. Der "klingt richtig"-Test ist wertlos. Deine einzige Verteidigung ist Überprüfung.
Wichtige Erkenntnis
KI hat kein Konzept von Wahrheit. Sie hat ein Konzept von Plausibilität. Sie generiert Text, der ins Muster passt -- ob dieser Text der Realität entspricht oder nicht.
Teste deinen Detektor. Kannst du erkennen, welche KI-Behauptungen echt und welche erfunden sind?
Zu wissen, wann KI falsch liegt, führt zu einer größeren Frage: Was kann sie niemals? Als Nächstes erkunden wir die Fähigkeiten, die hartnäckig, wunderschön menschlich bleiben -- und warum sie wichtiger sind als je zuvor.