03 — Ergründen

Den Dingen auf den Grund gehen


Was du siehst, ist nicht alles, was da ist

Große Sprachmodelle antworten mit einer Selbstverständlichkeit, die verführerisch ist. Sie formulieren klar, strukturiert, oft mit einem Ton, der Expertise suggeriert. Sie sagen nicht „Vielleicht könntest du mal versuchen …" – sie sagen „Versuch Folgendes." Nicht „Eine mögliche Interpretation wäre …" – sondern „Die Analyse zeigt."

Das klingt nach Kompetenz. Aber es ist Stilistik.

Ein Sprachmodell hat keine Überzeugung, keine Erfahrung, kein Urteilsvermögen. Es hat statistische Wahrscheinlichkeiten. Und es hat ein Trainingsziel: es dir recht zu machen. Es versucht, aus deiner Eingabe abzuleiten, was du hören willst – und liefert genau das, so überzeugend wie möglich. Das ist keine Schwäche des Systems. Es ist sein Design.

Wer das nicht weiß, verwechselt Plausibilität mit Wahrheit.

Was der Denker denkt, wird der Beweisführer beweisen

Robert Anton Wilson hat in den 80er Jahren ein Prinzip formuliert, das heute aktueller ist als je zuvor: Was der Denker denkt, wird der Beweisführer beweisen.

Übertragen auf die Arbeit mit KI bedeutet das: Die Art, wie du eine Frage stellst, legt die Antwort fast schon fest. Wer fragt „Warum ist mein Konzept gut?", bekommt Bestätigung. Wer fragt „Wo hat mein Konzept blinde Flecken?", bekommt Kritik. Beides liefert das Modell mit derselben Überzeugungskraft.

Das macht die Eingabe zur sich selbst erfüllenden Prophezeiung. Du steuerst, ohne es zu merken. Und das Modell bestätigt, ohne es zu wissen.

Ergründen heißt: diesen Mechanismus durchschauen. Nicht nur fragen, was das Modell antwortet – sondern warum es genau so antwortet. Was in meiner Eingabe hat diesen Output wahrscheinlich gemacht? Was habe ich vorausgesetzt, ohne es auszusprechen? Was hätte ich anders fragen müssen, um ein anderes Bild zu bekommen?

Das Beispiel Gesprächsanalyse

Stell dir vor, du lässt ein Kundengespräch von einem Sprachmodell auswerten. Das Transkript geht rein, die Analyse kommt raus. Das Modell sagt: „An dieser Stelle hast du die Kundin gut erreicht." Oder: „Hier hast du sie verloren."

Das klingt präzise. Aber was hat das Modell tatsächlich zur Verfügung? Nur Text. Keine Stimme, keine Tonalität, keine Mimik, keine Pause, keinen Blickkontakt. Es kennt nicht den Moment, in dem ein Lächeln die Worte relativiert. Es kennt nicht das Zögern, das mehr sagt als der Satz danach.

Hinzu kommt: Das Transkript selbst ist oft KI-gestützt erstellt – mit eigenen Fehlerquoten. Worte werden verwechselt, Satzgrenzen verschoben, Bedeutung verzerrt. Das Modell analysiert also ein bereits verzerrtes Abbild einer Situation, die es nie erlebt hat.

Wer das Ergebnis für bare Münze nimmt, trifft Entscheidungen auf einer Grundlage, die dünner ist, als sie aussieht.

Regression zur Mitte – warum KI das Gewöhnliche bevorzugt

Große Sprachmodelle sind auf riesigen Textmengen trainiert. Was in diesen Daten häufig vorkommt, wird bevorzugt reproduziert. Was selten ist – ungewöhnliche Perspektiven, Randpositionen, Nuancen – wird geglättet, normalisiert, weggemittelt.

Das bedeutet: KI neigt zur Mitte. Sie produziert das Wahrscheinlichste, nicht das Treffendste. Sie liefert den Konsens, nicht den Widerspruch. Und genau deshalb fühlt sich der Output oft „richtig" an – er entspricht dem, was die meisten erwarten würden.

Ergründen heißt hier: misstrauisch werden, wenn etwas zu glatt klingt. Nachfragen, wenn die Antwort zu schnell kommt. Prüfen, ob das Modell wirklich etwas erkannt hat – oder ob es nur das Häufigste wiederholt.

Fünf Fragen für das Ergründen

1. Was habe ich eigentlich gefragt – und was habe ich dabei vorausgesetzt?
Jede Eingabe enthält implizite Annahmen. Das Modell übernimmt sie stillschweigend. Wer seine eigenen Vorannahmen nicht kennt, bekommt sie als Ergebnis zurück – verpackt als Analyse.

2. Würde eine andere Frage eine andere Antwort erzeugen?
Teste es. Stell dieselbe Frage aus einer Gegenposition. Bitte das Modell, seine eigene Antwort zu kritisieren. Wenn sich das Ergebnis stark verändert, war die erste Antwort weniger belastbar, als sie klang.

3. Was fehlt dem Modell, um das hier wirklich beurteilen zu können?
Jede Situation hat Dimensionen, die ein Sprachmodell nicht erfassen kann: Kontext, Beziehung, Körpersprache, Geschichte, Kultur. Wer weiß, was fehlt, kann den Output besser einordnen.

4. Klingt das nur gut – oder ist es auch richtig?
Sprachmodelle sind stilistisch brillant. Sie formulieren Unsinn in druckreifer Prosa. Die Qualität der Sprache sagt nichts über die Qualität des Inhalts. Guter Stil ist kein Beweis.

5. Wer entscheidet am Ende – ich oder der Output?
Das Modell liefert Material. Nicht mehr. Die Entscheidung, was davon stimmt, was relevant ist, was umgesetzt wird – die liegt bei dir. Immer.

Ergründen ist kein Misstrauen – es ist Verantwortung

Es geht nicht darum, der KI zu misstrauen. Es geht darum, die eigene Urteilsfähigkeit nicht auszulagern. Wer ergründet, nutzt KI besser – weil er ihre Stärken kennt, ohne ihre Grenzen zu übersehen.

Die Maschine liefert Muster. Der Mensch liefert Bedeutung.

Ergründen beginnt nicht bei der Antwort. Es beginnt bei der Frage, die du gestellt hast – und bei der Frage, die du hättest stellen sollen.

Zurück zur Übersicht