Wichtigste Erkenntnisse
- 85,7 % aller Gespräche mit guten Ergebnissen enthielten Iteration – die erste Antwort ist fast immer nur ein roher Entwurf.
- Polierte Outputs senken die kritische Prüfbereitschaft, obwohl sie genau dann nötig ist.
- Nur 30 % der Nutzer sagen der KI, wie sie kommunizieren soll – das ist der einfachste Qualitätshebel überhaupt.
- Ein guter Prompt hat 6 Merkmale – mit dem interaktiven Scorer weiter unten kannst du deinen testen.
- Die Erkenntnisse basieren auf 9.830 echten Gesprächen, nicht auf Umfragen oder Expertenmeinungen.
Die meisten Leute behandeln KI-Chatbots wie eine Suchmaschine. Frage rein, Antwort raus, schnell weiter. Das funktioniert oft. Ist aber fast nie das beste Ergebnis, was rauskommen könnte.
Anthropic hat im Januar 2026 fast 10.000 echte Gespräche ausgewertet1. Nicht um zu zeigen, wie gut ihre KI ist, sondern um zu verstehen, welche Verhaltensweisen der Nutzer bessere Ergebnisse produzieren. Die Befunde sind konkret und an manchen Stellen überraschend. Wenn du KI regelmäßig nutzt, egal ob Claude oder ChatGPT, lohnt sich ein Blick auf diese Daten.
Inhaltsverzeichnis
Was “KI-Kompetenz” konkret bedeutet
Anthropic hat für diesen Report ein Framework mit 24 messbaren Verhaltensweisen verwendet, das die Professoren Rick Dakan und Joseph Feller entwickelt haben. 11 davon lassen sich direkt in Gesprächsverläufen beobachten.
Was lässt sich im Chat direkt messen?
Zum Kontext
Die Studie basiert auf Claude.ai-Nutzern, die mehrere Nachrichten gesendet haben. Das ist keine repräsentative Stichprobe aller KI-Nutzer. Die untersuchte Gruppe scheint mehr Erfahrungen mit dem Prompten zu haben. Die Zahlen zeigen eindrucksvoll, welche Verbesserungen möglich sind.
KI Chatbot besser nutzen: Warum die erste Antwort nie ausreicht
85,7 Prozent aller Chats mit guten Ergebnissen enthielten eine oder mehrere Iterationen: Nutzer haben auf Antworten aufgebaut, nachgefragt, korrigiert, vertieft. Chats ohne das? Haben ein deutlich schwächeres Ergebnis.
Im Schnitt zeigten iterative Gespräche 2,67 weitere Kompetenz-Verhaltensweisen als Gespräche, bei denen die erste Antwort einfach übernommen wurde. Wer nachhakte, war 5-mal häufiger bereit, die Begründung des Modells zu hinterfragen. Und 4-mal häufiger in der Lage, fehlende Informationen zu erkennen.
Warum passiert das so selten? Wahrscheinlich weil KI-Antworten fast immer vollständig und selbstsicher klingen. Das Gehirn registriert “sieht fertig aus” und macht weiter. Dabei ist das genau der falsche Moment.
Prompt: „Schreib mir eine E-Mail an einen Kunden, der sich über eine Lieferverzögerung beschwert hat.”
→ Generische E-Mail erhalten. Übernommen. Gesendet.
Problem: Das Modell kennt die Kundenbeziehung nicht, weiß nicht was schiefgelaufen ist, welcher Ton passt oder ob eine Entschädigung sinnvoll wäre. Die Antwort klingt professionell, trifft aber nicht wirklich.
Erster Prompt: „Schreib mir eine E-Mail an einen Kunden, der sich über eine Lieferverzögerung beschwert hat.”
Nachfass 1: „Der Ton ist okay, aber er ist Stammkunde seit 5 Jahren. Persönlicher bitte, und füge einen 10%-Rabatt als Entschädigung hinzu.”
Nachfass 2: „Der erste Satz klingt zu förmlich. Umschreiben – als würde man einen alten Bekannten ansprechen.”
Ergebnis: Eine E-Mail, die zur Situation, zum Kunden und zum eigenen Stil passt.
Was machst du jetzt mit dieser Antwort?
Klick dich durch drei kurze Fragen – am Ende bekommst du einen konkreten Prompt für genau deine Situation.
Das Polished-Output-Problem: Je besser es aussieht, desto mehr aufpassen
12,3 % aller Gespräche in der Studie erzeugten fertige Outputs: Code, Dokumente, interaktive Tools. Und da passierte etwas Merkwürdiges.
Am Anfang dieser Gespräche waren Nutzer besonders sorgfältig. Sie beschrieben ihr Ziel genauer (+14,7 %), gaben Formate vor (+14,5 %) und lieferten Beispiele (+13,4 %). Soweit so gut. Aber sobald das Modell etwas Poliertes ausgespuckt hatte, fiel die kritische Prüfung drastisch ab.
| Verhalten | Normale Gespräche | Mit fertigem Output |
|---|---|---|
| Ziel klar beschreiben | Basis | +14,7 % |
| Format vorgeben | Basis | +14,5 % |
| Beispiele liefern | Basis | +13,4 % |
| Fehlende Infos identifizieren | Basis | −5,2 % |
| Fakten prüfen | Basis | −3,7 % |
| Begründung hinterfragen | Basis | −3,1 % |
Die wahrscheinliche Erklärung: Wenn etwas fertig aussieht, behandelt das Gehirn es als fertig. Das ist eine nützliche kognitive Abkürzung im Alltag. Bei KI-Outputs kann sie teuer werden. Schließlich kann das KI-Modell sehr überzeugend klingen und denoch Fehler produzieren.
Regeln für “perfekte” Ergebnisse
Je professioneller ein Output aussieht, desto wichtiger ist es, aktiv nach Fehlern zu suchen und nicht passiv zu hoffen, dass schon keine Fehler enthalten sind.
7 Tipps für bessere KI-Ergebnisse – belegt durch echte Daten
Diese Tipps kommen nicht aus irgendwelchen “Best Practice”-Artikeln. Sie kommen direkt aus den Mustern in den 9.830 analysierten Gesprächen. Wer sie anwendet, gehört zu den besten 15 Prozent der Nutzer!
-
1Die erste Antwort immer als Entwurf behandeln Auch wenn sie gut klingt. Frag nach, push zurück, oder bitte das Modell, seine eigenen Schwachstellen zu benennen. Das kostet 10 Sekunden und macht fast immer einen Unterschied.
-
2Dem Modell sagen, wie es mit dir kommunizieren soll Nur 30 % tun das. Dabei ist es die einfachste Maßnahme überhaupt. Custom Instructions oder eine kurze Ansage zu Beginn wie „Widersprich mir, wenn meine Annahmen falsch sind” verändert die gesamte Gesprächsdynamik.
-
3Polierte Outputs bewusst hinterfragen Genau dann, wenn ein Ergebnis professionell und fertig aussieht, ist der richtige Moment für einen kurzen Check. Stimmt das? Fehlt etwas? Hält die Logik stand?
-
4Kontext liefern, nicht nur Aufgaben stellen Wer bist du? Für wen ist das? Warum brauchst du es? Je mehr das Modell über deinen konkreten Fall weiß, desto weniger generisch die Antwort.
-
5Das Modell denken lassen, bevor es antwortet „Erkläre mir erst deine Überlegung, dann gib die Antwort” führt regelmäßig zu durchdachteren Ergebnissen. Ohne diese Aufforderung springt das Modell gerne zur erstbesten plausiblen Antwort.
-
6Annahmen explizit prüfen lassen „Welche Annahmen hast du in dieser Antwort gemacht?” oder „Was spricht gegen diese Empfehlung?” – das deckt blinde Flecken auf, die das Modell sonst stillschweigend mitschleppt.
-
7Explizit sagen, was du nicht möchtest Kein Fachjargon, keine Aufzählungen, kein förmlicher Ton – negative Beispiele helfen dem Modell oft mehr als positive. Wenn du einen persönlichen Schreibstil willst, beschreib ihn so konkret wie möglich.
Prompt verbessern: 6 Vorlagen zum direkten Kopieren
Diese Formulierungen kannst du ans Ende oder den Anfang deines nächsten Prompts hängen. Sie funktionieren mit Claude, ChatGPT, Gemini und anderen Modellen. Mehr zum Thema Prompt Engineering findest du hier.
Kritisches Denken einfordern
Fertige Outputs absichern
Gegenannahmen einfordern
Teste deinen Prompt: Wie gut ist er wirklich?
Gib einen Prompt ein – der Scorer bewertet ihn nach 6 Kriterien und sagt dir konkret, was du verbessern kannst.
Gute vs. schlechte Angewohnheiten auf einen Blick
| Situation | ❌ Was die meisten tun | ✅ Was besser funktioniert |
|---|---|---|
| Erste Antwort kommt | Übernehmen und weitermachen | Nachfragen, was fehlt oder falsch sein könnte |
| Output sieht professionell aus | Vertrauen und loslassen | Genau jetzt kritisch prüfen |
| Gespräch beginnt | Direkt zur Aufgabe springen | Interaktionsstil und Erwartungen kurz festlegen |
| Antwort klingt plausibel | Akzeptieren | Nach Begründung und Gegenargumenten fragen |
| Ergebnis nicht ganz richtig | Neues Gespräch starten | Im selben Gespräch korrigieren und verfeinern |
| Komplexe Aufgabe | Alles in einem Prompt | In Schritte aufteilen, Schritt für Schritt iterieren |
Checkliste: 30 Sekunden vor dem nächsten KI-Gespräch
Ein kurzer Check lohnt sich
Wer sich diese sechs Punkte kurz überlegt, bevor er die erste Nachricht schickt, holt spürbar mehr raus. Und zwar unabhängig vom verwendeten Modell.
Fazit: KI Chatbot besser nutzen fängt im Kopf an
Der Anthropic-Report gibt kein Rezept für den perfekten Prompt. Was er zeigt, ist viel grundlegender: Wer einen KI Chatbot besser nutzen will, muss vor allem anders denken. Nicht nach der besten Frage suchen, sondern im Gespräch bleiben. Nicht bei poliertem Output entspannen, sondern genau dann hinschauen. Dem Modell sagen, was man erwartet, statt darauf zu hoffen, dass es die Erwartungen errät.
Dein nächster Schritt
Nimm eine der Prompt-Vorlagen aus diesem Artikel und teste sie beim nächsten KI-Gespräch. Eine kleine Veränderung reicht, um einen spürbaren Unterschied zu merken. Und wenn du wissen willst welche KI-Tools sich aktuell am meisten lohnen, findest du das hier.
Häufig gestellte Fragen zu Prompt verbessern
Gilt das nur für Claude oder auch für ChatGPT?
Der Report basiert auf Claude.ai-Gesprächen. Die beschriebenen Verhaltensweisen wie Iteration, kritisches Hinterfragen, klare Zieldefinition usw. helfen aber bei jedem anderen Sprachmodell. Einen direkten Vergleich von ChatGPT und Claude findest du hier.
Bedeutet "mehr iterieren" einfach, mehr Nachrichten schicken?
Nein. Iteration heißt inhaltlich aufbauen: eine Antwort kommentieren, eine Annahme anfechten, einen Aspekt vertiefen. Wer zehnmal "mach das kürzer" schreibt, iteriert nicht im Sinne der Studie. Es geht um qualitatives Weiterarbeiten, nicht um Quantität.
Kann ich die KI bitten, mich auf Fehler in ihrer eigenen Antwort hinzuweisen?
Ja, und das ist einer der unterschätztesten Tricks. „Was könnte an dieser Antwort falsch oder unvollständig sein?“ oder „Wenn du ein Kritiker dieser Lösung wärst, was würdest du bemängeln?“
Sind lange Prompts automatisch besser?
Nein. Entscheidend ist Relevanz, nicht die Länge des Prompts. Kontext, der die Aufgabe und das Ziel klarer macht, hilft dem KI-Modell extrem. Alles andere ist überflüssiges Rauschen. Mehr dazu im Prompt Engineering Guide.



Schreibe einen Kommentar