Claude Code zeigt: Der Prompt ist nicht das Problem — Skill schon
47-mal denselben Review-Prompt kopiert. PRs, interne Skripte, sogar die README eines Nebenprojekts. Der Prompt war offenbar nicht das Problem. Das eigentliche Problem war viel banaler und viel öfter zu sehen: Es fehlte ein Skill, der das Ergebnis trägt. Genau das ist die kleine Gemeinheit an der aktuellen KI-Nutzung: Viele diskutieren immer noch über die perfekte Formulierung, obwohl das System längst an anderer Stelle entscheidet.
Der Fall mit Claude Code ist deshalb mehr als eine nette Anekdote aus dem Alltag. Er zeigt, wie schnell sich die Debatte verschiebt: weg vom Prompt als Zauberformel, hin zu Fähigkeiten, die man früher gern unterschätzt hat. Wer mit KI arbeitet, braucht nicht nur einen Textkasten und ein paar gute Sätze. Man braucht ein Gefühl dafür, welche Aufgabe überhaupt delegierbar ist, welche Regeln fehlen, wo Kontext nötig ist und wann ein Tool schlicht zu viel darf. Der Prompt ist dann eher das Lenkrad. Nicht der Motor.
Das klingt selbstverständlich, wird in der Praxis aber dauernd verwechselt. Viele Teams bauen Prompt-Bibliotheken, als wäre Wiederverwendung schon Reife. Ist sie nicht. Ein sauberer Prompt kann einen schlechten Prozess nur schneller machen. Er macht aus Chaos keine Struktur, sondern nur schnelleres Chaos mit besserer Rechtschreibung. Genau deshalb ist der Hinweis aus dem Claude-Code-Fall so nützlich: Die Qualität lag nicht im Copy-Paste des Auftrags, sondern im Skill, mit dem das System eingesetzt wurde.
Hier liegt auch der blinde Fleck der aktuellen KI-Rhetorik. Ein Teil der Branche verkauft Prompts noch immer wie kleine Zaubertricks. Ein anderer Teil tut so, als löse das Tool die Arbeit von selbst. Beides ist falsch. In der Praxis entscheidet vor allem, ob ein Team drei Dinge beherrscht: saubere Aufgabenzerlegung, klare Qualitätskriterien und ein Minimum an Domänenwissen. Ohne diese drei Punkte wird aus KI schnell ein sehr teurer Zufallsgenerator mit guter Oberfläche.
Die Gegenposition ist nicht ganz unberechtigt. Gute Prompts sparen Zeit, senken Reibung und machen Arbeit reproduzierbar. Gerade in Support, Marketing oder bei Standardtexten kann ein starker Prompt viel bringen. Aber genau dort zeigt sich die Grenze: Sobald die Aufgabe mehr als Routine ist, reicht Copy nicht mehr. Dann braucht es Skill, also Urteilskraft. Wer nur kopiert, optimiert die Wiederholung. Wer versteht, verbessert den Ablauf.
Interessant ist dabei ein eher unpopulärer Punkt: Die eigentliche Produktivitätsgefahr ist nicht, dass KI zu wenig kann. Es ist, dass sie genug kann, um schlechte Arbeitsweisen zu verstecken. Ein Prompt, der jedes Mal halbwegs funktioniert, kann ein Team monatelang davon abhalten, den Prozess zu reparieren. Das ist der stille Preis von Prozesskosmetik. Es sieht nach System aus, ist aber oft nur ritualisierte Improvisation.
Für die Praxis folgt daraus etwas ziemlich Nüchternes: Nicht zuerst die Prompt-Sammlung ausbauen, sondern den Arbeitsablauf. Wer mit Claude Code, ChatGPT oder anderen Tools arbeitet, sollte vor jeder Vorlage drei Fragen klären: Was ist das Ziel? Woran wird gute Qualität erkannt? Was darf das Modell nicht entscheiden? Diese Fragen sind weniger glamourös als ein cleverer Prompt. Sie sparen aber mehr Zeit als jede Sammlung mit 47 Varianten.
Am Ende ist die aktuelle Entwicklung ziemlich klar: Prompting wird wichtiger, aber nicht mächtiger. Der eigentliche Hebel liegt im Skill, also in der Fähigkeit, KI so einzusetzen, dass sie Arbeit wirklich verkürzt statt nur sprachlich hübscher macht. Wer das ignoriert, sammelt weiter Prompts wie andere Leute alte Ladekabel. Man hat dann viel Material. Nur leider noch keinen besseren Prozess.