Wir haben zwei Jahre KI unterrichtet. Hier ist, was sich nicht geändert hat.
Die Modelle wurden besser. Die Tools wurden lauter. Doch die drei Fähigkeiten, die Teilnehmende in unseren Kohorten wirklich brauchen, sind dieselben wie 2023: präzise Fragen stellen, eine gute Zwischenstufe erkennen, den Stecker ziehen können.
Im Oktober 2023 sassen wir in einem Raum im Kreis 4, den wir uns damals mit einem Grafikbüro teilten, und unterrichteten die erste Kohorte AI Superpowers. 28 Menschen, acht Wochen, 48 Lektionen. Das Tool, das wir vor allem lehrten, war damals ChatGPT 3.5. Ein paar fortgeschrittene Teilnehmende hatten Early Access zu GPT-4. Claude kannte kaum jemand. Cursor gab es noch nicht. Midjourney v5 war neu.
Zweieinhalb Jahre später, elf Kohorten, über 800 Alumni. Die Modelle sind — und das meine ich ernst — nicht wiederzuerkennen. Was ein 2026er Sonnet mit einem 2023er GPT-3.5 verbindet, ist eigentlich nur der Name „Sprachmodell" und die Tatsache, dass sie in Text hinein- und aus Text herauskommen. Die Fähigkeiten sind qualitativ anders. Wir haben das Curriculum entsprechend elf Mal überarbeitet — manchmal um Woche 3 komplett neu zu schreiben, manchmal um die gesamte Bild-Sequenz auszuwechseln.
Und doch: Wenn ich die Teilnehmenden der ersten Kohorte frage, was ihnen geblieben ist — nicht welches Tool, sondern welche Fähigkeit — und wenn ich dieselbe Frage der Kohorte 11 stelle, bekomme ich dieselben drei Antworten. In unterschiedlichen Worten, aber dieselben drei.
Was beim Umgang mit KI wirklich zählt, ändert sich nicht mit dem Modell. Die Handwerks-Fähigkeiten bleiben. Nur die Demos altern.
Fähigkeit eins: Präzise Fragen stellen.
Das klingt wie eine Plattitüde. Ist es auch, bis man in einem Raum sitzt und zuschaut, wie eine HR-Leiterin ihrer KI die Frage stellt „mach mir ein besseres Onboarding" und 90 Minuten später immer noch das Gefühl hat, die Antworten seien „zu generisch".
Die Fähigkeit, die wir in acht Wochen aufbauen, hat wenig mit Prompt-Engineering-Cheatsheets zu tun. Sie hat damit zu tun, dass man in der Lage ist, das eigene Anliegen so zu zerlegen, dass die Maschine nicht raten muss, welches Stück Welt gerade gemeint ist.
„Ich denke erst, dann tippe ich. Zwei Sätze denken, dann ein Satz tippen. Die KI denkt nicht für mich."
Und das ist es. Nicht die Länge des Prompts entscheidet. Nicht der Markdown-Tag. Es entscheidet, wie klar der Mensch vor dem Tippen schon weiss, was genau er eigentlich will — und welche Randbedingungen zählen, die der Bildschirm nicht kennen kann.
Das war 2023 so. Das ist 2026 so. Und — wenn wir ehrlich sind — das war vor KI so, nur haben es die Leute damals hinter einem Arbeitsauftrag verstecken können. Heute fliegt einem die eigene Unschärfe innerhalb von drei Sekunden als Antwort zurück.
Fähigkeit zwei: Eine gute Zwischenstufe erkennen.
In fast jeder Kohorte kommt in Woche 4 der gleiche Moment. Jemand zeigt eine KI-Antwort, fragt in die Runde, ob das „schon gut" sei. Und die Runde antwortet mit einer Ehrlichkeit, die in jeder anderen Fortbildung tabu wäre: „Nein. Aber die Richtung stimmt."
Das ist die zweite Fähigkeit: einen Entwurf, ein Gerüst, eine 60-%-Lösung wertzuschätzen, ohne sie mit dem Endergebnis zu verwechseln. Die KI ist — in fast allen nicht-kreativen Aufgaben — eine exzellente Zwischenstufe. Sie spart einem die ersten zwei Entwürfe. Sie ist selten gut für den letzten.
„Die KI ist exzellent für Entwurf Zwei. Selten für Entwurf Neun."
Teilnehmende, die das begreifen, werden in ihrem Job rasch sehr viel schneller. Teilnehmende, die darauf bestehen, dass „die KI" doch das ganze Dokument „fertig machen" solle, stagnieren — und landen bei uns in der Office Hour mit derselben Frustration, die sie vor dem Kurs hatten, nur jetzt mit höheren Erwartungen.
Die Fähigkeit zur Zwischenstufe ist eine Form von Redaktions-Blick. Und den hatten früher Redaktionsleitungen, Lektorinnen, Creative Directors. Heute braucht ihn jede Person, die mit einem Textmodell arbeitet. Das ist keine schlechte Nachricht — das ist eine Demokratisierung, aber eine anstrengende.
Fähigkeit drei: Den Stecker ziehen können.
Das ist die unterschätzteste. Wenn KI eine Antwort liefert, die nicht weiterhilft, fangen die meisten Menschen an, noch mehr zu fragen. Noch einen Prompt. Noch einen Satz. Dann noch einen. Nach zwanzig Minuten haben sie vier Antworten, keine richtig gute, und die Geduld ist weg.
Die bessere Bewegung — und wir üben sie in Woche 6 explizit — ist: Stopp. Browser schliessen. Zwei Minuten denken, warum das nicht klappt. Fast immer ist es eins von drei Dingen:
- Die Aufgabe ist schlecht gestellt (siehe Fähigkeit eins).
- Die Aufgabe ist für KI nicht geeignet — weil sie Kontext braucht, den das Modell nicht kennen kann.
- Die Aufgabe ist für KI geeignet, aber nicht für dieses Tool — und man sollte das Werkzeug wechseln, nicht den Prompt.
In allen drei Fällen ist die Lösung nicht, länger zu tippen. Die Lösung ist, kurz aufzustehen. Ich habe in zwei Jahren Unterricht Kolleginnen beobachtet, die ihre Produktivität verdoppelt haben, nicht weil sie bessere Prompts schreiben — sondern weil sie nach 5 Minuten aussteigen, wenn es nicht läuft, und die Aufgabe selbst machen.
Was das für unser Curriculum bedeutet.
Wir werden die Demos weiter aktualisieren. Claude Sonnet 4.5, Cursor, was auch immer im Herbst herauskommt. Aber die drei Fähigkeiten bleiben das Rückgrat. Eine Woche pro Fähigkeit — plus Wiederholung, Tools, Fall-Studien. Acht Wochen, 48 Lektionen, so wie am ersten Tag.
Wenn also jemand fragt, wie man einen Kurs bauen soll, der ein Jahr später nicht veraltet ist: Das ist die Antwort. Nicht das Tool lehren. Das Handwerk lehren. Das Tool als Übungsraum benutzen.
Gustavo Caramello ist Gründer von Kuble und leitet die Kuble Academy. Er unterrichtet AI Superpowers seit Oktober 2023 und schreibt zweiwöchentlich im Kuble Journal.
Newsletter abonnieren.
Ein Essay oder ein Lab Note pro Woche. 14'000 Leserinnen und Leser. Kein Tracking, keine Ads, nur Klartext.
Abonnieren →AI Superpowers mit Gustavo.
Der Kurs, um den es hier geht. Acht Wochen, 48 Lektionen, in einer Kohorte von Peers.
Programm ansehen →