JOURNAL/Essay
Essay · März 2026

Warum wir KI-Agenten 2026 nicht an echte Kunden lassen.

Nach vier Monaten Experimenten mit Agent-Frameworks bei drei Kundenprojekten: eine Bestandesaufnahme, die keinem Keynote-Diagramm gefallen wird.

FIELD NOTES · 2023 — 2026KUBLE JOURNAL
K

„Agent" ist 2026 das Wort, das auf jeder zweiten Keynote fällt. Autonome Systeme, die Aufgaben übernehmen, Tools benutzen, entscheiden, lernen. Wir haben vier Monate damit verbracht, drei dieser Systeme bei echten Kundenprojekten zu probieren — zwei bei KMU, eines bei einem grösseren Konzern.

Die Kurzfassung: In allen drei Fällen haben wir die Agenten am Ende entweder auf „Copilot-Modus" zurückgeschraubt oder komplett ausgebaut. Die längere Fassung ist differenzierter, aber die Tendenz ist klar.

Wo Agenten glänzen.

Dort, wo die Aufgabe gut abgegrenzt ist, der Output messbar, der Schaden bei Fehlentscheidungen klein und der Mensch nicht weiter als einen Click entfernt ist.

Konkret: Recherche-Aufgaben mit klaren Deliverables. „Find mir die zehn grössten Anbieter für X in der Schweiz, fass zusammen." Oder: Datenaufbereitung aus unsauberen Quellen. „Zieh aus diesen 200 PDFs die Rechnungsnummern raus." Solche Dinge. Da sind Agenten bemerkenswert gut — sogar schneller als Menschen, und mit akzeptabler Fehlerquote.

„Agent als Kopilot: hervorragend. Agent als Pilot: noch nicht."

Wo Agenten peinlich werden.

Dort, wo Kontext zählt, den das Modell nicht hat. Dort, wo ein Fehler nicht nur ein falscher Output ist, sondern eine Handlung mit Konsequenzen. Dort, wo der Agent im Namen von jemandem kommuniziert.

Beispiel: Ein Agent soll Kunden-Mails beantworten. Sieht in den Tests gut aus. In der zweiten Woche produktiv schreibt er einer Lieferantin, die seit zwanzig Jahren Rechnungen schickt, dass ihr Geschäftsmodell „nicht länger tragbar" sei. Weil ein Policy-Update die Regeln verschoben hatte, der Agent die Nuance nicht kannte, und niemand die Mail vorher las.

Der Schaden war reparierbar. Das Vertrauen nicht in zwei Wochen.

Unsere drei Regeln für 2026.

Wir sind nicht gegen Agenten. Wir glauben, dass sie in 18 Monaten da sind, wo sie heute noch nicht sind. Aber für 2026 gelten bei uns drei Regeln:

  1. Agenten schreiben Drafts, Menschen schicken Mails. Kein autonomes Kommunizieren mit Kunden, Lieferanten, Partnern.
  2. Agenten lesen, Menschen entscheiden. Klassifikation, Extraktion, Recherche — ja. Vertragsentscheidungen, Preisänderungen, Personalentscheidungen — nein.
  3. Agenten laufen in Sandboxes, nicht in Produktivsystemen. Wenn der Agent ein Tool aufrufen darf, dann in einer Umgebung, in der der Blast Radius klein ist.

Das ist weniger sexy als „der autonome KI-Assistent im Kundendienst." Aber es funktioniert. Und, ehrlich gesagt, in 12 Monaten reden wir nochmal — vielleicht ist dann der nächste Schritt möglich. Für jetzt: Kopilot, nicht Pilot.


Rafael Suter leitet den Swiss AI Desk bei Kuble. Er begleitet seit 2024 Schweizer Unternehmen bei KI-Projekten — und schreibt monatlich Essays und Gegenstimmen.

WÖCHENTLICH · GRATIS

Newsletter abonnieren.

Ein Essay oder ein Lab Note pro Woche. 14'000 Leserinnen und Leser. Kein Tracking, keine Ads, nur Klartext.

Abonnieren
8 WOCHEN · NÄCHSTE KOHORTE

AI Superpowers mit Gustavo.

Der Kurs, um den es hier geht. Acht Wochen, 48 Lektionen, in einer Kohorte von Peers.

Programm ansehen