Wie Anthropics Agent-Teams meinen Coding-Workflow verändert haben
Vor drei Wochen war ich mitten in einem massiven Refactoring — der Migration eines Authentifizierungssystems über vierzehn Microservices — als Claude einfach... den Faden verlor. Nicht dramatisch. Nicht mit Fehlern. Schlimmer. Es begann Code zu produzieren, der technisch korrekt, aber kontextuell falsch war. Variablennamen aus Service A flossen in Service B ein. Konfigurationsdetails aus der ersten Stunde der Sitzung waren verflüchtigt. Das KI-Äquivalent eines Chirurgen, der zu lange im Operationssaal war.
Ich hatte die Mauer erreicht, gegen die jeder ernsthafte KI-unterstützte Entwickler schließlich stößt: Kontext-Degradation. Und ehrlich gesagt? Ich war kurz davor, KI-Agenten für alles außer Single-File-Aufgaben aufzugeben.
Dann lieferte Anthropic Agent-Teams. Und ich muss dir erzählen, was als nächstes passierte, denn es hat grundlegend umgeschrieben, wie ich über KI-unterstützte Entwicklung denke. Nicht auf die "klebe ein KI-Label auf alles"-Weise — auf die "das löst ein echtes Engineering-Problem, das ich nicht knacken konnte"-Weise.
Aber bevor ich zur Architektur und der eigentlichen Einrichtung komme, musst du verstehen, warum die offensichtliche Lösung — die, die die meisten von uns zuerst ausprobiert haben — nicht funktioniert. Dieser Teil überraschte mich mehr als alles andere.
Das Problem, Vor Dem Mich Niemand Gewarnt Hat
Das ist, was der KI-Coding-Hype-Zyklus dir nicht sagt. Single-Agent-KI-Assistenten degradieren. Nicht manchmal — vorhersehbar, zuverlässig, jedes einzelne Mal bei langen Sitzungen.
Ich bemerkte dieses Muster etwa sechs Monate nach intensiver Claude Code-Nutzung. Die ersten 20-30 Minuten einer jeden Coding-Sitzung? Brillant. Die KI erinnerte sich an jede Architekturentscheidung, fing Randfälle ab, die ich übersehen hatte, und schrieb Code, der sich anfühlte, als hätte ein Senior-Engineer ihn überprüft. Aber geh über die Stunde bei einem komplexen Projekt hinaus, und irgendetwas verschob sich.
Details begannen zu verschwimmen. Das Modell würde "vergessen", dass wir drei Prompts zuvor ein bestimmtes Fehlerbehandlungsmuster vereinbart hatten. Die Codequalität brach nicht ein — sie neigte sich sanft nach unten auf Arten, die leicht zu übersehen und teuer zu beheben waren.
Ich verfolgte dies über zwölf separate Projekte über zwei Monate. Meine groben Zahlen: Qualität blieb stabil für etwa 30-40 Minuten komplexer Arbeit, zeigte messbare Degradation um die 60-Minuten-Marke, und wurde unzuverlässig für differenzierte Entscheidungen nach 90 Minuten. Deine Erfahrung wird variieren, aber das Muster ist real.
Das ist übrigens kein Claude-spezifisches Problem. Es ist eine fundamentale Einschränkung davon, wie große Sprachmodelle Kontextfenster verwalten. Jedes Token der Gesprächshistorie konkurriert um Aufmerksamkeit mit der eigentlichen Aufgabe. Je länger die Sitzung, desto rauschender das Signal.
Was tust du also, wenn du KI brauchst, um bei Arbeit zu helfen, die Stunden dauert, nicht Minuten? Das ist die Frage, mit der Anthropic ringt. Ihre erste Antwort waren Sub-Agenten. Ihre bessere Antwort kam später — und die ist es wert, aufmerksam zu sein.
Sub-Agenten Waren der Verband, Nicht das Heilmittel
Als Anthropic Sub-Agenten einführte, war ich wirklich aufgeregt. Das Konzept war klar: Anstatt dass eine KI einen massiven, degradierenden Kontext aufrechterhält, startest du leichtgewichtige Hilfsagenten für spezifische Aufgaben. Sie erledigen ihre Arbeit in Isolation, geben eine Zusammenfassung zurück und werden beendet. Der Haupt-Orchestrator-Agent bleibt schlank.
Ich verwendete Sub-Agenten intensiv für etwa drei Monate. Sie funktionierten wunderbar für isolierte Aufgaben — "geh diese Datei analysieren und sage mir den Abhängigkeitsbaum", "schreib Unit-Tests für diese Funktion", "refactore diese Komponente, um TypeScript-Generics zu verwenden." Saubere Inputs, saubere Outputs, keine Kreuzkontamination.
Die Risse erschienen, wenn Aufgaben nicht wirklich isoliert waren.
Stell dir dieses Szenario vor: Ich baue eine REST API mit einem Frontend-Dashboard. Ich starte einen Sub-Agenten für den API-Endpunkt für Benutzerberechtigungen. Ein anderer Sub-Agent arbeitet an der Frontend-Komponente, die diesen Endpunkt aufruft. Beide Agenten arbeiten in derselben Codebasis.
Sub-Agent A entscheidet, dass die Berechtigungsprüfung ein flaches Boolean zurückgeben soll. Sub-Agent B, ohne jede Kenntnis von As Entscheidung, baut das Frontend in der Erwartung eines strukturierten Objekts mit Rollendetails. Keiner der Agenten tat etwas falsch in Isolation. Zusammen schufen sie ein Durcheinander, das mich länger zum Entwirren brauchte, als wenn ich beide Stücke selbst geschrieben hätte.
Das passierte dreimal in einer Woche, bevor ich die Wahrheit zugab: Sub-Agenten können nicht miteinander kommunizieren. Sie sind brillante Einzelarbeiter ohne Zusammenarbeitsfähigkeiten. Wie fünf Auftragnehmer einzustellen, die nie reden, und sich dann zu wundern, warum die Sanitäranlagen nicht mit der Küche verbunden sind.
Diese Einschränkung ist kein Fehler — es ist eine Designentscheidung. Sub-Agenten sollen billig, schnell und wegwerfbar sein. Kommunikation zwischen ihnen würde Komplexität und Token-Kosten hinzufügen. Für fokussierte Aufgaben sind sie immer noch meine erste Wahl.
Aber echte Softwareentwicklung ist keine Sammlung fokussierter Aufgaben. Es ist ein verflochtenes Netz, bei dem Entscheidungen in einer Datei durch Dutzende andere ripple. Ich brauchte etwas, das diese Realität bewältigen konnte.
Hier treten Agent-Teams ins Bild — und hier wird es aus architektonischer Sicht wirklich interessant.
Einblick in Anthropics Agent-Teams: Die Architektur, die Wirklich Funktioniert
Agent-Teams sind nicht einfach "mehr Sub-Agenten". Die Architektur ist grundlegend anders, und das Verständnis des Unterschieds ist wichtig, wenn du sie effektiv nutzen willst.
Das mentale Modell, das für mich klickte: Sub-Agenten sind wie einzelne E-Mails an separate Auftragnehmer zu senden. Agent-Teams sind wie alle in denselben Slack-Arbeitsbereich mit gemeinsamen Projektboards zu setzen.
Das System hat vier Kernkomponenten, und jede löst ein spezifisches Problem, gegen das ich meinen Kopf gestoßen hatte.
Der Team-Lead ist deine Haupt-Claude-Code-Sitzung — die, in die du tatsächlich tippst. Er erstellt das Team, weist Aufgaben zu und koordiniert den Gesamtaufwand. Denk daran als der technische Lead, der delegiert, aber selbst keinen Code schreibt. Ich komme darauf zurück, warum dieser "schreibt keinen Code" Teil kritisch ist.
Team-Mitglieder sind unabhängige Claude Code-Instanzen, jede mit ihrem eigenen Kontextfenster. Das ist die wichtigste Erkenntnis — sie erhalten frische Kontextfenster. Keine Degradation durch die lange Gesprächshistorie des Leads. Sie beginnen sauber und fokussiert auf ihre spezifische Zuweisung.
Die gemeinsame Aufgabenliste ist ein kollaboratives To-do-System, das für jedes Teammitglied sichtbar ist. Das klingt vielleicht banal, aber es ist die Funktion, die alles andere zum Laufen bringt. Wenn Teammitglied A den API-Endpunkt fertiggestellt und die Aufgabenliste mit dem gewählten Antwortschema aktualisiert hat, kann Teammitglied B das sehen, bevor es die Frontend-Komponente baut, die es konsumiert.
Das Postfach ist die Kommunikationsschicht. Teammitglieder können sich gegenseitig und dem Team-Lead direkt Nachrichten senden. "Hey, ich bemerkte, dass du camelCase für die API-Antwortfelder verwendest — soll ich das im Datenbankschema anpassen, oder transformieren wir auf der API-Schicht?" Diese Art von Echtzeit-Koordination war mit Sub-Agenten unmöglich.
Ich möchte konkret sein, wie das in der Praxis aussieht. Wenn ich ein Agent-Team hochfahre, teilt sich mein Terminal in mehrere Panes — ich verwende iTerm2, aber Tmux funktioniert auch. Jedes Pane zeigt ein anderes Teammitglied, das in Echtzeit arbeitet. Ich kann ihnen bei der Koordination zusehen und kann in jedes einzelne Pane springen, um direkte Anweisungen zu geben.
Diese Sichtbarkeit war ein unerwarteter Vorteil. Mit Sub-Agenten fand die Arbeit in einer Black Box statt und ich bekam eine Zusammenfassung. Mit Agent-Teams kann ich den Denkprozess sich entfalten sehen. Wenn etwas schiefläuft, fange ich es in Echtzeit ab, anstatt den Schaden in der Zusammenfassung zu entdecken.
Aber es gibt einen Haken, über den niemand in den Ankündigungsblogposts spricht. Dazu kommen wir — zuerst möchte ich dir zeigen, wie ich das tatsächlich eingerichtet habe und den Workflow, der funktioniert.
Agent-Teams Einrichten: Was Ich Mir Gewünscht Hätte, Dass Es Mir Jemand Gesagt Hätte
Agent-Teams sind noch experimentell. Anthropic hat sie nicht standardmäßig aktiviert, was eigentlich ein gutes Zeichen ist — es bedeutet, dass sie vorsichtig beim Ausrollen eines Features sind, das Token schnell verbrennen kann.
So aktiviere und konfiguriere ich sie. Öffne deine Claude Code-Einstellungen (entweder über das Einstellungsmenü oder die Befehlszeile) und suche nach dem experimentellen Feature-Flag für Agent-Teams. Schalte es ein. Du möchtest auch konfigurieren, wie viele Teammitglieder du möchtest — du kannst entweder eine Zahl angeben oder Claude basierend auf der Aufgabenkomplexität entscheiden lassen.
Mein aktuelles Setup verwendet drei Teammitglieder für die meisten Projekte. Ich habe früh fünf ausprobiert und der Koordinations-Overhead war es nicht wert. Zwei fühlte sich zu eingeschränkt an. Drei trifft einen Sweet Spot, bei dem du echten Parallelismus bekommst, ohne in der Inter-Agenten-Kommunikation zu ertrinken.
Schritt 1: Formuliere die Aufgabe auf Team-Lead-Ebene. Hier machen die meisten Leute einen Fehler. Gib dem Team-Lead keine Implementierungsdetails — gib ihm den Projektumfang. "Wir müssen ein Benutzerbenachrichtigungssystem hinzufügen, das E-Mail, In-App-Benachrichtigungen und eine Präferenzverwaltungs-UI umfasst" ist gut. "Schreib eine Funktion, die E-Mails über SendGrid sendet" ist schlecht — das ist eine Teammitglied-Aufgabe, keine Team-Lead-Aufgabe.
Schritt 2: Lass den Team-Lead die Arbeit zerlegen. Beobachte, was er jedem Teammitglied zuweist. Wenn die Zerlegung falsch aussieht, greife frühzeitig ein. Ich sah einmal, wie der Team-Lead die Datenbankmigration und den API-Endpunkt demselben Teammitglied zuwies, während einem anderen Mitglied nur das CSS-Styling gegeben wurde. Ausbalancieren bevor die Arbeit beginnt spart enorme Schmerzen.
Schritt 3: Überwache die gemeinsame Aufgabenliste. Wenn Teammitglieder Arbeit abschließen und die Aufgabenliste aktualisieren, prüfe, ob die Koordinationssignale korrekt sind. Wenn Mitglied A sagt "API gibt eine paginierte Antwort mit next_cursor-Feld zurück" und Mitglied B die Frontend-Paginierung baut, möchtest du verifizieren, dass B diese Information tatsächlich erhalten hat.
Schritt 4: Verwende das Postfach für Kurskorrekturen. Wenn ich eine Abweichung bemerke, schreibe ich dem spezifischen Teammitglied direkt. "Prüf die Aufgabenlistenaktualisierung von Mitglied A über die cursorbasierte Paginierung — aktualisiere deine Implementierung entsprechend." Direkt, spezifisch, umsetzbar.
Pro-Tipp: Weise Dateieigentum explizit zu. Sage jedem Teammitglied, welche Dateien sie besitzen und welche Dateien sie lesen, aber nicht ändern dürfen. "Du besitzt alles in /src/notifications/email/. Du kannst /src/notifications/types.ts lesen, aber nicht bearbeiten — das ist die Datei von Mitglied B." Diese eine Praxis eliminierte 80% der Merge-Konflikte, die ich hatte.
Noch eine Sache, die mich früh gestolpert hat: Teammitglieder erben nicht die Gesprächshistorie des Team-Leads. Wenn du zehn Minuten damit verbracht hast, Architekturpräferenzen mit dem Team-Lead zu besprechen, bevor du das Team gestartet hast, werden diese Präferenzen nicht automatisch geteilt. Füge aufgabenspezifischen Kontext in die Zuweisung jedes Mitglieds ein. "Verwende TypeScript-Strict-Mode, bevorzuge funktionale Komponenten, Fehlerbehandlung folgt unserem Result<T, E>-Muster" — schreib das in die Zuweisung, nicht in einen Pre-Team-Erstellungs-Chat.
Wenn du mir bis hierher gefolgt bist, weißt du bereits mehr über die praktische Einrichtung als die meisten Tutorial-Inhalte, die ich gefunden habe. Der nächste Teil ist, wo ich die echten Zahlen teile — was Agent-Teams tatsächlich kosten und ob die Ergebnisse es rechtfertigen.
Die Echten Zahlen: Kosten, Geschwindigkeit und Ausgabequalität
Ich werde ehrlich über etwas sein, über das die KI-Produktivitätsgemeinde nicht gerne diskutiert: Agent-Teams sind teuer.
Drei Teammitglieder parallel laufen zu lassen, bedeutet drei separate Claude Code-Instanzen, jede unabhängig Token verbrauchend. Plus die Koordinations-Token des Team-Leads, plus die Updates der gemeinsamen Aufgabenliste, plus die Postfachnachrichten. Mein grobes Tracking über den letzten Monat zeigt, dass Agent-Team-Sitzungen 3-4x kosten, was eine äquivalente Single-Agent-Sitzung kostet.
Hier sind meine tatsächlichen Daten aus einem repräsentativen Projekt — dem Aufbau eines Webhook-Verwaltungssystems mit einer REST API, Datenbankschicht, Admin-UI und Test-Suite:
Single-Agent-Ansatz: Etwa 2,5 Stunden aktive Sitzungszeit, moderate Qualitätsdegradation in der letzten Stunde, drei Fehler in der Code-Review gefunden, die auf Kontextverlust zurückzuführen waren. Token-Kosten von etwa $12.
Agent-Team-Ansatz (3 Mitglieder): Etwa 55 Minuten Wall-Clock-Zeit (der Parallelismus ist real), minimale Qualitätsdegradation, da jedes Mitglied ein fokussiertes Kontextfenster hatte, ein Koordinationsfehler, bei dem zwei Mitglieder leicht unterschiedliche Annahmen über Fehlercodes hatten. Token-Kosten von etwa $38.
Das Agent-Team war also 2,7x schneller in der Wall-Clock-Zeit, produzierte weniger kontextbedingte Fehler, kostete aber etwa 3,2x mehr Token.
War es die Mühe wert? Für dieses Projekt, absolut. Die drei Fehler aus dem Single-Agent-Ansatz haben mich jeweils 45 Minuten zum Diagnostizieren und Beheben gekostet — das sind über zwei Stunden gesparte Debugging-Zeit. Wenn ich meinen Stundensatz einrechne, hat sich die $26 Token-Prämie mehrfach amortisiert.
Aber hier ist der ehrliche Vorbehalt: Für einfachere Projekte — Dinge, die ich in einer einzigen fokussierten Sitzung ohne Kontextdegradation abschließen kann — sind Agent-Teams übertrieben. Ich greife immer noch auf einen einzelnen Agenten (oder Sub-Agenten für wirklich isolierte Aufgaben) zurück, wenn die Arbeit bequem in ein Kontextfenster passt.
Das Entscheidungsrahmen, das ich jetzt verwende:
- Einzelne Aufgabe, einzelne Datei, unter 30 Minuten? Reguläre Claude Code-Sitzung.
- Mehrere isolierte Aufgaben ohne Abhängigkeiten? Sub-Agenten. Sie sind billiger und schneller für parallel-aber-unabhängige Arbeit.
- Komplexe, verflochtene Arbeit über mehrere Dateien und erfordert Koordination? Agent-Teams. Die Kostenprämie ist durch Zeitersparnis und Qualitätsverbesserung gerechtfertigt.
Diese mittlere Kategorie — die Sachen, die nach Agent-Teams aussehen, es aber nicht wirklich tun — ist, wo die meisten Leute Geld verschwenden. Ein guter Test: Wenn du jede Unteraufgabe beschreiben kannst, ohne auf eine andere Unteraufgabe zu verweisen, brauchst du keine Agent-Teams. Du brauchst Sub-Agenten.
Die wahre Stärke von Agent-Teams zeigt sich, wenn Aufgaben tief verflochten sind. Und es gibt ein Designmuster, das ich verwende, das diese Stärke dramatisch verstärkt — aber zuerst muss ich dir von den Fehlern erzählen, die mich fast den gesamten Ansatz aufgeben ließen.
Fehler, Die Ich Gemacht Habe, Damit Du Das Nicht Musst
Fehler Nummer eins war, den Team-Lead Implementierungscode schreiben zu lassen. Das klingt kontraintuitiv — warum würdest du den Lead nicht beitragen lassen? Weil in dem Moment, in dem der Team-Lead beginnt, Code zu schreiben, er aufhört zu koordinieren. Ich sah es in Echtzeit geschehen: Der Lead wurde in die Implementierung einer Datenbankabfrage absorbiert und verpasste völlig, dass zwei Teammitglieder Postfachnachrichten mit Fragen zur Klärung gesendet hatten.
Die Lösung war einfach: Ich sage dem Team-Lead jetzt explizit "Deine Aufgabe ist nur Koordination. Schreib keinen Implementierungscode. Delegiere alles." Diese einzelne Anweisung transformierte die Qualität der Team-Ausgabe.
Fehler Nummer zwei war, zu viele Teammitglieder zu erstellen. Mein erstes Experiment verwendete fünf Mitglieder für eine Aufgabe, die wirklich drei benötigte. Das Ergebnis war Chaos — Mitglieder schickten sich ständig Nachrichten, die gemeinsame Aufgabenliste wurde eine Wand aus Updates, und ich verbrachte mehr Zeit damit, die Koordination zu überwachen, als ich aufgewendet hätte, den Code einfach selbst zu schreiben. Mehr Agenten ist nicht besser. Die richtige Anzahl von Agenten ist das Minimum, das für bedeutsamen Parallelismus benötigt wird.
Fehler Nummer drei — und dieser kostete mich echtes Geld — war das Nichtsetzen von Dateieigentumsegrenzen. Zwei Teammitglieder beschlossen beide, dieselbe Hilfsdatei zu "verbessern". Sie machten jeweils Änderungen, die einzeln sinnvoll waren, aber vollständig inkompatibel. Der Merge-Konflikt war ein Albtraum, weil beide Änderungssets tief mit der anderen Arbeit jedes Mitglieds verflochten waren. Das Zurückrollen beider bedeutete kaskadierende Änderungen über ihren gesamten Beitrag.
Nach diesem Vorfall habe ich eine harte Regel aufgestellt: Jede Datei hat genau einen Eigentümer. Wenn ein Teammitglied eine Datei ändern muss, die es nicht besitzt, sendet es eine Postfachnachricht an den Eigentümer, um die Änderung anzufordern. Ist das langsamer? Etwas. Verhindert es katastrophale Merge-Konflikte? Vollständig.
Fehler Nummer vier war das Unterschätzen des Koordinations-Overheads. Agent-Teams haben echte Kosten über Token hinaus — die menschliche Zeit für Überwachung, Kurskorrektur und Überprüfung ist nicht trivial. Für meine ersten fünf Agent-Team-Sitzungen verbrachte ich fast so viel Zeit mit der Teamverwaltung wie ich durch den Parallelismus einsparte. Es dauerte etwa zehn Sitzungen, bis ich die Instinkte entwickelt hatte, um effizient zu verwalten.
Das hätte ich von Anfang an tun sollen: Behandle die ersten paar Agent-Team-Sitzungen als Lerninvestitionen, nicht als Produktivitätswerkzeuge. Setze niedrige Erwartungen, konzentriere dich auf das Verständnis der Koordinationsdynamik, und baue deine Managementfähigkeiten auf, bevor du zeitkritische Projekte angehst.
Es gibt noch eine Einschränkung, die ich nicht erwähnt habe: Du kannst nur ein Team pro Sitzung betreiben, und das Verschachteln von Teams (ein Teammitglied, das sein eigenes Sub-Team spawnt) wird nicht unterstützt. Diese Einschränkung prägt, wie du Arbeit auf Arten zerlegst, die ich nicht erwartet hatte. Mehr darüber, was ich dagegen tue, in einem Moment.
Das Workflow-Muster, Das Alles zum Klicken Brachte
Nach all diesen Fehlern entwickelte ich ein Workflow-Muster, das ich "Fokussierte Spezialisten mit einem wachsamen Lead" nenne. Es ist nicht kompliziert, aber es ist die Ansammlung jeder Lektion, die ich auf die harte Tour gelernt habe.
Bevor ich die Team-Sitzung starte, verbringe ich 5-10 Minuten damit, ein Projektbriefing zu schreiben. Nicht für die KI — für mich. Ich identifiziere die 3-4 wichtigsten Arbeitsströme, kartiere die Abhängigkeiten zwischen ihnen und entscheide, welche Dateien zu welchem Arbeitsstrom gehören. Diese Vorausplanung ist die einzige höchste-ROI-Aktivität im gesamten Prozess.
Der Team-Lead bekommt einen strukturierten Prompt mit drei Dingen: dem Gesamtziel, der Zerlegung in Arbeitsströme und expliziten Regeln über Dateieigentum. Ich füge auch Koordinationsauslöser hinzu — "Wenn ein Teammitglied auf eine gemeinsame Typdefinition stößt, die geändert werden muss, muss es alle anderen Teammitglieder benachrichtigen, bevor die Änderung vorgenommen wird."
Jedes Teammitglied bekommt ein fokussiertes Briefing mit seinen spezifischen Liefergegenständen, seinen Eigentumsdateien, den Dateien, die es lesen, aber nicht ändern darf, und allen Einschränkungen, die auf seinen Arbeitsstrom zutreffen. Ich füge die technischen Standards (TypeScript-Strict, Fehlerbehandlungsmuster, Namenskonventionen) direkt in das Briefing jedes Mitglieds ein, weil sie die Gesprächshistorie des Leads nicht sehen werden.
Während der Ausführung prüfe ich die gemeinsame Aufgabenliste alle 3-5 Minuten. Ich suche nach zwei Dingen: abgeschlossene Aufgaben, die andere Arbeitsströme entsperren, und Abhängigkeitssignale, die Teammitglieder möglicherweise übersehen. Wenn ich etwas bemerke, animiere ich das relevante Teammitglied über das Postfach.
Am Ende überprüfe ich die kombinierte Ausgabe als Ganzes, bevor ich irgendetwas akzeptiere. Hier fängst du die subtilen Integrationsprobleme auf — vielleicht sind die Fehlercodes über alle drei Arbeitsströme konsistent, aber das Format der Fehlermeldungen unterscheidet sich leicht. Das vor dem Zusammenführen zu erkennen spart erhebliche Bereinigungszeit.
Dieses Muster hat meine Agent-Team-Verwaltungszeit von "kaum die Mühe wert" auf etwa 15-20% der gesamten Sitzungszeit reduziert. Das lässt mir eine Netto-Zeitersparnis von etwa 40-60% im Vergleich zu Single-Agent-Ansätzen bei komplexen, Multi-File-Projekten.
Etwas, das mich überraschte: Die Qualität der einzelnen Arbeitsströme ist oft höher als das, was ich von einer langen Single-Agent-Sitzung bekomme. Frische Kontextfenster machen einen echten Unterschied. Jedes Teammitglied arbeitet auf Spitzenniveau, weil es keine Stunde Gesprächshistorie angesammelt hat, die seine Aufmerksamkeit verdünnt.
Die eigentliche Magie ist nicht der Parallelismus — es ist die Kontext-Isolation. Jedes Teammitglied darf die "ersten 30 Minuten einer frischen Sitzung"-Version von Claude sein, was nachweislich die beste Version ist.
Was Das für Die Art, Wie Wir Software Bauen Werden, Bedeutet
Ich habe viel darüber nachgedacht, wohin dieses Muster führt. Nicht auf eine Hype-Zyklus, "alles ändert sich morgen"-Weise — auf eine praktische, "in was sollte ich jetzt Zeit investieren, um zu lernen"-Weise.
Agent-Teams sind das erste KI-Coding-Tool, das ich verwendet habe, das auf die Arbeitsweise echter Engineering-Teams abbildet. Ein technischer Lead, der koordiniert, aber nicht implementiert. Spezialisten, die spezifische Domänen besitzen. Kommunikationskanäle für übergreifende Belange. Geteilte Sichtbarkeit in den Projektfortschritt.
Diese Abbildung ist kein Zufall. Es funktioniert, weil dieselben Koordinationsprinzipien, die menschliche Engineering-Teams effektiv machen, auch KI-Agent-Teams effektiv machen. Klares Eigentum, explizite Kommunikation, fokussierter Kontext und zentralisierte Koordination.
Was ich im nächsten Jahr erwarte: Verschachtelte Teams (Teammitglieder, die ihre eigenen Sub-Teams für tief komplexe Arbeitsströme spawnen können), persistente Teams, die Sitzungen überdauern und Projektkontext über die Zeit aufbauen, und bessere Werkzeuge für die menschliche Überwachungsschicht — Dashboards, die Koordinationsprobleme aufzeigen, bevor sie zu Merge-Konflikten werden.
Ich erwarte auch, dass die Kosten deutlich sinken werden. Token-Kosten sinken konsistent, und wenn Anthropic das Koordinationsprotokoll optimiert, sollten die Overhead-Token abnehmen. Meine grobe Vorhersage: Innerhalb eines Jahres werden Agent-Teams 1,5-2x einen einzelnen Agenten kosten, anstatt 3-4x.
Die Engineers, die am meisten profitieren werden, sind diejenigen, die jetzt beginnen, ihre Teammanagementfähigkeiten aufzubauen, während das Feature noch experimentell ist und die Muster noch entdeckt werden. Wenn das mainstream wird, wird es ein echter Wettbewerbsvorteil sein, zwei Dutzend Agent-Team-Sitzungen hinter sich zu haben.
Aber ich möchte vorsichtig sein, zu viel zu versprechen. Agent-Teams machen schlechte Engineers nicht gut. Sie verstärken bestehende Fähigkeiten. Wenn du ein Problem nicht in saubere Arbeitsströme zerlegen kannst, werden Agent-Teams es nicht magisch für dich tun. Wenn du den Code, den deine Agenten produzieren, nicht verstehst, werden die Koordinationsprobleme dich auffressen. Die grundlegenden Fähigkeiten der Softwareentwicklung — Problemzerlegung, Systemdesign, Code-Review — werden mit Agent-Teams wichtiger, nicht weniger.
Und hier ist eine unpopuläre Meinung, auf die ich meinen Ruf setzen werde: Agent-Teams werden die Lücke zwischen Senior- und Junior-Engineers größer machen, nicht kleiner. Seniors, die effektiv zerlegen und koordinieren können, werden 3-5x Produktivitätsgewinne sehen. Juniors, die komplexe Probleme noch nicht zerlegen können, werden mit Agent-Teams kämpfen, genauso wie sie mit großen Codebasen kämpfen — das Werkzeug verstärkt die zugrunde liegende Fähigkeit.
Was Ich Heute Anders Machen Würde, Wenn Ich Von Vorne Anfinge
Wenn ich zu dem Tag zurückgehen könnte, an dem Agent-Teams veröffentlicht wurden, und neu anfangen könnte, hier ist genau das, was ich tun würde.
Erstens würde ich die ersten drei Sitzungen bei kleinen, risikoarmen Projekten verbringen. Nicht um die Fähigkeit des Features zu testen — um meine eigenen Koordinationsfähigkeiten zu testen. Ein KI-Team zu verwalten ist eine erlernbare Fähigkeit mit einer echten Lernkurve, und diese Schulgebühr bei einem Wegwerf-Projekt zu zahlen ist besser, als sie bei einem deadline-getriebenen zu zahlen.
Zweitens würde ich meine Dateieigentumsregeln festlegen, bevor ich das erste Team erstelle. Das Schreiben dieses Projektbriefings mit klaren Arbeitsstromgrenzen ist kein optionaler Overhead — es ist das Fundament, auf dem alles andere ruht. Überspring es und du zahlst mit Merge-Konflikten.
Drittens würde ich mit zwei Teammitgliedern beginnen, nicht drei. Zwei ist genug, um die Koordinationsdynamik zu lernen, ohne die Komplexität der dreieckigen Kommunikation. Füge ein drittes Mitglied hinzu, sobald sich das Zwei-Mitglieder-Muster natürlich anfühlt.
Viertens würde ich ein Protokoll über Koordinationsfehler führen. Jedes Mal, wenn zwei Teammitglieder inkompatible Arbeit produzieren, schreibe ich auf, was passiert ist und welches Signal ich verpasst habe. Nach zehn Sitzungen wird dieses Protokoll ein persönliches Playbook für das Antizipieren von Koordinationsproblemen, bevor sie sich manifestieren.
Fünftens — und das ist das, was ich mir gewünscht hätte, dass es mir jemand von Tag eins gesagt hätte — würde ich jede Agent-Team-Sitzung gegen den Single-Agent-Ansatz benchmarken. Nicht um das Dasein des Features zu rechtfertigen, sondern um ein ehrliches Gespür dafür zu entwickeln, wann es den Overhead wert ist und wann nicht. Dieses Gespür ist das Wertvollste, was du entwickeln kannst, und es kommt nur aus Vergleichsdaten.
Wähle Diese Woche Ein Projekt
Diese Authentifizierungsmigration, die ich am Anfang erwähnte? Die, bei der mein einzelner Agent nach einer Stunde den Faden verlor? Ich habe sie mit Agent-Teams erneut durchgeführt. Drei Mitglieder: eines für den Authentifizierungsdienst selbst, eines für die abhängigen Microservices und eines für die Integrationstests. Der Team-Lead koordinierte die Interface-Verträge zwischen ihnen.
Es dauerte 47 Minuten. Null Kontextdegradations-Fehler. Ein Koordinationsproblem — ein Teammitglied verwendete eine andere JWT-Bibliothek als die angegebene — in Echtzeit durch das Postfach abgefangen und korrigiert, bevor es sich ausbreitete.
Der Unterschied war nicht nur Geschwindigkeit. Es war Vertrauen. Zum ersten Mal seit Monaten habe ich KI-generierten Code über mehrere Services hinweg zusammengeführt, ohne dieses nagende Gefühl, dass irgendwo etwas Subtiles falsch war, an einem Ort, den ich noch nicht überprüft hatte.
Also ist das meine Herausforderung an dich: Wähle diese Woche ein Projekt, das du vermieden hast, weil es zu komplex für eine einzelne Agenten-Sitzung ist. Etwas, das mehrere Dateien berührt, koordinierte Entscheidungen erfordert und normalerweise einen ganzen Nachmittag in Anspruch nehmen würde. Richte ein Agent-Team ein. Folge den Mustern, die ich beschrieben habe. Akzeptiere, dass deine erste Sitzung chaotisch sein wird — meine war es sicherlich.
Dann messe das Ergebnis. Nicht gegen den Hype, nicht gegen den theoretischen Bestfall — gegen das, was du alleine oder mit einem einzelnen Agenten produziert hättest. Lass die Daten sprechen.
Denn die Frage ist nicht, ob KI-Agent-Teams die Zukunft des Codings sind. Die Frage ist, ob du herausfindest, wie du sie effektiv nutzt, bevor alle anderen es tun.
🤝 Lass Uns Zusammenarbeiten
Möchtest du KI-Systeme aufbauen, Workflows automatisieren oder deine Tech-Infrastruktur skalieren? Ich helfe dir gerne.
- 🔗 Fiverr (Custom Builds & Integrationen): fiverr.com/s/EgxYmWD
- 🌐 Portfolio: mejba.me
- 🏢 Ramlit Limited (Unternehmenslösungen): ramlit.com
- 🎨 ColorPark (Design & Branding): colorpark.io
- 🛡 xCyberSecurity (Sicherheitsdienste): xcybersecurity.io