Am 7. Mai 2026 hat LangChain Harness-Profile für Deep Agents veröffentlicht — eine deklarative Möglichkeit, System-Prompt, Tools und Middleware eines Agenten pro Modell zu überschreiben. Profile für OpenAI-, Anthropic- und Google-Modelle sind ab Werk dabei. Für Teams, die Mobile, Automatisierung und Agent-Orchestrierung über mehrere Modelle hinweg betreiben, ist das das fehlende Stück zwischen "funktioniert auf GPT" und "funktioniert auf dem Modell, das der Router heute gewählt hat". Dieser Leitfaden erklärt, was Harness-Profile sind, warum eine Konfiguration pro Modell wichtig ist und wie sie neben n8n, Hermes Workspace und Sakana Conductor passen.
Im letzten Jahr lieferte der Deep-Agents-Harness einen Satz Prompts, eine Tool-Liste und einen Middleware-Stack, der über alle unterstützten Modelle hinweg gut funktionieren sollte. Das ist ein sinnvoller Standard für ein Single-Modell-Projekt. Es zerfällt leise in dem Moment, in dem eine Routing-Schicht wie Sakana Conductor im selben Lauf eine Aufgabe an Claude, die nächste an GPT-5 und eine dritte an Gemini schickt. Jedes Modell belohnt einen anderen Prompt-Stil, verträgt eine andere Tool-Oberfläche und braucht eine andere Output-Validierung. Harness-Profile sind LangChains Antwort: ein Konfigurationspaket pro Modell, das der Agent automatisch übernimmt, sobald ein bestimmter Anbieter oder ein bestimmtes Modell gewählt wird.
Die 30-Sekunden-Version
Was Harness-Profile tatsächlich liefern
Ein Harness-Profil ist ein YAML- oder JSON-gestütztes Konfigurationspaket, das nach dem Modellaufbau angewendet wird, ohne den Agenten neu zu schreiben. LangChain liefert sie als First-Class-Schicht in Deep Agents mit fünf Stellschrauben, die für produktive Agent-Orchestrierung zählen:
- System-Prompt-Präfix und -Suffix — kurze, modellabhängige Blöcke, die den Basis-Prompt umrahmen. Ein Reasoning-Modell bekommt ein anderes Präfix als ein schnelles, günstiges Modell.
- Tool-Auswahl und -Benennung — Tools pro Modell ein- oder ausschalten und dasselbe Tool umbenennen, damit es zur bevorzugten Konvention jedes Modells passt.
- Middleware-Auswahl — Validatoren, Retries, Schema-Migrationen und Timeout-Richtlinien wählen, die zum Modell passen. Ein Modell, das JSON halluziniert, bekommt einen strengeren Validator als eines, das das nicht tut.
- Sub-Agenten-Konfiguration — entscheiden, welche Sub-Agenten vom Eltern-Agenten erreichbar sind und wie sie im Prompt beschrieben werden, damit ein kleineres Modell nicht von einem 12-Sub-Agenten-Menü überfordert wird.
- Skills — benannte Skills (Suche, Code-Ausführung, Retrieval) an das Profil binden, sodass jedes Modell nur die Skills sieht, die es gut beherrscht.
Profile registrieren sich unter einem Anbieternamen wie "openai" oder einem Anbieter-Modell-Schlüssel wie "openai:gpt-5.4". Anbieter- und Modell-Profile werden zur Laufzeit zusammengeführt, sodass ein Team OpenAI-weite Standards einmal setzen und nur die GPT-5.4-Zeile überschreiben kann, wenn ein neues Modell erscheint.
Warum Konfigurationen pro Modell zählen
In einem Single-Modell-Projekt landet jede modellabhängige Entscheidung im Basis-Prompt und in der Basis-Tool-Liste — und der Agent geht live. In einem Multi-Modell-Projekt verwandelt dieser Ansatz den Basis-Prompt in einen Kompromiss, der zu keinem Modell wirklich passt. Drei konkrete Verschiebungen machen den Aufwand Schritt für Schritt lohnenswert.
Verschiedene Modelle belohnen verschiedene Prompts
Reasoning-lastige Modelle lesen lange, strukturierte Prompts mit expliziten Plan-Schritten. Schnelle Chat-Modelle mögen kürzere, prägnantere Anweisungen. Derselbe Agent-Lauf, an zwei verschiedene Modelle geleitet, will zwei verschiedene Präfixe. Profile liefern beide, ohne dass der Agent-Code sich in einem verzweigten if model == "gpt"-Chaos verheddert.
Tool-Oberflächen sind nicht portabel
Ein Tool, das ein Modell sauber aufruft, wird von einem anderen falsch verwendet. Die Lösung ist nicht immer, das Tool neu zu schreiben. Oft genügt es, das Tool vor dem schwächeren Modell zu verbergen oder so umzubenennen, dass der Docstring zur Trainingsverteilung des Modells passt. Tool-Auswahl und -Umbenennung pro Profil hält die Implementierung einfach in einer Quelle.
Middleware-Bedarf hängt am Modell
Output-Validatoren, Schema-Migrationen, Retries und Node-Timeouts hängen alle davon ab, wie das Modell sich verhält. Ein Modell, das nach langen Läufen aus dem JSON-Schema wandert, braucht einen aggressiven Validator und einen Schema-Migrationsschritt; ein Modell, das das Schema einhält, braucht beides nicht. Middleware pro Profil zu verdrahten heißt, dass der strenge Pfad nur den Modellen zur Last fällt, die ihn wirklich brauchen, statt jedem Lauf.
Der Harness, nicht die Gewichte, ist die Fläche, auf der die meiste produktive Agent-Qualität lebt. Harness-Profile sind der sauberste Weg, das laut zuzugeben und eine Konfiguration auszuliefern, die die Form jedes Modells respektiert.
Anatomie eines Harness-Profils
Ein Profil ist klein. Es ersetzt nicht den Agent-Code; es lenkt den Harness um das Modell. Ein typisches Deep-Agents-Profil deckt dieselben fünf Felder ab, mit sinnvollen leeren Standardwerten:
| Feld | Was es steuert | Beispiel |
|---|---|---|
| prompt.prefix | Kurzer Block vor dem System-Prompt | Denke Schritt für Schritt. Nutze das plan-Tool zuerst. |
| prompt.suffix | Kurzer Block nach dem System-Prompt | Bei Unsicherheit eine gezielte Rückfrage stellen, statt zu raten. |
| tools.include | Für dieses Modell aktivierte Tools | plan, search, run_code |
| tools.rename | Umbenennung pro Tool | run_code → execute_python |
| middleware | Validatoren, Retries, Timeouts | json_schema_v2, retry_3x, timeout_60s |
| subagents.allowed | Welche Sub-Agenten der Eltern-Agent starten darf | researcher, writer |
| skills.bind | Für dieses Modell sichtbare Skills | web_search, repo_read |
Die Form ist der Punkt. Ein Profil ist ein Konfigurationsdokument, kein Code-Branch. Es kann neben der Modell-Registry liegen, in einem Pull Request reviewt werden und wie jedes andere Konfigurationsartefakt zurückgerollt werden, wenn ein Modell-Update das Verhalten ändert.
Wo Harness-Profile in den Stack passen
Harness-Profile ersetzen weder das Workflow-Tool, die Routing-Schicht noch die langlebige Runtime. Sie sitzen innerhalb der Agent-Schicht als Konfigurationsfläche pro Modell. Nebeneinander:
| Schicht | Tool | Was es besitzt |
|---|---|---|
| Visueller Workflow | n8n | Trigger, Integrationen, lesbare Flow-Schritte |
| Mobile-Orchestrierung | Hermes Workspace | Freigaben am Telefon und Agent-Steuerebene |
| Routing | Sakana Conductor | Wählt, welches Modell welche Teilaufgabe übernimmt |
| Langlebige Runtime | Cloudflare Project Think | Crash-sichere Ausführung, Sub-Agenten, persistente Sessions |
| Langhorizont-Schwarm | Kimi K2.6 | 300 parallele Sub-Agenten, 4.000 koordinierte Tool-Aufrufe |
| Harness-Konfiguration pro Modell | LangChain Deep Agents Profile | Prompt, Tools, Middleware, Sub-Agenten, Skills pro Modell |
Die Grenzen sind real. Sakana wählt das Modell. Project Think hält den Lauf am Leben. Hermes betreibt die Freigabeschleife am Telefon. LangChain Deep Agents Profile sorgen dafür, dass das von Sakana gewählte Modell danach so geprompted, betoolt und validiert wird, wie es das jeweilige Modell will.
Fünf praktische Anwendungsfälle für Halmob-artige Stacks
Multi-Modell-n8n-Flows
Ein n8n-Flow ruft heute einen Deep-Agent-Schritt auf, der nur auf einem Modell läuft. Anthropic- und Google-Profile hinzufügen, das Routing auf eine Kosten-Latenz-Policy zeigen lassen — und derselbe Flow funktioniert weiter, während sich das Modell darunter ändert. Die Flow-Visualisierung bleibt einfach; die Unterschiede pro Modell leben in den Profilen, nicht im Flow.
Telefon-freigegebene Läufe über mehrere Anbieter
Eine Hermes-Workspace-Nutzerin startet vom Telefon einen tiefen Recherche-Lauf. Das erste Bein nutzt ein schnelles Modell für die Query-Erweiterung; das zweite ein Reasoning-Modell für die Synthese. Profile tauschen Prompt und Toolset zwischen den Beinen, ohne dass es die Nutzerin merkt, sodass das Ergebnis, das sie freigibt, konsistent bleibt.
Mobile Assistenten mit Offline-tauglichem Fallback
Mobile Automatisierungen müssen oft weiterlaufen, wenn das Hauptmodell rate-limited oder nicht verfügbar ist. Ein Profil für das Fallback-Modell liefert eine engere Tool-Liste und einen strengeren Validator, damit aus einem Downgrade kein stiller Qualitätsverlust wird.
Compliance-fähige JSON-Ausgabe
Ein regulierter Workflow braucht jedes Mal schemakonformes JSON. Das Profil für das driftende Modell liefert eine Schema-Migrations-Middleware und 3x-Retry; das Profil für das nicht-driftende Modell liefert keines von beiden. Der Agent-Code bleibt ein Pfad; die Strenge wandert ins Profil.
Sub-Agenten-Menüs passend zum Eltern-Modell
Ein kleines Eltern-Modell, das ein 12-Sub-Agenten-Menü verwirrt, kann mit einem 3-Sub-Agenten-Profil laufen, während dieselbe Eltern-Rolle auf einem größeren Modell das volle Menü freigibt. Der Agent ist immer noch ein Agent; das Menü, das er sieht, ist profilgetrieben.
Warum das für Mobile-Automatisierung zählt
Wie loslegen
- 1Die Harness-Referenz von LangChain Deep Agents und den Launch-Beitrag zu Harness-Profilen lesen. Auf das Zusammenführen von Anbieter- und Modell-Profilen zur Laufzeit achten.
- 2Einen Deep Agent wählen, der heute schon — auch informell — auf zwei oder mehr Modellen läuft. Das ist der günstigste Ort, um den Wert eines Profils pro Modell zu spüren.
- 3Die modellabhängigen Teile aus dem Basis-Prompt in ein Profil verschieben. Mit Präfix, Suffix und Tool-Include-Liste anfangen; Middleware sobald die Baseline steht.
- 4Profile in die Routing-Schicht verdrahten. Wer Sakana Conductor oder einen ähnlichen Router nutzt, sollte den Profilschlüssel an die Modell-ID des Routers koppeln, damit eine Routing-Änderung auch eine Profil-Änderung ist.
- 5Profile-Auflösung instrumentieren. Loggen, welches Profil pro Lauf gewonnen hat, damit eine Regression nach einem Modell-Update leicht der geänderten Konfiguration zugeordnet werden kann.
Wer die Agent-Schicht noch sortiert, findet im OpenClaw-101-Leitfaden die Bausteine (Tools, Skills, Berechtigungen, Memory) und im Hermes-Workspace-Mobile-Beitrag die Freigabefläche am Telefon, die vor dem Agenten sitzt.
Das Fazit
Harness-Profile sind LangChains Eingeständnis, dass ein einziger Satz Prompts, Tools und Middleware nicht jedem Modell gerecht wird, und dass die Antwort Konfiguration ist, nicht Code. Prompt-Präfix, Tool-Auswahl, Middleware, Sub-Agenten und Skills werden zu modellspezifischen Overrides, die zur Laufzeit zusammengeführt werden. Für ein Team, das schon mit n8n, Mobile-Orchestrierung, einer Routing-Schicht und einer langlebigen Runtime arbeitet, ist das die Schicht, die denselben Agenten endlich scharf hält, während sich das Modell darunter ändert.
Die Frage für den nächsten Sprint ist einfach. Welcher Agent würde sich morgen besser verhalten, wenn Prompt, Tool-Liste und Validatoren dem Modell folgen, das der Router heute wirklich gewählt hat — statt dem einen Modell, auf das der Agent ursprünglich getuned wurde?