Künstliche Intelligenz

LangChain Deep Agents Harness-Profile: Praxisleitfaden

LangChain liefert Harness-Profile für Deep Agents: Prompts, Tools und Middleware pro Modell tunen. Praxisleitfaden für Mobile- und Automatisierungs-Teams.

İlker Ulusoy 2026-05-09 9 Min. Lesezeit

Am 7. Mai 2026 hat LangChain Harness-Profile für Deep Agents veröffentlicht — eine deklarative Möglichkeit, System-Prompt, Tools und Middleware eines Agenten pro Modell zu überschreiben. Profile für OpenAI-, Anthropic- und Google-Modelle sind ab Werk dabei. Für Teams, die Mobile, Automatisierung und Agent-Orchestrierung über mehrere Modelle hinweg betreiben, ist das das fehlende Stück zwischen "funktioniert auf GPT" und "funktioniert auf dem Modell, das der Router heute gewählt hat". Dieser Leitfaden erklärt, was Harness-Profile sind, warum eine Konfiguration pro Modell wichtig ist und wie sie neben n8n, Hermes Workspace und Sakana Conductor passen.

Im letzten Jahr lieferte der Deep-Agents-Harness einen Satz Prompts, eine Tool-Liste und einen Middleware-Stack, der über alle unterstützten Modelle hinweg gut funktionieren sollte. Das ist ein sinnvoller Standard für ein Single-Modell-Projekt. Es zerfällt leise in dem Moment, in dem eine Routing-Schicht wie Sakana Conductor im selben Lauf eine Aufgabe an Claude, die nächste an GPT-5 und eine dritte an Gemini schickt. Jedes Modell belohnt einen anderen Prompt-Stil, verträgt eine andere Tool-Oberfläche und braucht eine andere Output-Validierung. Harness-Profile sind LangChains Antwort: ein Konfigurationspaket pro Modell, das der Agent automatisch übernimmt, sobald ein bestimmter Anbieter oder ein bestimmtes Modell gewählt wird.

Die 30-Sekunden-Version

Harness-Profile sind deklarative Overrides für die Teile eines Deep-Agents-Harness, die pro Modell variieren: Prompt-Präfix und -Suffix, Tool-Auswahl und -Benennung, Middleware-Auswahl, Sub-Agenten und Skills. Profile für OpenAI, Anthropic und Google sind ab Werk dabei und werden zur Laufzeit mit Anbieter- und Modell-Overrides zusammengeführt. Heute in Python verfügbar; TypeScript folgt.

Was Harness-Profile tatsächlich liefern

Ein Harness-Profil ist ein YAML- oder JSON-gestütztes Konfigurationspaket, das nach dem Modellaufbau angewendet wird, ohne den Agenten neu zu schreiben. LangChain liefert sie als First-Class-Schicht in Deep Agents mit fünf Stellschrauben, die für produktive Agent-Orchestrierung zählen:

  • System-Prompt-Präfix und -Suffix — kurze, modellabhängige Blöcke, die den Basis-Prompt umrahmen. Ein Reasoning-Modell bekommt ein anderes Präfix als ein schnelles, günstiges Modell.
  • Tool-Auswahl und -Benennung — Tools pro Modell ein- oder ausschalten und dasselbe Tool umbenennen, damit es zur bevorzugten Konvention jedes Modells passt.
  • Middleware-Auswahl — Validatoren, Retries, Schema-Migrationen und Timeout-Richtlinien wählen, die zum Modell passen. Ein Modell, das JSON halluziniert, bekommt einen strengeren Validator als eines, das das nicht tut.
  • Sub-Agenten-Konfiguration — entscheiden, welche Sub-Agenten vom Eltern-Agenten erreichbar sind und wie sie im Prompt beschrieben werden, damit ein kleineres Modell nicht von einem 12-Sub-Agenten-Menü überfordert wird.
  • Skills — benannte Skills (Suche, Code-Ausführung, Retrieval) an das Profil binden, sodass jedes Modell nur die Skills sieht, die es gut beherrscht.

Profile registrieren sich unter einem Anbieternamen wie "openai" oder einem Anbieter-Modell-Schlüssel wie "openai:gpt-5.4". Anbieter- und Modell-Profile werden zur Laufzeit zusammengeführt, sodass ein Team OpenAI-weite Standards einmal setzen und nur die GPT-5.4-Zeile überschreiben kann, wenn ein neues Modell erscheint.

Warum Konfigurationen pro Modell zählen

In einem Single-Modell-Projekt landet jede modellabhängige Entscheidung im Basis-Prompt und in der Basis-Tool-Liste — und der Agent geht live. In einem Multi-Modell-Projekt verwandelt dieser Ansatz den Basis-Prompt in einen Kompromiss, der zu keinem Modell wirklich passt. Drei konkrete Verschiebungen machen den Aufwand Schritt für Schritt lohnenswert.

Verschiedene Modelle belohnen verschiedene Prompts

Reasoning-lastige Modelle lesen lange, strukturierte Prompts mit expliziten Plan-Schritten. Schnelle Chat-Modelle mögen kürzere, prägnantere Anweisungen. Derselbe Agent-Lauf, an zwei verschiedene Modelle geleitet, will zwei verschiedene Präfixe. Profile liefern beide, ohne dass der Agent-Code sich in einem verzweigten if model == "gpt"-Chaos verheddert.

Tool-Oberflächen sind nicht portabel

Ein Tool, das ein Modell sauber aufruft, wird von einem anderen falsch verwendet. Die Lösung ist nicht immer, das Tool neu zu schreiben. Oft genügt es, das Tool vor dem schwächeren Modell zu verbergen oder so umzubenennen, dass der Docstring zur Trainingsverteilung des Modells passt. Tool-Auswahl und -Umbenennung pro Profil hält die Implementierung einfach in einer Quelle.

Middleware-Bedarf hängt am Modell

Output-Validatoren, Schema-Migrationen, Retries und Node-Timeouts hängen alle davon ab, wie das Modell sich verhält. Ein Modell, das nach langen Läufen aus dem JSON-Schema wandert, braucht einen aggressiven Validator und einen Schema-Migrationsschritt; ein Modell, das das Schema einhält, braucht beides nicht. Middleware pro Profil zu verdrahten heißt, dass der strenge Pfad nur den Modellen zur Last fällt, die ihn wirklich brauchen, statt jedem Lauf.

Der Harness, nicht die Gewichte, ist die Fläche, auf der die meiste produktive Agent-Qualität lebt. Harness-Profile sind der sauberste Weg, das laut zuzugeben und eine Konfiguration auszuliefern, die die Form jedes Modells respektiert.

Anatomie eines Harness-Profils

Ein Profil ist klein. Es ersetzt nicht den Agent-Code; es lenkt den Harness um das Modell. Ein typisches Deep-Agents-Profil deckt dieselben fünf Felder ab, mit sinnvollen leeren Standardwerten:

FeldWas es steuertBeispiel
prompt.prefixKurzer Block vor dem System-PromptDenke Schritt für Schritt. Nutze das plan-Tool zuerst.
prompt.suffixKurzer Block nach dem System-PromptBei Unsicherheit eine gezielte Rückfrage stellen, statt zu raten.
tools.includeFür dieses Modell aktivierte Toolsplan, search, run_code
tools.renameUmbenennung pro Toolrun_code → execute_python
middlewareValidatoren, Retries, Timeoutsjson_schema_v2, retry_3x, timeout_60s
subagents.allowedWelche Sub-Agenten der Eltern-Agent starten darfresearcher, writer
skills.bindFür dieses Modell sichtbare Skillsweb_search, repo_read

Die Form ist der Punkt. Ein Profil ist ein Konfigurationsdokument, kein Code-Branch. Es kann neben der Modell-Registry liegen, in einem Pull Request reviewt werden und wie jedes andere Konfigurationsartefakt zurückgerollt werden, wenn ein Modell-Update das Verhalten ändert.

Wo Harness-Profile in den Stack passen

Harness-Profile ersetzen weder das Workflow-Tool, die Routing-Schicht noch die langlebige Runtime. Sie sitzen innerhalb der Agent-Schicht als Konfigurationsfläche pro Modell. Nebeneinander:

SchichtToolWas es besitzt
Visueller Workflown8nTrigger, Integrationen, lesbare Flow-Schritte
Mobile-OrchestrierungHermes WorkspaceFreigaben am Telefon und Agent-Steuerebene
RoutingSakana ConductorWählt, welches Modell welche Teilaufgabe übernimmt
Langlebige RuntimeCloudflare Project ThinkCrash-sichere Ausführung, Sub-Agenten, persistente Sessions
Langhorizont-SchwarmKimi K2.6300 parallele Sub-Agenten, 4.000 koordinierte Tool-Aufrufe
Harness-Konfiguration pro ModellLangChain Deep Agents ProfilePrompt, Tools, Middleware, Sub-Agenten, Skills pro Modell

Die Grenzen sind real. Sakana wählt das Modell. Project Think hält den Lauf am Leben. Hermes betreibt die Freigabeschleife am Telefon. LangChain Deep Agents Profile sorgen dafür, dass das von Sakana gewählte Modell danach so geprompted, betoolt und validiert wird, wie es das jeweilige Modell will.

Fünf praktische Anwendungsfälle für Halmob-artige Stacks

Multi-Modell-n8n-Flows

Ein n8n-Flow ruft heute einen Deep-Agent-Schritt auf, der nur auf einem Modell läuft. Anthropic- und Google-Profile hinzufügen, das Routing auf eine Kosten-Latenz-Policy zeigen lassen — und derselbe Flow funktioniert weiter, während sich das Modell darunter ändert. Die Flow-Visualisierung bleibt einfach; die Unterschiede pro Modell leben in den Profilen, nicht im Flow.

Telefon-freigegebene Läufe über mehrere Anbieter

Eine Hermes-Workspace-Nutzerin startet vom Telefon einen tiefen Recherche-Lauf. Das erste Bein nutzt ein schnelles Modell für die Query-Erweiterung; das zweite ein Reasoning-Modell für die Synthese. Profile tauschen Prompt und Toolset zwischen den Beinen, ohne dass es die Nutzerin merkt, sodass das Ergebnis, das sie freigibt, konsistent bleibt.

Mobile Assistenten mit Offline-tauglichem Fallback

Mobile Automatisierungen müssen oft weiterlaufen, wenn das Hauptmodell rate-limited oder nicht verfügbar ist. Ein Profil für das Fallback-Modell liefert eine engere Tool-Liste und einen strengeren Validator, damit aus einem Downgrade kein stiller Qualitätsverlust wird.

Compliance-fähige JSON-Ausgabe

Ein regulierter Workflow braucht jedes Mal schemakonformes JSON. Das Profil für das driftende Modell liefert eine Schema-Migrations-Middleware und 3x-Retry; das Profil für das nicht-driftende Modell liefert keines von beiden. Der Agent-Code bleibt ein Pfad; die Strenge wandert ins Profil.

Sub-Agenten-Menüs passend zum Eltern-Modell

Ein kleines Eltern-Modell, das ein 12-Sub-Agenten-Menü verwirrt, kann mit einem 3-Sub-Agenten-Profil laufen, während dieselbe Eltern-Rolle auf einem größeren Modell das volle Menü freigibt. Der Agent ist immer noch ein Agent; das Menü, das er sieht, ist profilgetrieben.

Warum das für Mobile-Automatisierung zählt

Harness-Profile pro Modell sind die Konfigurationsfläche hinter der Orchestrierungs-Geschichte aus Sakana Conductor Multi-Agenten-Orchestrierung und der langlebigen Ausführungsschicht aus Cloudflare Project Think. Sakana entscheidet, welches Modell eine Aufgabe übernimmt. Project Think hält den Lauf über Abstürze hinweg. Profile sorgen dafür, dass das gewählte Modell so geprompted, betoolt und validiert wird, wie es das Modell tatsächlich bevorzugt.

Wie loslegen

  1. 1Die Harness-Referenz von LangChain Deep Agents und den Launch-Beitrag zu Harness-Profilen lesen. Auf das Zusammenführen von Anbieter- und Modell-Profilen zur Laufzeit achten.
  2. 2Einen Deep Agent wählen, der heute schon — auch informell — auf zwei oder mehr Modellen läuft. Das ist der günstigste Ort, um den Wert eines Profils pro Modell zu spüren.
  3. 3Die modellabhängigen Teile aus dem Basis-Prompt in ein Profil verschieben. Mit Präfix, Suffix und Tool-Include-Liste anfangen; Middleware sobald die Baseline steht.
  4. 4Profile in die Routing-Schicht verdrahten. Wer Sakana Conductor oder einen ähnlichen Router nutzt, sollte den Profilschlüssel an die Modell-ID des Routers koppeln, damit eine Routing-Änderung auch eine Profil-Änderung ist.
  5. 5Profile-Auflösung instrumentieren. Loggen, welches Profil pro Lauf gewonnen hat, damit eine Regression nach einem Modell-Update leicht der geänderten Konfiguration zugeordnet werden kann.

Wer die Agent-Schicht noch sortiert, findet im OpenClaw-101-Leitfaden die Bausteine (Tools, Skills, Berechtigungen, Memory) und im Hermes-Workspace-Mobile-Beitrag die Freigabefläche am Telefon, die vor dem Agenten sitzt.


Das Fazit

Harness-Profile sind LangChains Eingeständnis, dass ein einziger Satz Prompts, Tools und Middleware nicht jedem Modell gerecht wird, und dass die Antwort Konfiguration ist, nicht Code. Prompt-Präfix, Tool-Auswahl, Middleware, Sub-Agenten und Skills werden zu modellspezifischen Overrides, die zur Laufzeit zusammengeführt werden. Für ein Team, das schon mit n8n, Mobile-Orchestrierung, einer Routing-Schicht und einer langlebigen Runtime arbeitet, ist das die Schicht, die denselben Agenten endlich scharf hält, während sich das Modell darunter ändert.

Die Frage für den nächsten Sprint ist einfach. Welcher Agent würde sich morgen besser verhalten, wenn Prompt, Tool-Liste und Validatoren dem Modell folgen, das der Router heute wirklich gewählt hat — statt dem einen Modell, auf das der Agent ursprünglich getuned wurde?