Worum es geht
Ein klassisches LLM beantwortet Fragen aus seinem Trainings-Wissen — das hat ein Ablaufdatum.
Playbook
5. April 2026
Leseführung
Ein klassisches LLM beantwortet Fragen aus seinem Trainings-Wissen — das hat ein Ablaufdatum.
1Lies zuerst die Einordnung links. Sie erklärt dir, warum der Beitrag überhaupt relevant ist.
2Danach einmal komplett lesen. Der Beitrag ist kurz genug für einen sauberen Durchgang.
3Wenn du tiefer gehen willst, erst am Ende in die Quellen springen.
• Was sind Deep Research Agents?
• Bekannte Implementierungen
• OpenAI Deep Research
• Claude Research Mode
Ein klassisches LLM beantwortet Fragen aus seinem Trainings-Wissen — das hat ein Ablaufdatum. Deep Research Agents gehen weiter: Sie durchsuchen das Web in Echtzeit, synthetisieren Dutzende von Quellen und erstellen umfassende Analysen, die einem menschlichen Research-Analysten ebenbürtig sind.
Deep Research ist ein Paradigma, bei dem KI-Agenten aktiv planen, suchen, abrufen und synthetisieren, statt nur aus dem Gedächtnis zu antworten. Die Architektur besteht aus vier Kernphasen:
OpenAIs Deep Research, angetrieben von einer o3-Variante, kann Hunderte von Online-Quellen analysieren und daraus Berichte auf Analysten-Niveau erstellen. Seit Februar 2026 lässt es sich an beliebige MCP-Server und Apps anschließen, Websuchen können auf vertrauenswürdige Domains eingeschränkt werden, und der Fortschritt ist in Echtzeit verfolgbar.
Anthropic hat für Claude einen ähnlichen Modus entwickelt. Entscheidend laut eigener Forschung: Die Autonomie eines Agents ist co-konstruiert von Modell, Nutzer und Produkt. Claude unterbricht sich selbst, wenn Unsicherheit besteht — ein bewusstes Design-Entscheidung gegen unkontrollierte Autonomie.
Perplexity war einer der Pioniere des Ansatzes: Jede Antwort wird mit Live-Websuchen untermauert und mit Quellen belegt. Für viele Recherche-Aufgaben ist es das zugänglichste Tool.
Ein minimaler Research-Agent in Python mit Pydantic AI:
from pydantic import BaseModel
from pydantic_ai import Agent
import httpx
class ResearchReport(BaseModel):
summary: str
key_findings: list[str]
sources_used: list[str]
confidence_score: float
agent = Agent(
model="anthropic:claude-sonnet-4-6",
result_type=ResearchReport,
system_prompt="""Du bist ein Research-Agent. Analysiere Themen gründlich.
Identifiziere die wichtigsten Erkenntnisse und bewerte deine Konfidenz."""
)
@agent.tool
async def web_search(query: str) -> str:
"""Sucht nach aktuellen Informationen im Web."""
# Integration mit Tavily, Serper oder ähnlichen Such-APIs
async with httpx.AsyncClient() as client:
response = await client.get(
"https://api.tavily.com/search",
params={"query": query, "api_key": "..."},
)
return response.json()["results"][0]["content"]
result = agent.run_sync("Was sind die neuesten Entwicklungen bei KI-Agenten 2026?")
print(result.data.summary)
Anthropic definiert fünf Autonomie-Level (L1–L5). L5 wäre vollständige KI-Autonomie ohne menschliche Aufsicht. Laut aktuellem Forschungsstand erreichen die meisten produktiven Systeme maximal L3, ein kleiner Teil L4. L5 gilt 2026 noch als nicht erreichtes Ziel.
Gartner prognostiziert, dass bis Mitte 2026 40% der Enterprise-Anwendungen KI-Agenten integriert haben werden — gegenüber unter 5% Anfang 2025.
autoresearch führt ~100 Experimente über Nacht durchDeep Research Agents markieren den Übergang von KI als Antwort-Maschine zu KI als Wissens-Arbeiter. Die Technologie ist heute produktionsreif für strukturierte Recherche-Aufgaben — vollständige Autonomie bleibt aber noch ein Ziel. Wer eigene Agents baut, sollte auf klare Autonomie-Grenzen, Quellenverifizierung und menschliche Kontrollpunkte setzen.
Nachvollziehbarkeit
Sauberer Abschluss
Wenn du die Kernidee verstanden hast und einen nächsten Schritt für dich benennen kannst, ist der Beitrag für heute erfüllt. Du musst hier nicht alles in einem Zug durcharbeiten.
War dieser Inhalt hilfreich?