Worum es geht
Beide unterstuetzen Extended Thinking und alle bestehenden Claude-API-Features. Neu: Web-Search und Web-Fetch-Tools unterstuetzen dynamisches Filtern — Claude filtert Ergebnisse direkt, bevor sie ins Kontext-Fenster k...
Playbook
5. April 2026
Leseführung
Beide unterstuetzen Extended Thinking und alle bestehenden Claude-API-Features. Neu: Web-Search und Web-Fetch-Tools unterstuetzen dynamisches Filtern — Claude filtert Ergebnisse direkt, bevor sie ins Kontext-Fenster k...
1Lies zuerst die Einordnung links. Sie erklärt dir, warum der Beitrag überhaupt relevant ist.
2Danach einmal komplett lesen. Der Beitrag ist kurz genug für einen sauberen Durchgang.
3Wenn du tiefer gehen willst, erst am Ende in die Quellen springen.
• Anthropic: Claude Sonnet 4.6 & Opus 4.6
• OpenAI: GPT-5.4
• Google: Gemini 3.1 Pro
• Open-Source: Wer aufholt
(Recherchiert April 2026 — keine veralteten Trainingsdaten)
Anthropic hat im Februar 2026 zwei neue Modelle veroeffentlicht:
Beide unterstuetzen Extended Thinking und alle bestehenden Claude-API-Features. Neu: Web-Search und Web-Fetch-Tools unterstuetzen dynamisches Filtern — Claude filtert Ergebnisse direkt, bevor sie ins Kontext-Fenster kommen.
Geruechte ueber Claude 5 ("Fennec") kursieren — laut Metaculus Median-Release Juni 2026. In Vertex AI Logs gesichtet, noch nicht offiziell bestaetigt.
OpenAI hat am 5. Maerz 2026 GPT-5.4 veroeffentlicht:
Googles Gemini 3.1 Pro Preview (19. Feb 2026) setzt Benchmarks:
| Benchmark | Score |
|---|---|
| ARC-AGI-2 | 77,1% (vorher 31,1%) |
| GPQA Diamond | 94,3% |
| SWE-Bench | 80,6% |
Gemini 3 Flash ist das neue Default-Modell in der Gemini App. Gemini 2.5 gilt als ueberholt.
| Modell | Besonderheit |
|---|---|
| Llama 4 Scout (Meta) | 10 Mio. Token Kontext |
| Llama 4 Maverick (Meta) | 400B Parameter, 17B aktiv (MoE) |
| DeepSeek V3.2 | $0,55/Mio. Token, schlaegt GPT-5 auf Reasoning |
| Mistral Medium 3.1 | $0,40/Mio. Token, 90%+ von Claude Sonnet 3.7 |
Trend: Open-Source hat den Qualitaetsabstand zu proprietaeren Modellen eliminiert — bei 10-50x niedrigeren Kosten.
MoE erklaert: Mixture-of-Experts (MoE) ist eine Architektur bei der nur ein Teil der Parameter pro Anfrage aktiviert wird. Llama 4 Maverick hat 400B Parameter gesamt, nutzt aber nur 17B pro Token — Effizienz ohne Qualitaetsverlust.
Wer mit Claude Code und Claude Sonnet 4.6 arbeitet, ist auf dem aktuellen Stand. Fuer kostensensitive Aufgaben lohnt ein Blick auf DeepSeek V3.2 oder Mistral Medium 3.1.
Nachvollziehbarkeit
Sauberer Abschluss
Wenn du die Kernidee verstanden hast und einen nächsten Schritt für dich benennen kannst, ist der Beitrag für heute erfüllt. Du musst hier nicht alles in einem Zug durcharbeiten.
War dieser Inhalt hilfreich?