Deepseek R1, Llama & Mistral: Open-Source-LLMs lokal und in n8n nutzen

5. April 2026

Mit Quellen3 Quellen
3 Min. Lesezeit9 AbschnitteSchneller Einstieg3 Quellen

Worum es geht

Lokale KI-Modelle haben 2026 einen Reifegrad erreicht, der sie für viele Entwickler zu einer ernsthaften Alternative zu Cloud-APIs macht.

Start hier

1Lies zuerst die Einordnung links. Sie erklärt dir, warum der Beitrag überhaupt relevant ist.

2Danach einmal komplett lesen. Der Beitrag ist kurz genug für einen sauberen Durchgang.

3Wenn du tiefer gehen willst, erst am Ende in die Quellen springen.

In diesem Beitrag

Welche Open-Source-LLMs lohnen sich 2026?

Ollama installieren und erstes Modell laden

OpenAI-kompatible API — Python-Code unverändert nutzen

Ollama in n8n als OpenAI-Ersatz

Lokale KI-Modelle haben 2026 einen Reifegrad erreicht, der sie für viele Entwickler zu einer ernsthaften Alternative zu Cloud-APIs macht. Kein API-Schlüssel, keine Datenschutzbedenken, keine laufenden Kosten. Dieser Artikel zeigt, welche Open-Source-Modelle sich lohnen, wie du sie via Ollama installierst und wie du sie in n8n als OpenAI-Ersatz nutzt.

Welche Open-Source-LLMs lohnen sich 2026?

Die Landschaft hat sich stark entwickelt. Hier die wichtigsten Modelle im Überblick:

Modell Parameter RAM-Bedarf HumanEval Besonderheit
DeepSeek R1 7B 7B 8 GB 82% Reasoning mit sichtbaren Denkschritten
DeepSeek R1 1.5B 1.5B 2 GB ~65% Läuft auf schwacher Hardware
Llama 3.3 70B 70B 40 GB ~85% Meta, sehr stark, Apache 2.0
Mistral 7B 7B 4.1 GB ~30% Schlank, schnell, ideal für einfache Tasks
Qwen 2.5 14B 14B 9 GB ~78% Stark bei asiatischen Sprachen und Code
Phi-4 14B 9 GB ~80% Microsoft, effizient trainiert

DeepSeek R1 überzeugt besonders durch seine Chain-of-Thought-Tags: Das Modell zeigt seine Überlegungen vor der Antwort, was bei Debugging sehr hilfreich ist.

Ollama installieren und erstes Modell laden

# Installation (macOS/Linux)
curl -fsSL https://ollama.ai/install.sh | sh

# DeepSeek R1 7B laden und starten (8 GB RAM erforderlich)
ollama run deepseek-r1:7b

# Oder die kleine Variante (2 GB RAM)
ollama run deepseek-r1:1.5b

# Llama 3.3 (benötigt GPU mit 24+ GB VRAM oder viel RAM)
ollama run llama3.3

# Mistral 7B — der schlanke Allrounder
ollama run mistral

Nach ollama run ist das Modell sofort als lokale API verfügbar:

# Ollama startet automatisch einen lokalen Server auf Port 11434
curl http://localhost:11434/api/chat -d '{"model": "deepseek-r1:7b", "messages": [{"role": "user", "content": "Erkläre Rekursion kurz."}], "stream": false}'

OpenAI-kompatible API — Python-Code unverändert nutzen

Ollama emuliert die OpenAI-API. Bestehender Python-Code läuft ohne Änderungen:

from openai import OpenAI

# Einfach base_url auf Ollama zeigen lassen
client = OpenAI(
    base_url="http://localhost:11434/v1",
    api_key="ollama"  # Beliebiger Wert, wird ignoriert
)

response = client.chat.completions.create(
    model="deepseek-r1:7b",
    messages=[
        {"role": "user", "content": "Schreibe eine Python-Funktion die Primzahlen berechnet."}
    ]
)

print(response.choices[0].message.content)

Ollama in n8n als OpenAI-Ersatz

n8n hat einen nativen Ollama-Node sowie Unterstützung für OpenAI-kompatible APIs. So bindest du lokale Modelle ein:

Via Ollama-Node (einfachste Methode)

  1. n8n öffnen und Workflow erstellen
  2. Node hinzufügen: AI → Ollama Chat Model
  3. Verbindung konfigurieren: http://host.docker.internal:11434 (wenn n8n in Docker läuft)
  4. Modell wählen: deepseek-r1:7b oder mistral
  5. Mit einem AI Agent Node verbinden

Via OpenAI-Node mit Custom Base URL

Base URL: http://host.docker.internal:11434/v1
API Key: ollama
Model: deepseek-r1:7b

Dieser Ansatz funktioniert überall dort, wo OpenAI-Credentials akzeptiert werden.

Datenschutz-Vorteil: Warum lokal?

Der wichtigste Vorteil lokaler Modelle liegt im Datenschutz: Keine Daten verlassen das eigene System. Das ist entscheidend für die Verarbeitung von Kundendaten oder Verträgen, interne Dokumentenanalyse, Code-Review mit proprietärem Code und Anwendungen unter EU-Datenschutzvorgaben ohne DPA-Aufwand.

Außerdem entfallen laufende API-Kosten nach der einmaligen Hardware-Investition.

Leistungsvergleich: Lokal vs. Cloud

Die Qualitätslücke zwischen lokalen und Cloud-Modellen ist 2026 deutlich kleiner geworden. DeepSeek R1 7B auf einem lokalen Laptop erreicht auf HumanEval 82% — vergleichbar mit GPT-3.5-Turbo aus 2023. Für Coding-Tasks, Zusammenfassungen und einfache Agenten-Workflows reichen lokale 7B-Modelle in den meisten Fällen aus.

Für komplexe Reasoning-Aufgaben oder sehr lange Kontextfenster bleibt die Cloud im Vorteil.

Fazit

Ollama macht es 2026 trivial einfach, leistungsstarke Open-Source-LLMs lokal zu betreiben. DeepSeek R1 7B ist die erste Wahl für Entwickler, die Reasoning-Qualität mit vertretbarem RAM-Bedarf kombinieren wollen. Für n8n-Workflows ist die Integration dank Ollama-Node und OpenAI-kompatibler API reibungslos. Wer Datenschutz und Kostenkontrolle priorisiert, kommt an lokalen Modellen 2026 nicht mehr vorbei.

Quellen

DeepSeek R1 auf Ollama — Setup-Guide 2026

web

Link ↗

Hier darfst du aufhören.

Wenn du die Kernidee verstanden hast und einen nächsten Schritt für dich benennen kannst, ist der Beitrag für heute erfüllt. Du musst hier nicht alles in einem Zug durcharbeiten.

War dieser Inhalt hilfreich?