Worum es geht
Der EU AI Act ist seit August 2024 in Kraft. Ab 2026 greifen erste Verpflichtungen mit Bussgeldern von bis zu 35 Millionen Euro oder 7 % des globalen Jahresumsatzes. Was bedeutet das konkret?
Playbook
5. April 2026
Leseführung
Der EU AI Act ist seit August 2024 in Kraft. Ab 2026 greifen erste Verpflichtungen mit Bussgeldern von bis zu 35 Millionen Euro oder 7 % des globalen Jahresumsatzes. Was bedeutet das konkret?
1Lies zuerst die Einordnung links. Sie erklärt dir, warum der Beitrag überhaupt relevant ist.
2Danach einmal komplett lesen. Der Beitrag ist kurz genug für einen sauberen Durchgang.
3Wenn du tiefer gehen willst, erst am Ende in die Quellen springen.
• Das Risikomodell (vereinfacht)
• Zeitplan: Was wann gilt
• Was ab 2. August 2026 gilt
• Was Entwickler konkret tun muessen
Der EU AI Act ist seit August 2024 in Kraft. Ab 2026 greifen erste Verpflichtungen mit Bussgeldern von bis zu 35 Millionen Euro oder 7 % des globalen Jahresumsatzes. Was bedeutet das konkret?
Der EU AI Act stuft KI-Systeme in 4 Risikoklassen ein:
| Klasse | Beispiele | Pflichten |
|---|---|---|
| Verboten | Social Scoring, Echtzeit-Biometrie | Darf nicht gebaut werden |
| Hoch-Risiko | Medizin, Kredit, HR-Entscheidungen | Umfangreiche Dokumentation |
| Begrenzt | Chatbots, Deepfakes | Transparenz-Pflicht |
| Minimal | Spam-Filter, Empfehlungen | Keine Extra-Pflichten |
Fuer die meisten Entwickler gilt: Minimal-Risiko. Ein Blog mit KI-Content oder ein Coding-Assistent faellt nicht in Hoch-Risiko.
| Datum | Was tritt in Kraft |
|---|---|
| Feb 2025 | Verbote fuer inakzeptables Risiko (Social Scoring etc.) — bereits aktiv |
| 2. August 2026 | Transparenz-Pflichten fuer Chatbots + Regeln fuer Allzweck-KI (GPT, Claude, Gemini) |
| 2. August 2026 | Hoch-Risiko Annex III: Conformity Assessments abgeschlossen |
| 2. August 2027 | Restliche Hoch-Risiko-Systeme vollstaendig konform |
Wichtig: Conformity Assessments dauern 3-6 Monate. Wer bis Maerz 2026 nicht begonnen hat, wird den August-Termin verfehlen.
Fuer Allzweck-KI-Modelle (GPT-4, Claude, Gemini etc.):
Fuer Chatbots und KI-Assistenten (Begrenzt-Risiko):
Fuer KI-generierte Inhalte:
Bei Business-Entscheidungen (Hoch-Risiko):
| Verstos | Maximale Strafe |
|---|---|
| Verbotenes KI-System betreiben | 35 Mio. EUR oder 7% Jahresumsatz |
| Hoch-Risiko-Pflichten verletzt | 15 Mio. EUR oder 3% Jahresumsatz |
| Falsche Informationen geliefert | 7,5 Mio. EUR oder 1,5% Jahresumsatz |
Fazit: Fuer die meisten Entwickler aendert sich wenig. Wer keine Hochrisiko-Entscheidungen automatisiert, kommt mit minimalen Anpassungen durch — aber den Chatbot-Hinweis sollte jeder bis August 2026 implementiert haben.
Nachvollziehbarkeit
Sauberer Abschluss
Wenn du die Kernidee verstanden hast und einen nächsten Schritt für dich benennen kannst, ist der Beitrag für heute erfüllt. Du musst hier nicht alles in einem Zug durcharbeiten.
War dieser Inhalt hilfreich?