Am 1. August 2024 trat der EU AI Act in Kraft – das weltweit erste umfassende Gesetz für künstliche Intelligenz. Aber was steht drin? Was ist verboten? Und was bedeutet es für dich als KI-Nutzer? Hier die Erklärung ohne Juristendeutsch.
Was ist der EU AI Act?
Der AI Act ist eine EU-Verordnung die den Einsatz von KI in Europa reguliert. Ähnlich wie die DSGVO für Datenschutz setzt er Standards die weltweit als Vorbild dienen.
Ziel: KI sicher, transparent und fair machen – ohne Innovation zu bremsen.
Gilt für: Alle die KI-Systeme in der EU anbieten oder nutzen. Auch nicht-europäische Unternehmen (OpenAI, Google, Meta) müssen sich daran halten wenn sie in der EU aktiv sind.
Das Risiko-Stufenmodell
Der AI Act teilt KI-Systeme in 4 Risikostufen ein:
🔴 Verboten (Unacceptable Risk)
Diese KI-Anwendungen sind in der EU komplett verboten:
- Social Scoring: Menschen nach ihrem Sozialverhalten bewerten und benachteiligen (wie in China)
- Biometrische Massenüberwachung in Echtzeit an öffentlichen Plätzen (mit engen Ausnahmen für Terrorabwehr)
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
- Manipulative KI: Systeme die menschliche Schwächen gezielt ausnutzen (z.B. Kinder manipulieren)
- Vorhersagende Polizeiarbeit basierend ausschließlich auf Profiling
🟠 Hochrisiko (High Risk)
Strenge Auflagen, aber nicht verboten:
- KI in Personalwesen (Bewerbungen filtern, Mitarbeiter bewerten)
- KI in Bildung (automatische Benotung, Zugangsentscheidungen)
- KI in Gesundheit (Diagnose-Unterstützung)
- KI in Justiz (Risikobewertung von Straftätern)
- KI in Kreditwürdigkeitsprüfung
- Biometrische Identifikation (Gesichtserkennung)
Pflichten: Risikoanalyse, menschliche Aufsicht, Transparenz, Dokumentation, regelmäßige Überprüfung.
🟡 Begrenzt (Limited Risk)
Transparenzpflichten:
- Chatbots: Müssen sich als KI zu erkennen geben (ChatGPT muss sagen dass es KI ist)
- Deepfakes: Müssen als KI-generiert gekennzeichnet werden
- Generative KI (ChatGPT, Midjourney): Muss offenlegen dass Inhalte KI-generiert sind
🟢 Minimal/Kein Risiko (Minimal Risk)
Keine besonderen Auflagen:
- KI-gestützte Spamfilter
- KI in Videospielen
- KI-Empfehlungen (Netflix, Spotify)
- Die meisten Alltagsanwendungen
Was bedeutet das für ChatGPT, Claude & Co.?
ChatGPT, Claude und Gemini fallen unter “General Purpose AI” (GPAI) – eine eigene Kategorie:
Pflichten für GPAI-Anbieter:
- Transparenz über Trainingsdaten
- Technische Dokumentation veröffentlichen
- Urheberrecht respektieren (Zusammenfassung der Trainingsdaten)
- Energieverbrauch dokumentieren
Systemische GPAI (GPT-4, Claude Opus – besonders leistungsfähig):
- Zusätzliche Sicherheitstests (Red Teaming)
- Risikobewertung und -minderung
- Meldepflicht bei schwerwiegenden Vorfällen
Was ändert sich für Endnutzer?
Für Privatpersonen:
Wenig. Du darfst ChatGPT, Midjourney und alle anderen Tools weiterhin frei nutzen. Die Regulierung betrifft primär die ANBIETER, nicht die Nutzer.
Für Unternehmen:
Mehr. Wenn du KI für hochriskante Zwecke einsetzt (HR, Kreditentscheidungen, Gesundheit):
- Risikoanalyse durchführen
- Menschliche Aufsicht sicherstellen
- Dokumentation und Transparenz
- Regelmäßige Überprüfung
Für KI-Entwickler:
Am meisten. Neue Dokumentations-, Test- und Transparenzpflichten. Aber auch Rechtssicherheit – der AI Act schafft klare Regeln statt Unsicherheit.
Timeline: Wann gilt was?
| Datum | Was gilt |
|---|---|
| August 2024 | AI Act in Kraft getreten |
| Februar 2025 | Verbote gelten (Social Scoring, Massenüberwachung) |
| August 2025 | GPAI-Regeln gelten (ChatGPT & Co.) |
| August 2026 | Hochrisiko-Regeln gelten vollständig |
| August 2027 | Alle Regelungen durchgesetzt |
AI Act vs DSGVO: Parallelen
| Aspekt | DSGVO | AI Act |
|---|---|---|
| Thema | Datenschutz | KI-Sicherheit |
| Geltung | Weltweit (für EU-Bürger) | Weltweit (für EU-Markt) |
| Strafen | Bis 4% des Jahresumsatzes | Bis 7% des Jahresumsatzes |
| Auswirkung | Wurde globaler Standard | Wird vermutlich globaler Standard |
| Für Endnutzer | Mehr Rechte | Mehr Transparenz |
| Für Unternehmen | Compliance-Aufwand | Compliance-Aufwand |
Weiterlesen:
- KI-Ethik: Die 7 wichtigsten Fragen die du dir stellen solltest
- KI für Anfänger: Der komplette Einstieg in künstliche Intelligenz
- KI-Halluzinationen: Warum ChatGPT lügt und wie du es vermeidest
- KI im Unterricht: Der praktische Guide für Lehrkräfte 2026
Häufige Fragen
Darf ich ChatGPT in der EU weiter nutzen?
Ja. Absolut. Der AI Act verbietet keine Allzweck-KI. Er reguliert nur wie die Anbieter damit umgehen müssen.
Muss ich KI-generierte Inhalte kennzeichnen?
Für Deepfakes und Chatbot-Interaktionen: Ja, die Anbieter müssen es ermöglichen. Für Blog-Artikel, Marketing-Texte oder Social-Media-Posts: Keine allgemeine Pflicht (kann sich je nach Kontext ändern).
Was passiert wenn ein Unternehmen den AI Act ignoriert?
Strafen bis zu 35 Millionen Euro oder 7% des globalen Jahresumsatzes – je nachdem was höher ist. Die Aufsichtsbehörden sind die nationalen Datenschutz-/KI-Behörden.
Ist der AI Act gut oder schlecht für Innovation?
Beides. Er schafft Rechtssicherheit (gut) und erhöht den Compliance-Aufwand (teuer). Kleine Startups sind am stärksten betroffen – es gibt aber Ausnahmen und Sandboxes für Innovatoren.
