Am 1. August 2024 trat der EU AI Act in Kraft – das weltweit erste umfassende Gesetz für künstliche Intelligenz. Aber was steht drin? Was ist verboten? Und was bedeutet es für dich als KI-Nutzer? Hier die Erklärung ohne Juristendeutsch.

Was ist der EU AI Act?

Der AI Act ist eine EU-Verordnung die den Einsatz von KI in Europa reguliert. Ähnlich wie die DSGVO für Datenschutz setzt er Standards die weltweit als Vorbild dienen.

Ziel: KI sicher, transparent und fair machen – ohne Innovation zu bremsen.

Gilt für: Alle die KI-Systeme in der EU anbieten oder nutzen. Auch nicht-europäische Unternehmen (OpenAI, Google, Meta) müssen sich daran halten wenn sie in der EU aktiv sind.

Das Risiko-Stufenmodell

Der AI Act teilt KI-Systeme in 4 Risikostufen ein:

🔴 Verboten (Unacceptable Risk)

Diese KI-Anwendungen sind in der EU komplett verboten:

  • Social Scoring: Menschen nach ihrem Sozialverhalten bewerten und benachteiligen (wie in China)
  • Biometrische Massenüberwachung in Echtzeit an öffentlichen Plätzen (mit engen Ausnahmen für Terrorabwehr)
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
  • Manipulative KI: Systeme die menschliche Schwächen gezielt ausnutzen (z.B. Kinder manipulieren)
  • Vorhersagende Polizeiarbeit basierend ausschließlich auf Profiling

🟠 Hochrisiko (High Risk)

Strenge Auflagen, aber nicht verboten:

  • KI in Personalwesen (Bewerbungen filtern, Mitarbeiter bewerten)
  • KI in Bildung (automatische Benotung, Zugangsentscheidungen)
  • KI in Gesundheit (Diagnose-Unterstützung)
  • KI in Justiz (Risikobewertung von Straftätern)
  • KI in Kreditwürdigkeitsprüfung
  • Biometrische Identifikation (Gesichtserkennung)

Pflichten: Risikoanalyse, menschliche Aufsicht, Transparenz, Dokumentation, regelmäßige Überprüfung.

🟡 Begrenzt (Limited Risk)

Transparenzpflichten:

  • Chatbots: Müssen sich als KI zu erkennen geben (ChatGPT muss sagen dass es KI ist)
  • Deepfakes: Müssen als KI-generiert gekennzeichnet werden
  • Generative KI (ChatGPT, Midjourney): Muss offenlegen dass Inhalte KI-generiert sind

🟢 Minimal/Kein Risiko (Minimal Risk)

Keine besonderen Auflagen:

  • KI-gestützte Spamfilter
  • KI in Videospielen
  • KI-Empfehlungen (Netflix, Spotify)
  • Die meisten Alltagsanwendungen

Was bedeutet das für ChatGPT, Claude & Co.?

ChatGPT, Claude und Gemini fallen unter “General Purpose AI” (GPAI) – eine eigene Kategorie:

Pflichten für GPAI-Anbieter:

  • Transparenz über Trainingsdaten
  • Technische Dokumentation veröffentlichen
  • Urheberrecht respektieren (Zusammenfassung der Trainingsdaten)
  • Energieverbrauch dokumentieren

Systemische GPAI (GPT-4, Claude Opus – besonders leistungsfähig):

  • Zusätzliche Sicherheitstests (Red Teaming)
  • Risikobewertung und -minderung
  • Meldepflicht bei schwerwiegenden Vorfällen

Was ändert sich für Endnutzer?

Für Privatpersonen:

Wenig. Du darfst ChatGPT, Midjourney und alle anderen Tools weiterhin frei nutzen. Die Regulierung betrifft primär die ANBIETER, nicht die Nutzer.

Für Unternehmen:

Mehr. Wenn du KI für hochriskante Zwecke einsetzt (HR, Kreditentscheidungen, Gesundheit):

  • Risikoanalyse durchführen
  • Menschliche Aufsicht sicherstellen
  • Dokumentation und Transparenz
  • Regelmäßige Überprüfung

Für KI-Entwickler:

Am meisten. Neue Dokumentations-, Test- und Transparenzpflichten. Aber auch Rechtssicherheit – der AI Act schafft klare Regeln statt Unsicherheit.

Timeline: Wann gilt was?

DatumWas gilt
August 2024AI Act in Kraft getreten
Februar 2025Verbote gelten (Social Scoring, Massenüberwachung)
August 2025GPAI-Regeln gelten (ChatGPT & Co.)
August 2026Hochrisiko-Regeln gelten vollständig
August 2027Alle Regelungen durchgesetzt

AI Act vs DSGVO: Parallelen

AspektDSGVOAI Act
ThemaDatenschutzKI-Sicherheit
GeltungWeltweit (für EU-Bürger)Weltweit (für EU-Markt)
StrafenBis 4% des JahresumsatzesBis 7% des Jahresumsatzes
AuswirkungWurde globaler StandardWird vermutlich globaler Standard
Für EndnutzerMehr RechteMehr Transparenz
Für UnternehmenCompliance-AufwandCompliance-Aufwand

Weiterlesen:

Häufige Fragen

Darf ich ChatGPT in der EU weiter nutzen?

Ja. Absolut. Der AI Act verbietet keine Allzweck-KI. Er reguliert nur wie die Anbieter damit umgehen müssen.

Muss ich KI-generierte Inhalte kennzeichnen?

Für Deepfakes und Chatbot-Interaktionen: Ja, die Anbieter müssen es ermöglichen. Für Blog-Artikel, Marketing-Texte oder Social-Media-Posts: Keine allgemeine Pflicht (kann sich je nach Kontext ändern).

Was passiert wenn ein Unternehmen den AI Act ignoriert?

Strafen bis zu 35 Millionen Euro oder 7% des globalen Jahresumsatzes – je nachdem was höher ist. Die Aufsichtsbehörden sind die nationalen Datenschutz-/KI-Behörden.

Ist der AI Act gut oder schlecht für Innovation?

Beides. Er schafft Rechtssicherheit (gut) und erhöht den Compliance-Aufwand (teuer). Kleine Startups sind am stärksten betroffen – es gibt aber Ausnahmen und Sandboxes für Innovatoren.