5.
Kapitel V: KI-Modelle für allgemeine Zwecke (General Purpose AI,
GPAI)
Liste mit Inhaltsangabe des Kapitels V „KI-Modelle für
allgemeine Zwecke (General Purpose AI, GPAI)“ der
Verordnung (EU) 2024/1689 (AI Act). Das ist eines der
neuesten und meistdiskutierten Kapitel, da es erstmals
explizit Regeln für Generative KI / Foundation Models
wie ChatGPT, Claude, Gemini, LLaMA oder ähnliche
Modelle festlegt.
Kapitel V –
KI-Modelle für allgemeine Zwecke (GPAI)
Dieses Kapitel besteht aus vier Abschnitten (Artikel
51–56):
- Einstufungsregeln
- Pflichten für GPAI-Anbieter
- Zusätzliche Pflichten für GPAI-Modelle mit systemischem Risiko
- Verhaltenskodizes
Abschnitt 1 –
Einstufung von GPAI-Modellen
Artikel 51 – Definition
& Klassifizierung
General Purpose AI (GPAI) = Ein KI-Modell, das
zu vielen verschiedenen Zwecken eingesetzt werden kann,
also nicht nur für eine enge Aufgabe.
- Beispiele: Sprachmodelle, Multimodal-Modelle, Bildgeneratoren.
GPAI kann Basis für andere KI-Systeme sein, die
in spezifischen Bereichen eingesetzt werden.
Wichtig: GPAI ist nicht automatisch „Hochrisiko“. Aber es kann
systemisches Risiko haben, wenn es so
leistungsfähig oder verbreitet ist, dass es weitreichende
Folgen für Sicherheit, Gesellschaft oder Wirtschaft hat.
Artikel 52 –
Kriterien für systemisches Risiko
Die Kommission bewertet, ob ein GPAI-Modell systemisches
Risiko hat.
Kriterien:
- Rechenleistung (z. B. Trainingsaufwand über einem
bestimmten FLOP-Schwellenwert),
- Skalierbarkeit und Reichweite,
- Potenzial für Missbrauch.
Modelle mit systemischem Risiko müssen strengeren
Pflichten folgen (siehe Abschnitt 3).
Abschnitt
2 – Verpflichtungen für Anbieter von GPAI-Modellen
Artikel 53 –
Basis-Pflichten für alle GPAI-Anbieter
Alle GPAI-Anbieter müssen bestimmte Transparenz- und
Dokumentationspflichten erfüllen:
Technische Dokumentation erstellen, die:
- Architektur, Trainingsmethoden, Trainingsdaten (soweit möglich)
beschreibt,
- Informationen zu Evaluierungen, Benchmarks und bekannten
Einschränkungen enthält.
Daten-Dokumentation & Urheberrechte:
- Anbieter müssen darlegen, ob und wie beim Training
urheberrechtlich geschützte Werke verwendet
wurden.
- Sie müssen „hinreichende Informationen“ bereitstellen, damit
Rechteinhaber ggf. Ansprüche geltend machen können.
Transparenzpflichten gegenüber nachgelagerten
Entwicklern:
- GPAI-Anbieter müssen Entwicklern, die auf ihrem Modell aufbauen,
nötige Informationen geben, um rechtliche Pflichten (z.
B. Hochrisiko-Anforderungen) erfüllen zu können.
Abschnitt 3
– Pflichten für GPAI mit systemischem Risiko
Artikel
55 – Zusätzliche Pflichten für „systemische GPAI“
Wenn ein Modell als systemisch riskant eingestuft
wird, gelten striktere Regeln:
Risikomanagement:
- Anbieter müssen ein umfassendes
Risiko-Management-System implementieren, um Missbrauch,
gesellschaftliche Schäden und Sicherheitsprobleme zu verhindern.
Sicherheits-Tests:
- Modelle müssen vor Veröffentlichung in kontrollierten
Tests auf Risiken geprüft werden.
Red Teaming:
- Verpflichtung zu Red-Teaming-Übungen (gezielte
Tests auf Schwachstellen, Bias, Missbrauchsszenarien).
Meldung schwerer Vorfälle:
- Anbieter müssen schwerwiegende Vorfälle (z. B.
Sicherheitslücken, gesellschaftliche Gefahren) an die EU-Kommission
melden.
Energieeffizienz-Transparenz:
- Anbieter müssen den Rechenaufwand und
Energieverbrauch beim Training offenlegen.
Abschnitt 4 –
Verhaltenskodizes
Artikel 56 – Codes of Conduct
Bedeutung von Kapitel V
Kapitel V ist revolutionär, weil es
Foundation Models erstmals in einem Gesetz
reguliert.
Es erkennt an, dass Generative KI eine besondere
Rolle spielt:
- Sie ist nicht immer hochriskant,
- kann aber bei falscher Nutzung gesellschaftliche
Risiken verursachen.
Es führt zwei Ebenen der Pflichten ein:
- Basis-Pflichten für alle GPAI (Dokumentation,
Transparenz, IP-Hinweise).
- Zusatz-Pflichten für systemische GPAI
(Risikomanagement, Red Teaming, Energie-Transparenz, Meldesysteme).
Damit wird sichergestellt, dass kleine Open-Source-Modelle nicht
überlastet werden, während große, mächtige Modelle (z. B. GPT-4/5,
Gemini, LLaMA-3, Claude) strengere Auflagen erfüllen müssen.
Kurzfassung: Kapitel V schafft einen
maßgeschneiderten Rechtsrahmen für General
Purpose AI:
- Artikel 51–52: Definition & Einstufung, inkl.
systemisches Risiko.
- Artikel 53–54: Transparenz- und
Dokumentationspflichten für alle GPAI.
- Artikel 55: Zusätzliche Pflichten für systemisch
riskante Modelle.
- Artikel 56: Förderung freiwilliger
Verhaltenskodizes.