Inhalt  |


5. Kapitel V: KI-Modelle für allgemeine Zwecke (General Purpose AI, GPAI)

Liste mit Inhaltsangabe des Kapitels V „KI-Modelle für allgemeine Zwecke (General Purpose AI, GPAI)“ der Verordnung (EU) 2024/1689 (AI Act). Das ist eines der neuesten und meistdiskutierten Kapitel, da es erstmals explizit Regeln für Generative KI / Foundation Models wie ChatGPT, Claude, Gemini, LLaMA oder ähnliche Modelle festlegt.

Kapitel V – KI-Modelle für allgemeine Zwecke (GPAI)

Dieses Kapitel besteht aus vier Abschnitten (Artikel 51–56):

  1. Einstufungsregeln
  2. Pflichten für GPAI-Anbieter
  3. Zusätzliche Pflichten für GPAI-Modelle mit systemischem Risiko
  4. Verhaltenskodizes

Abschnitt 1 – Einstufung von GPAI-Modellen

Artikel 51 – Definition & Klassifizierung

Wichtig: GPAI ist nicht automatisch „Hochrisiko“. Aber es kann systemisches Risiko haben, wenn es so leistungsfähig oder verbreitet ist, dass es weitreichende Folgen für Sicherheit, Gesellschaft oder Wirtschaft hat.

Artikel 52 – Kriterien für systemisches Risiko

Abschnitt 2 – Verpflichtungen für Anbieter von GPAI-Modellen

Artikel 53 – Basis-Pflichten für alle GPAI-Anbieter

Alle GPAI-Anbieter müssen bestimmte Transparenz- und Dokumentationspflichten erfüllen:

  1. Technische Dokumentation erstellen, die:

    • Architektur, Trainingsmethoden, Trainingsdaten (soweit möglich) beschreibt,
    • Informationen zu Evaluierungen, Benchmarks und bekannten Einschränkungen enthält.
  2. Daten-Dokumentation & Urheberrechte:

    • Anbieter müssen darlegen, ob und wie beim Training urheberrechtlich geschützte Werke verwendet wurden.
    • Sie müssen „hinreichende Informationen“ bereitstellen, damit Rechteinhaber ggf. Ansprüche geltend machen können.
  3. Transparenzpflichten gegenüber nachgelagerten Entwicklern:

    • GPAI-Anbieter müssen Entwicklern, die auf ihrem Modell aufbauen, nötige Informationen geben, um rechtliche Pflichten (z. B. Hochrisiko-Anforderungen) erfüllen zu können.

Abschnitt 3 – Pflichten für GPAI mit systemischem Risiko

Artikel 55 – Zusätzliche Pflichten für „systemische GPAI“

Wenn ein Modell als systemisch riskant eingestuft wird, gelten striktere Regeln:

  1. Risikomanagement:

    • Anbieter müssen ein umfassendes Risiko-Management-System implementieren, um Missbrauch, gesellschaftliche Schäden und Sicherheitsprobleme zu verhindern.
  2. Sicherheits-Tests:

    • Modelle müssen vor Veröffentlichung in kontrollierten Tests auf Risiken geprüft werden.
  3. Red Teaming:

    • Verpflichtung zu Red-Teaming-Übungen (gezielte Tests auf Schwachstellen, Bias, Missbrauchsszenarien).
  4. Meldung schwerer Vorfälle:

    • Anbieter müssen schwerwiegende Vorfälle (z. B. Sicherheitslücken, gesellschaftliche Gefahren) an die EU-Kommission melden.
  5. Energieeffizienz-Transparenz:

    • Anbieter müssen den Rechenaufwand und Energieverbrauch beim Training offenlegen.

Abschnitt 4 – Verhaltenskodizes

Artikel 56 – Codes of Conduct

Bedeutung von Kapitel V

Kurzfassung: Kapitel V schafft einen maßgeschneiderten Rechtsrahmen für General Purpose AI:



Inhalt  |