III. Erwägungsgründe
Die Erwägungsgründe (Recitals) sind ein ganz
entscheidender Teil jeder EU-Verordnung, also auch des AI Act
(Verordnung (EU) 2024/1689). Man spricht im Deutschen oft von
den „Gründen“ oder „Motiven“ des Gesetzgebers.
Die Erwägungsgründe sind im Amtsblatt als Teil des
Vorspanns veröffentlicht (vor den Artikeln). Sie sind nicht
direkt rechtsverbindlich, werden aber von Gerichten, Behörden
und Unternehmen zur Auslegung der Artikel
herangezogen.
Im Fall des AI Acts gibt es über 170 Erwägungsgründe
(nummeriert (1)–(173)).
III.
Erwägungsgründe des AI Act – Überblick & Detaillierte
Beschreibung
1. Zweck und Kontext
(Erwägungsgründe 1–15)
Stellen klar, warum die Regulierung notwendig ist:
- KI ist eine Schlüsseltechnologie mit großem
Potenzial für Innovation, Wachstum und Wohlstand.
- Zugleich bestehen erhebliche Risiken für
Grundrechte, Demokratie, Gesundheit und Sicherheit.
Ziel:
- Harmonisierung im Binnenmarkt (damit nicht jedes
Land eigene KI-Gesetze erlässt),
- Förderung von Vertrauen in KI durch klare
Regeln,
- Balance zwischen Innovation und Schutz.
Bezug zu anderen EU-Regeln: DSGVO (Datenschutz),
Produktsicherheitsrecht, Grundrechtecharta.
2.
Anwendungsbereich & Geltung (Erwägungsgründe 16–34)
Klarstellung, dass die Verordnung gilt für:
- Anbieter, die KI in der EU in Verkehr bringen,
- auch Anbieter außerhalb der EU, wenn ihre Systeme
in der EU genutzt werden (extraterritoriale Wirkung).
Ausnahmen:
- militärische/verteidigungspolitische Zwecke,
- private Nutzung im nichtberuflichen Bereich,
- reine Forschung & Entwicklung.
KI soll menschenzentriert sein und die
Werte der Union respektieren.
3.
Begriffsbestimmungen & Abgrenzung (Erwägungsgründe 35–55)
- Begründung, warum die Definition von „KI-System“
bewusst weit gefasst wurde.
- Klarstellung: Nicht jede Software ist KI – KI zeichnet sich durch
autonome Lern- oder Anpassungsmechanismen aus.
- Abgrenzung zu „klassischer Software“ ohne maschinelles Lernen.
- Einführung zentraler Begriffe wie „Hochrisiko-KI“,
„Anbieter“, „Betreiber“.
4. Verbotene Praktiken
(Erwägungsgründe 56–70)
5.
Hochrisiko-KI-Systeme (Erwägungsgründe 71–108)
Rechtfertigung der Risikoklassifizierung (Art. 6, Anhang
III).
Begründung: Hochrisiko dort, wo KI über Leben, Chancen
und Grundrechte von Menschen entscheidet.
Bereiche wie Bildung, Arbeit, Justiz und Migration besonders
sensibel.
Notwendigkeit strenger Anforderungen (Art. 9–15):
- Risikomanagement,
- Datenqualität,
- technische Dokumentation,
- menschliche Aufsicht,
- Robustheit und Cybersicherheit.
6.
Transparenzverpflichtungen (Erwägungsgründe 109–118)
7. General
Purpose AI (GPAI) (Erwägungsgründe 119–134)
Hintergrund für die Aufnahme von Foundation Models /
GPAI.
GPAI ist nicht automatisch Hochrisiko, aber kann
systemisches Risiko entfalten.
Verpflichtungen für Anbieter:
- Dokumentation (auch zu Urheberrechten),
- Transparenzpflichten,
- bei systemischem Risiko: Red-Teaming, Energie-Transparenz,
Risiko-Management.
Ziel: Balance zwischen Innovation und globaler
Verantwortung.
8. Innovation &
Sandboxen (Erwägungsgründe 135–145)
- Rechtfertigung der Regulierungssandkästen (Art. 57
ff.).
- KI soll unter Aufsicht erprobt werden können, ohne
sofortige volle Regulierung.
- Unterstützung für KMU & Start-ups → Vermeidung, dass nur
Großkonzerne die Regeln erfüllen können.
- Erwägungsgründe betonen Förderung von Forschung und
Bildung.
9. Governance
(Erwägungsgründe 146–156)
- Begründung für das AI Office bei der Kommission
(Art. 64 ff.).
- Ziel: Einheitliche Anwendung in der gesamten EU, Koordination mit
Mitgliedstaaten.
- Einbindung von Stakeholdern (Wirtschaft, Zivilgesellschaft,
Forschung).
- Internationale Kooperation: EU-Regeln sollen globaler
Standard werden.
10.
Marktaufsicht & Sanktionen (Erwägungsgründe 157–165)
- Rechtfertigung der Überwachung nach dem
Inverkehrbringen (Art. 72 ff.).
- Parallelen zum Produktsicherheitsrecht → Hersteller sind auch nach
Markteintritt verantwortlich.
- Hohe Sanktionsrahmen (Art. 99–101) nötig, um
abschreckend zu wirken – analog zur DSGVO.
11.
Schlussbestimmungen (Erwägungsgründe 166–173)
Bedeutung der
Erwägungsgründe
Sie sind nicht rechtlich bindend, aber:
- dienen Gerichten als Auslegungshilfe,
- helfen Unternehmen, die Intention des Gesetzgebers
zu verstehen,
- geben Behörden Leitlinien für die praktische
Umsetzung.
Besonders bei unklaren Begriffen („hochrisiko“, „systemisches
Risiko“, „Transparenzpflichten“) sind die Erwägungsgründe der
Schlüssel.
Kurz-Zusammenfassung
Die III. Erwägungsgründe (1–173):
- Begründen den Zweck (Schutz + Innovation).
- Erklären den Anwendungsbereich und die
Definitionen.
- Rechtfertigen die Verbote (Manipulation, Social
Scoring, Echtzeit-Biometrie).
- Legen die Grundidee von Hochrisiko-KI dar.
- Erklären die Transparenzpflichten (Chatbots,
Deepfakes).
- Begründen die Regeln für GPAI.
- Stellen die Innovationsförderung (Sandkästen, KMU)
heraus.
- Definieren die Governance-Struktur (AI
Office).
- Begründen Marktaufsicht & Sanktionen.
- Erläutern die Übergangsfristen und den
Inkrafttretensplan.
Fazit: Die Erwägungsgründe sind der „Kommentar des
Gesetzgebers“ – ohne sie lässt sich der AI Act nur schwer
korrekt anwenden.