Künstliche
Intelligenz auf der Basis des AIact
Es folgt eine Auflistung der praktischen Regeln für Nutzer
von KI-Portalen (wie ChatGPT, Gemini, DeepSeek) im Rahmen der
vier Risikoklassen der EU-AI-Verordnung (AI
Act).
Definition der Risikoklassen
1. Risikoklasse
: Unannehmbares Risiko (verbotene KI)
Diese Systeme dürfen in der EU nicht verwendet
werden. Als Nutzer musst du also vermeiden, KI-Portale für
folgende Zwecke zu missbrauchen:
- Manipulative Techniken
keine Nutzung von KI, um Menschen unbewusst zu kontrollieren,
auszunutzen oder zu täuschen (z. B. Suchtförderung, versteckte
Beeinflussung).
- Sozialkredit-Systeme
keine Nutzung von KI zur Bewertung oder Bestrafung von Menschen im
Alltag (wie in manchen „Social Scoring“-Systemen).
- Biometrische Fernidentifizierung im öffentlichen
Raum (z. B. Gesichtserkennung in Echtzeit zur
Massenüberwachung).
- Ausnutzung von Schwächen
keine Nutzung zur gezielten Manipulation von Kindern oder besonders
schutzbedürftigen Personen.
Regel für den
Benutzer:
Wenn ein KI-Portal dir Funktionen anbietet, die
in diese Kategorie fallen
nicht einsetzen, da verboten.
2. Risikoklasse : Hohes
Risiko (High-Risk KI)
Diese Systeme sind erlaubt, aber streng reguliert. Für Endnutzer (wie
dich) gilt vor allem:
- Zulässigkeit prüfen
Nutze KI-Portale nicht für sicherheitskritische oder regulierte Bereiche
(z. B. Justizentscheidungen, Personalrekrutierung, Medizin, kritische
Infrastrukturen), ausser die Systeme sind nachweislich
EU-zertifiziert.
- Dokumentation beachten
Nutze nur Systeme, die eine klare Anbieter-Information
(„Konformitätserklärung“) haben.
- Daten korrekt eingeben
keine falschen, unvollständigen oder manipulierten Daten nutzen, die zu
fehlerhaften oder riskanten KI-Entscheidungen führen könnten.
- Menschliche Kontrolle behalten
Ergebnisse immer kritisch prüfen; keine blindlings automatisierten
Entscheidungen übernehmen.
Regel für den
Benutzer:
Bei KI-Portalen wie ChatGPT, Gemini etc.
keine hochriskanten Anwendungen im Alleingang umsetzen
(z. B. medizinische Diagnosen, Kreditwürdigkeitsprüfungen), da diese
strenger Zulassung unterliegen.
3. Risikoklasse
: Begrenztes Risiko (Limited Risk KI)
Hier gilt vor allem Transparenzpflicht:
- Erkennen, dass du mit KI interagierst
wenn du KI-Ergebnisse weitergibst, musst du klarstellen, dass
sie von einer KI erzeugt wurden (z. B. in einem Bericht, in
Social Media, in Schule/Uni).
- Deepfakes & KI-Inhalte kennzeichnen
wenn du KI-Bilder, -Texte oder -Videos verwendest, musst du auf deren
künstliche Herkunft hinweisen.
- Vorurteilsfreie Nutzung
KI kann Bias enthalten; prüfe die Ergebnisse auf Diskriminierung oder
Verzerrung.
Regel für den Benutzer:
Immer transparent bleiben
KI-Kennzeichnungspflicht einhalten, wenn Inhalte
öffentlich oder für Dritte verwendet werden.
4. Risikoklasse :
Minimales Risiko (Minimal Risk KI)
Die meisten KI-Portale (wie ChatGPT für normale Fragen) fallen hier
hinein.
- Frei verwendbar, solange keine verbotenen Zwecke im
Spiel sind.
- Gesunder Menschenverstand: KI nicht als alleinige
Wahrheit verwenden, sondern Ergebnisse kritisch prüfen.
- Datenschutz beachten
keine sensiblen personenbezogenen Daten unnötig in Chatbots
eingeben.
- Nutzungsbedingungen respektieren
Portalrichtlinien und Urheberrecht beachten.
Regel
für den Benutzer:
Normale Nutzung von KI (z. B. für
Lernen, Schreiben, Kreativität) ist erlaubt. Hauptregel:
verantwortungsvoll einsetzen.
Nutzung
von KI-Portalen im Einklang mit dem EU-AI-Act
- Unannehmbares Risiko: Niemals nutzen
verboten.
- Hohes Risiko: Nur mit Zulassung & Vorsicht; als
Endnutzer besser vermeiden.
- Begrenztes Risiko: Transparenz &
Kennzeichnungspflicht beachten.
- Minimales Risiko: Frei nutzbar, aber
verantwortungsvoll & kritisch.
Es folgt eine Checkliste in Tabellenform, die beim
Umgang mit KI-Portalen (ChatGPT, Gemini, DeepSeek usw.) genutzt werden
sollte, um nicht gegen die EU-Verordnung des EU-AI-Act zu
verstossen:
| Risikoklasse |
Verbot / Pflicht |
Meine Nutzer-Regel |
Erledigt |
| Unannehmbares
Risiko |
- Keine Manipulation oder Täuschung - Kein Social Scoring
- Keine biometrische Massenüberwachung - Keine Ausnutzung von
Kindern/Schwachen |
Diese Funktionen niemals nutzen oder weitergeben. |
O |
| Hohes Risiko |
- Nur Systeme mit EU-Zulassung nutzen (z. B. in
Medizin, Justiz, Personalwesen) - KI-Entscheidungen nicht
blind übernehmen -
Dokumentation/Transparenz des Anbieters prüfen |
Keine Hochrisiko-Anwendungen (z. B. Diagnosen, Kredite) ohne Zulassung
über KI-Portale laufen lassen. |
O |
| Begrenztes Risiko |
- KI-Inhalte kennzeichnen (Texte, Bilder, Videos)
- Transparenz: klarstellen, dass Inhalte von KI stammen - Auf
Verzerrungen/Bias achten |
Immer angeben: „Dieser Inhalt wurde mit KI erstellt.“
Deepfakes oder Bilder: Hinweis auf KI-Herkunft. |
O |
| Minimales Risiko |
- Frei nutzbar - Datenschutz beachten (keine sensiblen Daten
eingeben) - Ergebnisse kritisch prüfen - Urheberrecht &
Nutzungsbedingungen respektieren |
Normale Nutzung erlaubt, aber mit gesundem Menschenverstand und
kritischem Denken. |
O |
Links
Wikipedia
- AIact
- Verordnung über künstliche Intelligenz