AI Act :
Artikel 7- Änderungen des Anhangs III
KAPITEL I- ALLGEMEINE BESTIMMUNGEN
KAPITEL II– VERBOTENE PRAKTIKEN IM KI-BEREICH
KAPITEL III– HOCHRISIKO-KI-SYSTEME
- Artikel 6_ Einstufungsvorschriften für Hochrisiko-KI-Systeme
- Artikel 7_ Änderungen des Anhangs III
- Artikel 8_ Einhaltung der Anforderungen
- Artikel 9_ Risikomanagementsystem
- Artikel 10_ Daten und Daten-Governance
- Artikel 11_ Technische Dokumentation
- Artikel 12_ Aufzeichnungspflichten
- Artikel 13_ Transparenz und Bereitstellung von Informationen für die Betreiber
- Artikel 14_ Menschliche Aufsicht
- Artikel 15_ Genauigkeit, Robustheit und Cybersicherheit
- Artikel 16_ Pflichten der Anbieter von Hochrisiko-KI-Systemen
- Artikel 17_ Qualitätsmanagementsystem
- Artikel 18_ Aufbewahrung der Dokumentation
- Artikel 19_ Automatisch erzeugte Protokolle
- Artikel 20_ Korrekturmaßnahmen und Informationspflicht
- Artikel 21_ Zusammenarbeit mit den zuständigen Behörden
- Artikel 22_ Bevollmächtigte der Anbieter von Hochrisiko-KI-Systemen
- Artikel 23_ Pflichten der Einführer
- Artikel 24_ Pflichten der Händler
- Artikel 25 _ Verantwortlichkeiten entlang der KI-Wertschöpfungskette
- Artikel 26 _ Pflichten der Betreiber von Hochrisiko-KI-Systemen
- Artikel 27_ Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme
- Artikel 28 _ Notifizierende Behörden
- Artikel 29_ Antrag einer Konformitätsbewertungsstelle auf Notifizierung
- Artikel 30_ Notifizierungsverfahren
- Artikel 31_ Anforderungen an notifizierte Stellen
- Artikel 32_ Vermutung der Konformität mit den Anforderungen an notifizierte Stellen
- Artikel 33_ Zweigstellen notifizierter Stellen und Vergabe von Unteraufträgen
- Artikel 34_ Operative Pflichten der notifizierten Stellen
- Artikel 35_ Identifizierungsnummern und Verzeichnisse notifizierter Stellen
- Artikel 36_ Änderungen der Notifizierungen
- Artikel 37_ Anfechtungen der Kompetenz notifizierter Stellen
- Artikel 38_ Koordinierung der notifizierten Stellen
- Artikel 39_ Konformitätsbewertungsstellen in Drittländern
- Artikel 40_ Harmonisierte Normen und Normungsdokumente
- Artikel 41_ Gemeinsame Spezifikationen
- Artikel 42_ Vermutung der Konformität mit bestimmten Anforderungen
- Artikel 43_ Konformitätsbewertung
- Artikel 44_ Bescheinigungen
- Artikel 45_ Informationspflichten der notifizierten Stellen
- Artikel 46_ Ausnahme vom Konformitätsbewertungsverfahren
- Artikel 47_ EU-Konformitätserklärung
- Artikel 48_ CE-Kennzeichnung
- Artikel 49_ Registrierung
KAPITEL IV- TRANSPARENZPFLICHTEN FÜR ANBIETER UND BETREIBER BESTIMMTER KI-SYSTEME
KAPITEL V– KI-MODELLE MIT ALLGEMEINEM VERWENDUNGSZWECK
KAPITEL VI– MASSNAHMEN ZUR INNOVATIONSFÖRDERUNG
KAPITEL VIII- EU-DATENBANK FÜR HOCHRISIKO-KI-SYSTEME
KAPITEL IX– BEOBACHTUNG NACH DEM INVERKEHRBRINGEN, INFORMATIONSAUSTAUSCH UND MARKTÜBERWACHUNG
KAPITEL X– VERHALTENSKODIZES UND LEITLINIEN
(1) Die Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zur Änderung von Anhang III durch Hinzufügung oder Änderung von Anwendungsfällen für Hochrisiko-KI-Systeme zu erlassen, die beide der folgenden Bedingungen erfüllen:
a) Die KI-Systeme sollen in einem der in Anhang III aufgeführten Bereiche eingesetzt werden;
b) die KI-Systeme bergen ein Risiko der Schädigung in Bezug auf die Gesundheit und Sicherheit oder haben nachteilige Auswirkungen auf die Grundrechte und dieses Risiko gleicht dem Risiko der Schädigung oder den nachteiligen Auswirkungen, das bzw. die von den in Anhang III bereits genannten Hochrisiko-KI-Systemen ausgeht bzw. ausgehen, oder übersteigt diese.
(2) Bei der Bewertung der Bedingung gemäß Absatz 1 Buchstabe b berücksichtigt die Kommission folgende Kriterien:
a) die Zweckbestimmung des KI-Systems;
b) das Ausmaß, in dem ein KI-System verwendet wird oder voraussichtlich verwendet werden wird;
c) die Art und den Umfang der vom KI-System verarbeiteten und verwendeten Daten, insbesondere die Frage, ob besondere Kategorien personenbezogener Daten verarbeitet werden;
d) das Ausmaß, in dem das KI-System autonom handelt, und die Möglichkeit, dass ein Mensch eine Entscheidung oder Empfehlungen, die zu einem potenziellen Schaden führen können, außer Kraft setzt;
e) das Ausmaß, in dem durch die Verwendung eines KI-Systems schon die Gesundheit und Sicherheit geschädigt wurden, es nachteilige Auswirkungen auf die Grundrechte gab oder z. B. nach Berichten oder dokumentierten Behauptungen, die den zuständigen nationalen Behörden übermittelt werden, oder gegebenenfalls anderen Berichten Anlass zu erheblichen Bedenken hinsichtlich der Wahrscheinlichkeit eines solchen Schadens oder solcher nachteiligen Auswirkungen besteht;
f) das potenzielle Ausmaß solcher Schäden oder nachteiligen Auswirkungen, insbesondere hinsichtlich ihrer Intensität und ihrer Eignung, mehrere Personen zu beeinträchtigen oder eine bestimmte Gruppe von Personen unverhältnismäßig stark zu beeinträchtigen;
g) das Ausmaß, in dem Personen, die potenziell geschädigt oder negative Auswirkungen erleiden werden, von dem von einem KI-System hervorgebrachten Ergebnis abhängen, weil es insbesondere aus praktischen oder rechtlichen Gründen nach vernünftigem Ermessen unmöglich ist, sich diesem Ergebnis zu entziehen;
h) das Ausmaß, in dem ein Machtungleichgewicht besteht oder in dem Personen, die potenziell geschädigt oder negative Auswirkungen erleiden werden, gegenüber dem Betreiber eines KI-Systems schutzbedürftig sind, insbesondere aufgrund von Status, Autorität, Wissen, wirtschaftlichen oder sozialen Umständen oder Alter;
i) das Ausmaß, in dem das mithilfe eines KI-Systems hervorgebrachte Ergebnis unter Berücksichtigung der verfügbaren technischen Lösungen für seine Korrektur oder Rückgängigmachung leicht zu korrigieren oder rückgängig zu machen ist, wobei Ergebnisse, die sich auf die Gesundheit, Sicherheit oder Grundrechte von Personen negativ auswirken, nicht als leicht korrigierbar oder rückgängig zu machen gelten;
j) das Ausmaß und die Wahrscheinlichkeit, dass der Einsatz des KI-Systems für Einzelpersonen, Gruppen oder die Gesellschaft im Allgemeinen, einschließlich möglicher Verbesserungen der Produktsicherheit, nützlich ist;
k) das Ausmaß, in dem bestehendes Unionsrecht Folgendes vorsieht:
i) wirksame Abhilfemaßnahmen in Bezug auf die Risiken, die von einem KI-System ausgehen, mit Ausnahme von Schadenersatzansprüchen;
ii) wirksame Maßnahmen zur Vermeidung oder wesentlichen Verringerung dieser Risiken.
(3) Die Kommission ist befugt, gemäß Artikel 97 delegierte Rechtsakte zur Änderung der Liste in Anhang III zu erlassen, um Hochrisiko-KI-Systeme zu streichen, die beide der folgenden Bedingungen erfüllen:
a) Das betreffende Hochrisiko-KI-System weist unter Berücksichtigung der in Absatz 2 aufgeführten Kriterien keine erheblichen Risiken mehr für die Grundrechte, Gesundheit oder Sicherheit auf;
b) durch die Streichung wird das allgemeine Schutzniveau in Bezug auf Gesundheit, Sicherheit und Grundrechte im Rahmen des Unionsrechts nicht gesenkt.