AI Act :
Artikel 14- Menschliche Aufsicht
KAPITEL I- ALLGEMEINE BESTIMMUNGEN
KAPITEL II– VERBOTENE PRAKTIKEN IM KI-BEREICH
KAPITEL III– HOCHRISIKO-KI-SYSTEME
- Artikel 6_ Einstufungsvorschriften für Hochrisiko-KI-Systeme
- Artikel 7_ Änderungen des Anhangs III
- Artikel 8_ Einhaltung der Anforderungen
- Artikel 9_ Risikomanagementsystem
- Artikel 10_ Daten und Daten-Governance
- Artikel 11_ Technische Dokumentation
- Artikel 12_ Aufzeichnungspflichten
- Artikel 13_ Transparenz und Bereitstellung von Informationen für die Betreiber
- Artikel 14_ Menschliche Aufsicht
- Artikel 15_ Genauigkeit, Robustheit und Cybersicherheit
- Artikel 16_ Pflichten der Anbieter von Hochrisiko-KI-Systemen
- Artikel 17_ Qualitätsmanagementsystem
- Artikel 18_ Aufbewahrung der Dokumentation
- Artikel 19_ Automatisch erzeugte Protokolle
- Artikel 20_ Korrekturmaßnahmen und Informationspflicht
- Artikel 21_ Zusammenarbeit mit den zuständigen Behörden
- Artikel 22_ Bevollmächtigte der Anbieter von Hochrisiko-KI-Systemen
- Artikel 23_ Pflichten der Einführer
- Artikel 24_ Pflichten der Händler
- Artikel 25 _ Verantwortlichkeiten entlang der KI-Wertschöpfungskette
- Artikel 26 _ Pflichten der Betreiber von Hochrisiko-KI-Systemen
- Artikel 27_ Grundrechte-Folgenabschätzung für Hochrisiko-KI-Systeme
- Artikel 28 _ Notifizierende Behörden
- Artikel 29_ Antrag einer Konformitätsbewertungsstelle auf Notifizierung
- Artikel 30_ Notifizierungsverfahren
- Artikel 31_ Anforderungen an notifizierte Stellen
- Artikel 32_ Vermutung der Konformität mit den Anforderungen an notifizierte Stellen
- Artikel 33_ Zweigstellen notifizierter Stellen und Vergabe von Unteraufträgen
- Artikel 34_ Operative Pflichten der notifizierten Stellen
- Artikel 35_ Identifizierungsnummern und Verzeichnisse notifizierter Stellen
- Artikel 36_ Änderungen der Notifizierungen
- Artikel 37_ Anfechtungen der Kompetenz notifizierter Stellen
- Artikel 38_ Koordinierung der notifizierten Stellen
- Artikel 39_ Konformitätsbewertungsstellen in Drittländern
- Artikel 40_ Harmonisierte Normen und Normungsdokumente
- Artikel 41_ Gemeinsame Spezifikationen
- Artikel 42_ Vermutung der Konformität mit bestimmten Anforderungen
- Artikel 43_ Konformitätsbewertung
- Artikel 44_ Bescheinigungen
- Artikel 45_ Informationspflichten der notifizierten Stellen
- Artikel 46_ Ausnahme vom Konformitätsbewertungsverfahren
- Artikel 47_ EU-Konformitätserklärung
- Artikel 48_ CE-Kennzeichnung
- Artikel 49_ Registrierung
KAPITEL IV- TRANSPARENZPFLICHTEN FÜR ANBIETER UND BETREIBER BESTIMMTER KI-SYSTEME
KAPITEL V– KI-MODELLE MIT ALLGEMEINEM VERWENDUNGSZWECK
KAPITEL VI– MASSNAHMEN ZUR INNOVATIONSFÖRDERUNG
KAPITEL VIII- EU-DATENBANK FÜR HOCHRISIKO-KI-SYSTEME
KAPITEL IX– BEOBACHTUNG NACH DEM INVERKEHRBRINGEN, INFORMATIONSAUSTAUSCH UND MARKTÜBERWACHUNG
KAPITEL X– VERHALTENSKODIZES UND LEITLINIEN
(1) Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie während der Dauer ihrer Verwendung — auch mit geeigneten Instrumenten einer Mensch-Maschine-Schnittstelle — von natürlichen Personen wirksam beaufsichtigt werden können.
(2) Die menschliche Aufsicht dient der Verhinderung oder Minimierung der Risiken für Gesundheit, Sicherheit oder Grundrechte, die entstehen können, wenn ein Hochrisiko-KI-System im Einklang mit seiner Zweckbestimmung oder im Rahmen einer vernünftigerweise vorhersehbaren Fehlanwendung verwendet wird, insbesondere wenn solche Risiken trotz der Einhaltung anderer Anforderungen dieses Abschnitts fortbestehen.
(3) Die Aufsichtsmaßnahmen müssen den Risiken, dem Grad der Autonomie und dem Kontext der Nutzung des Hochrisiko-KI-Systems angemessen sein und werden durch eine oder beide der folgenden Arten von Vorkehrungen gewährleistet:
a) Vorkehrungen, die vor dem Inverkehrbringen oder der Inbetriebnahme vom Anbieter bestimmt und, sofern technisch machbar, in das Hochrisiko-KI-System eingebaut werden;
b) Vorkehrungen, die vor dem Inverkehrbringen oder der Inbetriebnahme des Hochrisiko-KI-Systems vom Anbieter bestimmt werden und dazu geeignet sind, vom Betreiber umgesetzt zu werden.
(4) Für die Zwecke der Durchführung der Absätze 1, 2 und 3 wird das Hochrisiko-KI-System dem Betreiber so zur Verfügung gestellt, dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wurde, angemessen und verhältnismäßig in der Lage sind,
a) die einschlägigen Fähigkeiten und Grenzen des Hochrisiko-KI-Systems angemessen zu verstehen und seinen Betrieb ordnungsgemäß zu überwachen, einschließlich in Bezug auf das Erkennen und Beheben von Anomalien, Fehlfunktionen und unerwarteter Leistung;
b) sich einer möglichen Neigung zu einem automatischen oder übermäßigen Vertrauen in die von einem Hochrisiko-KI-System hervorgebrachte Ausgabe („Automatisierungsbias“) bewusst zu bleiben, insbesondere wenn Hochrisiko-KI-Systeme Informationen oder Empfehlungen ausgeben, auf deren Grundlage natürliche Personen Entscheidungen treffen;
c) die Ausgabe des Hochrisiko-KI-Systems richtig zu interpretieren, wobei beispielsweise die vorhandenen Interpretationsinstrumente und -methoden zu berücksichtigen sind;
d) in einer bestimmten Situation zu beschließen, das Hochrisiko-KI-System nicht zu verwenden oder die Ausgabe des Hochrisiko-KI-Systems außer Acht zu lassen, außer Kraft zu setzen oder rückgängig zu machen;
e) in den Betrieb des Hochrisiko-KI-Systems einzugreifen oder den Systembetrieb mit einer „Stopptaste“ oder einem ähnlichen Verfahren zu unterbrechen, was dem System ermöglicht, in einem sicheren Zustand zum Stillstand zu kommen.
(5) Bei den in Anhang III Nummer 1 Buchstabe a genannten Hochrisiko-KI-Systemen müssen die in Absatz 3 des vorliegenden Artikels genannten Vorkehrungen so gestaltet sein, dass außerdem der Betreiber keine Maßnahmen oder Entscheidungen allein aufgrund des vom System hervorgebrachten Identifizierungsergebnisses trifft, solange diese Identifizierung nicht von mindestens zwei natürlichen Personen, die die notwendige Kompetenz, Ausbildung und Befugnis besitzen, getrennt überprüft und bestätigt wurde.
Die Anforderung einer getrennten Überprüfung durch mindestens zwei natürliche Personen gilt nicht für Hochrisiko-KI-Systeme, die für Zwecke in den Bereichen Strafverfolgung, Migration, Grenzkontrolle oder Asyl verwendet werden, wenn die Anwendung dieser Anforderung nach Unionsrecht oder nationalem Recht unverhältnismäßig wäre.