Hochrisiko-KI-Systeme: EU-Kommission startet Konsultation zur Umsetzung des AI Act
- Erika Leitgeb
- 24. Juni
- 3 Min. Lesezeit
Die Europäische Kommission hat am 10. Juni 2025 eine öffentliche Konsultation gestartet, um Rückmeldungen zur praktischen Umsetzung der Vorgaben des AI Act im Hinblick auf sogenannte "Hochrisiko-KI-Systeme" einzuholen. Ziel ist es, Klarheit über die Einstufung solcher Systeme zu schaffen und die Rollen sowie Pflichten entlang der KI-Wertschöpfungskette weiter zu präzisieren.

Zielsetzung der Konsultation
Mit der laufenden Konsultation verfolgt die Kommission mehrere zentrale Anliegen. Einerseits sollen Beiträge zur Klassifikation hochriskanter KI-Systeme gesammelt werden - insbesondere zu den Kriterien, die für eine Einstufung nach Artikel 6 und den Anhängen I und III des AI Act herangezogen werden. Andererseits zielt die Befragung auf die Klärung der Anforderungen und Verantwortlichkeiten der beteiligten Akteure ab, darunter KI-Anbieter, Betreiber, Integratoren und sonstige Beteiligte, die Einfluss auf die Gestaltung, Implementierung oder Änderung eines KI-Systems nehmen.
Zugleich ist es das erklärte Ziel, die Ergebnisse dieser Konsultation in künftige Leitlinien der Kommission einfließen zu lassen, die zur einheitlichen und praxistauglichen Anwendung des AI Act in der gesamten EU beitragen sollen.
Hochrisiko-Kategorien gemäß AI Act
Der AI Act unterscheidet zwei Gruppen von Systemen, die als "High risk" - also als hochriskant - eingestuft werden. Die erste Gruppe umfasst KI-Systeme, die eine sicherheitsrelevante Komponente innerhalb eines Produkts darstellen, das unter eine bestehende EU-Produktsicherheitsregelung fällt. Beispiele sind etwa Maschinen, Spielzeuge oder Medizinprodukte. Die zweite Gruppe betrifft Systeme, die bei bestimmten Einsatzzwecken ein besonders hohes Risiko für Gesundheit, Sicherheit oder Grundrechte mit sich bringen. Diese sogenannten Hochrisikoanwendungsfälle sind abschließend in Anhang III des AI Act aufgelistet und reichen von der biometrischen Identifikation über Kreditwürdigkeitsprüfungen bis hin zum Zugang zu Bildungsangeboten oder Sozialleistungen.
Aufbau und Inhalt des Fragebogens
Der veröffentlichte Fragebogen gliedert sich in fünf thematische Abschnitte. Im ersten Abschnitt geht es um die Klassifikation gemäß Artikel 6 Absatz 1 und Anhang I des AI Act. Gefragt wird insbesondere, wie der Begriff der sicherheitsrelevanten Komponente zu verstehen ist und wie die einzlnen Produktkategorien konkret abgegrenzt werden können.
Der zweite Abschnitt befasst sich mit den spezifischen Anwendungsfällen, die in Anhang III genannt sind. Die Kommission bittet hier um Rückmeldung dazu, wie KI-Systeme innerhalb dieser Sektoren konkret einzustufen sind - also beispielsweise bei der Bewertung von Prüfungsergebnissen oder im Bereich der Strafverfolgung. Besondere Aufmerksamkeit gilt dem sogenannten Filtermechanismus nach Artikel 6 Absatz 2, der eine Ausnahme von der Hochrisikoklassifikation ermöglicht, wenn bestimmte Bedingungen erfüllt sind - etwa eine stark eingeschränkte Funktionalität oder die geringe Verbreitung des Systems.
Im dritten Teil stehen übergreifende Klassifizierungen im Mittelpunkt. Dazu zählen das Zusammenspiel zwischen dem "beabsichtigten Zweck" eines Systems und der generischen Nutzung von KI, aber auch die Problematik potenzieller Doppelzuordnungen zu mehreren Risikokategorien.
Der vierte Abschnitt der Konsultation widmet sich den Pflichten entlang der KI-Wertschöpfungskette. Diskutiert werden soll, wie die gesetzlichen Anforderungen konkret umgesetzt werden können - etwa die Pflicht zur Risikobewertung, zur Dokumentation und zur Überwachung von Systemen. Auch der Begriff der "wesentlichen Änderung" und deren Folgen für die Compliance-Pflichten wird behandelt.
Abschließend fragt der fünfte Teil der Konsultation, ob bestimmte Anwendungen aus dem Anhang III gestrichen oder ergänzt werden sollten, und ob einzelne KI-Praktiken, die bislang nicht im Anwendungsbereich des Artikel 5 (verbotene Praktiken) erfasst sind, künftig berücksichtigt werden sollten.
Bedeutung für die Praxis
Für alle Akteure, die KI-Systeme entwickeln, implementieren oder betreiben, ist diese Konsultation von erheblicher Relevanz. Die Ergebnisse werden die zukünftige Auslegung der Hochrisikodefinition maßgeblich prägen und könnten auch die Entscheidungsgrundlage für Aufsichtsbehörden bei der Marktüberwachung bilden.
Nicht zuletzt können Unternehmen über ihre Teilnahme Einfluss auf die Gestaltung der Durchführungsleitlinien nehmen und somit zur Schärfung oder Klärung bislang offener Begriffe beitragen - etwa zum Verhältnis zwischen generischer KI und spezifischen Anwendungszwecken oder zur praktischen Anwendung der Ausnahmeregelungen.
Die öffentliche Konsultation läuft noch bis zum 18. Juli 2025. Beiträge können direkt über das Online-Portal der Kommission eingereicht werden.
Quelle & Eckdaten
👉 Link zum Dokument | |
Art des Dokuments | Öffentliche Konsultation |
📆 Veröffentlichung | 10. Juni 2025 |
Herausgeber | Europäische Kommission |
Rechtsgrundlage | Verordnung (EU) 2024/1689 - AI Act |
✅ Status | Konsultation offen bis 18. Juli 2025 |
Relevante Artikel/Anhänge | Artikel 5, Artikel 6, Artikel 25, Anhang I, Anhang III |



