„Risikoreichen Anwendungsfälle“: So will die EU Künstliche Intelligenz regulieren

Diese Woche werden sich die EU-Staaten mit der Definition von KI, der Risikoeinstufung, den risikoreichen Anwendungsfällen und Folgenabschätzung für die Grundrechte auseinandersetzen, um das neue KI-Gesetz so schnell wie möglich auf den Weg zu bringen.

/
/
2 Minuten Lesezeit
„Risikoreichen Anwendungsfälle“: So will die EU Künstliche Intelligenz regulieren
Spanien strebt eine Einigung über das KI-Gesetz an© IMAGO / ZUMA Wire

Madrid. - Seit 1. Juli hat Spanien die rotierende Präsidentschaft des EU-Ministerrats übernommen und strebt im Zuge dessen eine politische Einigung über das KI-Gesetz an. Bereits am 29. Juni hat die spanische Ratspräsidentschaft ein Dokument in Umlauf gebracht, das EURACTIV vorliegt und in dem ein Meinungsaustausch für den heutigen Mittwoch in einem technischen Gremium des Rats über vier kritische Punkte des KI-Regelwerks angekündigt wird.

EU-Rat grenzt Definition ein

Die Definition des Europäischen Parlaments für Künstliche Intelligenz stimmt mit der Auffassung der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) überein und versucht auch, künftige Anpassungen vorwegzunehmen, die momentan noch in der internationalen Organisation diskutiert werden. So heißt es im Text des Parlaments: „Ein System der künstlichen Intelligenz (KI-System) ist ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichen Graden von Autonomie arbeitet und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen“. Um zu vermeiden, dass herkömmliche Software von der Definition erfasst wird, grenzt der EU-Rat die Definition auf maschinelle Lernsätze sowie logik- und wissensbasierte Ansätze ein.

Leitlinie für Risikoeinschätzung

Das KI-Gesetz verpflichtet die Entwickler von Systemen, die ein hohes Risiko für die Sicherheit und die Grundrechte von Menschen darstellen, zur Einhaltung strengerer Vorschriften für das Risikomanagement, die Datenverwaltung und die technische Dokumentation, wie EURACTIV berichtet. Die Einstufung der Systeme in diese Kategorie war Gegenstand umfangreicher Änderungen. Ursprünglich sah der Gesetzentwurf eine automatische Einstufung von KI-Anwendungen mit hohem Risiko vor, die unter eine vorformulierte Liste von Anwendungsfällen fielen. Beide Mitgesetzgeber entfernten diesen Automatismus und führten eine „zusätzliche Ebene“ ein.

Für den Rat bezieht sich diese neue Ebene auf die Bedeutung der Ergebnisse des KI-Systems im Entscheidungsprozess, wobei rein ergänzende Ergebnisse aus dem Geltungsbereich herausgehalten werden. Die EU-Abgeordneten hingegen führten ein System ein, bei dem die KI-Entwickler auf Grundlage von der EU-Kommission bereitgestellten Leitlinien selbst beurteilen sollten, ob die vorformulierten Anwendungsfälle ein hohes Risiko darstellen.

Risikoreiche Anwendungsfälle und Folgen für Grundrechte

Bei der Liste von risikoreichen Anwendungsfällen wurden von den beiden Mitgesetzgebern starke Änderungen vorgenommen. So strichen die EU-Länder die Erfassung von sogenannten Deepfakes durch Strafverfolgungsbehörden, die Kriminalitätsanalyse und die Überprüfung der Echtheit von Reisedokumenten. Hinzugefügt wurden kritische digitale Infrastrukturen sowie Lebens- und Krankenversicherungen. Zudem erweiterten die EU-Abgeordneten die Liste erheblich, indem sie biometrische Daten, kritische Infrastrukturen, Empfehlungssysteme der größten sozialen Medien, Systeme mit Möglichkeit der Wahlergebnisbeeinflussung, und Einsatz von KI bei der Streitbeilegung und beim Grenzmanagement hinzufügten.

Mitte-links Abgeordnete wollen die Nutzer von risikoreichen KI-Systemen verpflichten, vor der Inbetriebnahme des Systems eine Folgenabschätzung für die Grundrechte durchzuführen. Diese Abschätzung soll den beabsichtigten Verwendungszweck, den zeitlichen Anwendungsbereich und die Kategorien von Personen oder Gruppen, die wahrscheinlich betroffen sind, berücksichtigen.