„Nein“ zu Social Scoring und Emotionserkennung
Mit dem AI-Act werden Anwendungen, die künstliche Intelligenz nutzen, in vier verschiedene Klassen eingeteilt: in solche mit nicht akzeptablem, hohem, begrenztem und niedrigem Risiko. Inakzeptabel und deshalb verboten sind Systeme, über die das Verhalten von Menschen manipuliert werden kann. Unzulässig sind außerdem Programme zur Emotionskontrolle und das sogenannte Social Scoring, mit dem Regierungen oder Unternehmen menschliches Verhalten bewerten. Der AI-Act unterbindet außerdem die Nutzung von Gesichtserkennung im öffentlichen Raum. Allerdings gelten Ausnahmen für Polizei und Sicherheitsbehörden, wenn dadurch schwere Straftaten wie Menschenhandel oder Terrorismus verhindert werden sollen.
Höheres Risiko – strengere Vorschriften
Zulässig, aber mit hohen Auflagen versehen sind Hochrisikosysteme, die beispielsweise in der kritischen Infrastruktur, in der Strafverfolgung, im Bankenwesen oder in Bildungseinrichtungen zum Einsatz kommen. Dabei geht es vor allem darum, dass der Schutz der Grundrechte gewahrt bleibt. Anwendungen mit begrenztem und niedrigem Risiko haben weniger Auflagen zu erfüllen. Auch für sie gilt allerdings eine Informations- und Transparenzpflicht.
In der Praxis bedeutet das beispielsweise, dass mit KI erzeugte Texte, Bilder, Videos oder Tonaufnahmen als solche gekennzeichnet sein müssen.
Fazit
Nach der Zustimmung des EU-Parlaments im März und der jetzt erfolgten Verabschiedung durch die Mitgliedsstaaten kann der AI Act nach der Veröffentlichung im Amtsblatt endlich in Kraft treten. Allerdings müssen die EU-Länder noch viele Details ausarbeiten, die das Regelwerk offen gelassen hat. Dazu gehört auch die Frage der Sanktionen. Fest steht aber bereits, dass sich die Höhe von Bußgeldern nach dem Jahresumsatz der Verwender richten soll.
Alles, was Sie wissen müssen
Report absenden