KI ist auf der einen Seite eine Technologie mit enormem Potential für Wirtschaft, Gesellschaft und Wissenschaft. Auf der anderen Seite entstehen aber auch etliche Gefahren durch KI. Insbesondere die Privatsphäre steht aufgrund von Gesichtserkennung und Social Scoring auf dem Spiel.
Die EU-Kommission möchte dieser Dualität gerecht werden und hat nun einen Vorschlag vorgelegt, um KI zu reglementieren.
Konkret fordert die Kommission einen risikobasierten Ansatz, bei dem strengere Regeln gelten je riskanter die KI ist. Als Hochrisikoanwendungen werden dabei KIs bezeichnet, die bspw. Scorings von Personen (z.B. bei Einstufung der Kreditwürdigkeit oder bei Stellenbesetzung) erstellen oder System steuern, die eine hohe Gefahr für Betroffene darstellen (z.B. selbstfahrende Autos, Operationsroboter, KRITIS). Anbieter solcher Hochrisikoanwendungen sollten die Entwicklung und Nutzung der KI dokumentieren, die Technologie akkurat, robust und sicher gestalten sowie die Trainingsdaten kontrollieren. Ebenso müssen diese dafür sorgen, dass die KI-Aktivitäten aufgezeichnet werden, damit diese „nachvollzogen“ werden können. Besonderen Wert legt die Kommission darauf, dass den Betroffenen der Einsatz einer KI transparent gemacht wird.
Vollkommen verboten sind KIs, die für eine generalisierte Überwachung oder Manipulation der Bevölkerung genutzt werden können und solche Systeme, die das sog. Social Scoring (Bewertung von Menschen Aufgrund ihres Verhaltens) ermöglichen.
Mit dem Vorschlag wagt die Kommission den Spagat zwischen Sicherheit und Förderung der neuen Technologie. Eine solche KI-Regulierung wäre ein weltweites Novum. Der Gesetzgebungsprozess kann aber noch bis zu 2 Jahre dauern.