Der 1. August 2024 markiert einen historischen Meilenstein in der Regulierung von Künstlicher Intelligenz (KI). An diesem Tag trat das weltweit erste KI-Gesetz in der Europäischen Union in Kraft. Die Mitgliedstaaten haben nun bis August 2025 Zeit, nationale Behörden zu benennen, die die Einhaltung der neuen Vorschriften ab August 2026 überwachen werden. Doch was bedeutet dieses 144 Seiten umfassende Gesetz konkret für Entwickler und Nutzer von KI-Systemen?
Verbotene Anwendungen: Höchste Risikostufe
Informatikprofessor Holger Hermanns von der Universität des Saarlandes und seine Kollegen haben einen Leitfaden erstellt, um mehr Klarheit über die Auswirkungen des neuen Gesetzes zu schaffen. Die zentrale Botschaft lautet: Je riskanter ein KI-System ist, desto strenger sind die Anforderungen. Das KI-Gesetz teilt die verschiedenen Anwendungen in vier Risikogruppen ein.
Systeme mit „unannehmbarem Risiko“ werden ohne Übergangsfrist sofort verboten. Dazu gehören Anwendungen, die Grundrechte bedrohen, wie etwa Systeme zur sozialen Bewertung durch Regierungen, emotionale Auswertungen am Arbeitsplatz oder Gesichtserkennung an öffentlichen Orten. Diese Technologien, die beispielsweise in China verbreitet sind, wurden in der EU schon vor dem Verbot nur in begrenztem Umfang getestet.
Strenge Auflagen für Hochrisiko-KI
Die nächste Kategorie umfasst Anwendungen mit „hohem Risiko“, die in kritischen Bereichen wie Infrastruktur, Gesundheit oder Justiz eingesetzt werden. Auch Kreditscoring-Systeme und Bewerbungssoftware, die Vorentscheidungen für Personaler treffen, fallen in diese Kategorie. Fehler in diesen Systemen können Existenzen und Leben gefährden. Daher müssen Entwickler strenge Vorgaben einhalten.
Professor Hermanns erklärt, dass die Trainingsdaten solcher KI-Systeme so gestaltet sein müssen, dass die KI ihre Aufgaben zuverlässig erfüllt. Beispielsweise soll eine Bewerbungssoftware keine Gruppe von Bewerbern diskriminieren, weil diese in den Trainingsdaten unterrepräsentiert ist. Zudem muss das System protokollieren, was zu welchem Zeitpunkt passiert – ähnlich wie eine Black Box im Flugzeug – um maximale Transparenz zu gewährleisten. Die Funktionsweise des Systems muss außerdem dokumentiert werden, sodass Betreiber Fehler eigenständig erkennen und beheben können.
Transparenz für Endnutzer: Geringeres Risiko
Laut Schätzungen der Europäischen Kommission bewegen sich die meisten KI-Anwendungen jedoch auf geringeren Risiko-Stufen. Dazu gehören beispielsweise Chatbots wie ChatGPT. Hier müssen Programmierer künftig vor allem auf mehr Transparenz gegenüber den Endnutzern achten. Nutzer müssen klar erkennen können, dass sie mit einer Maschine interagieren. Auch KI-generierte Inhalte wie Deep Fakes müssen eindeutig als solche gekennzeichnet werden. Wie genau dies zu geschehen hat, ist jedoch noch nicht festgelegt.
Minimales Risiko: Narrenfreiheit für Entwickler
Für KI-Anwendungen mit „minimalem Risiko“ wie lernfähige Spam-Filter oder automatisch generierte Reaktionen von Videospielcharakteren entstehen durch das neue Gesetz keinerlei zusätzliche Verpflichtungen. Entwickler können jedoch freiwillig einen internen Verhaltenskodex verabschieden.
Ein Fazit: Regulierung als Wettbewerbsvorteil?
Sarah Sterz, Kollegin von Professor Hermanns, zieht ein positives Fazit: „Entwickler und Nutzer werden unterm Strich nicht wirklich viel Veränderung spüren.“ Die Befürchtung, dass europäische Tech-Unternehmen durch die stärkere Regulierung im internationalen Wettbewerb zurückfallen könnten, hält sie für unbegründet. Im Gegenteil könnte der AI Act der europäischen KI sogar zum Vorteil gereichen, indem er ihr eine Art Gütesiegel für Sicherheit und Transparenz verleiht. „Der AI Act ist ein Versuch, KI auf vernünftige Weise zu regulieren, und das ist nach unserem Dafürhalten gut gelungen“, betont Hermanns.
Das neue KI-Gesetz stellt einen wichtigen Schritt in der Entwicklung und Nutzung von Künstlicher Intelligenz dar. Es setzt klare Grenzen für riskante Anwendungen und fördert gleichzeitig Transparenz und Sicherheit. Ob es tatsächlich zu einem Wettbewerbsvorteil für europäische Unternehmen führt, wird die Zukunft zeigen. Eines ist jedoch sicher: Die Regulierung von KI ist ein notwendiger Schritt, um die Technologie verantwortungsvoll und ethisch vertretbar zu gestalten.
Abonnieren Sie unseren Newsletter, um aktuelle Informationen und Einblicke direkt in Ihr Postfach zu erhalten. Bei weiteren Fragen oder Anliegen können sie uns unter unserem Kontaktformular kontaktieren.