Ihre Kontakte
Das Inkrafttreten der KI-Gesetzgebung der Europäischen Union rückt näher: Die Europäische Kommission, der Rat der Europäischen Union und das Europäische Parlament haben sich am 8. Dezember 2023 im Trilog auf einen politischen Kompromiss zum AI Act geeinigt. Damit stehen die zentralen Eckpunkte des künftigen Erlasses fest und es ist somit nicht mehr mit einem Scheitern der Regulierung zu rechnen. Dieser Kompromiss stellt einen entscheidenden Schritt im Gesetzgebungsprozess dar. Es wurden jedoch weitere Verhandlungen über die endgültige Ausgestaltung einzelner Detailaspekte des AI Acts angekündigt. Die finale Fassung des AI Acts wird voraussichtlich im ersten Quartal 2024 vorliegen. Die Auswirkungen dieses Regelwerks werden auch Schweizer Unternehmen betreffen. Der AI Act gilt für KI-Systeme, die in der EU auf den Markt gebracht bzw. genutzt werden oder Auswirkungen auf Personen in der EU haben. Der AI Act sieht einen risikobasierten Regulierungsansatz mit unterschiedlicher Regulierungsdichte vor. Sog. «high-risk AI systems» müssen dabei zahlreiche Pflichten bei und nach dem Inverkehrbringen erfüllen. Unternehmen, die KI-Systeme in ihren Produkten oder Dienstleistungen einsetzen, sind gut beraten, die weiteren Entwicklungen genau zu verfolgen und Compliance-Prozesse einzuleiten, sobald die endgültige Fassung des AI Acts vorliegt.
Der Gesetzgebungsprozess bis heute
Die Europäische Kommission hat im April 2021 einen ersten Entwurf für eine Verordnung zur Harmonisierung der künstlichen Intelligenz (KI) in der EU und zur Bewältigung der damit verbundenen Risiken veröffentlicht («AI Act»; s. dazu MLL-News vom 12.8.2021). Nach einem risikobasierten Ansatz sollten bestimmte KI-Anwendungen verboten und für andere je nach Risikograd unterschiedliche Verpflichtungen festgelegt werden. Für KI-Systeme mit minimalen Risiken waren keine neuen Regelungen vorgesehen. Für Verstösse wurden hohe Bussgelder angedroht und Anbietern von KI-Systemen wurden Produktbeobachtungspflichten auferlegt.
Am 14. Juni 2023 veröffentlichte das Europäische Parlament seinerseits einen geänderten Entwurf. Dieser Entwurf berücksichtigte die neuesten technologischen Entwicklungen wie Large Language Models (LLM), einschliesslich Dienste wie «ChatGPT» von OpenAI. Der Entwurf nahm zudem Ergänzungen und Präzisierungen betreffend verbotene Anwendungen und KI-Systeme mit hohen Risiken vor. Erweitert wurden auch gewisse Pflichten für KI-Systeme mit hohen Risiken. Im Gegensatz zum Entwurf der Europäischen Kommission sah der Entwurf des Europäischen Parlamentes für andere KI-Systeme als solche mit hohen Risiken die Einhaltung von allgemeinen Prinzipien vor.
Auf dieser Grundlage sowie einer Version des Rates der Europäischen Union haben im Herbst 2023 die Trilogverhandlungen begonnen.
Am 8. Dezember 2023 haben sich die Co-Gesetzgeber nach langwierigen Verhandlungen und mehreren zusätzlichen Verhandlungsrunden nun auf einen politischen Kompromiss geeinigt, der noch in die endgültige Fassung des AI Acts eingearbeitet werden muss. Da der Text noch nicht veröffentlicht wurde, bestehen unseres Erachtens bei einzelnen Themen noch gewisse Unklarheiten. So sah der letzte Entwurf des Europäischen Parlamentes noch vor, dass KI-Systeme, welche unter den AI Act fallen, aber nicht als KI-Systeme mit hohem Risiko zu qualifizieren sind, sog. allgemeine Prinzipien einhalten müssen. In der Pressemitteilung des Europäischen Parlamentes vom 9. Dezember 2023 wird auf diesen Punkt nicht eingegangen. Im FAQ der Europäischen Kommission vom 12. Dezember 2023 wird dagegen festgehalten, dass für KI-Systeme mit geringem Risiko keine speziellen Pflichten gelten sollen. Die Anbieter solcher KI-Systeme können auf freiwilliger Basis die Anforderungen an verantwortungsvolle KI einhalten. Diese Mitteilung enthält keinen Hinweis mehr auf die allgemeinen Prinzipien des Europäischen Parlamentes. Im Gegensatz zur Pressemitteilung des Europäischen Parlamentes erwähnt der FAQ der Europäischen Kommission dagegen spezifische Anforderungen für sog. «Specific Transparency Risks». Bestimmte AI Systeme, welche Inhalte generieren, die z.B. für Manipulationen geeignet sind, (z.B. Deepfakes) sollen spezifischen Transparenzpflichten unterliegen – auch wenn sie nicht als KI-Systeme mit hohen Risiken einzustufen sind. Der Umfang dieser Transparenzpflichten und auch die Festlegung der AI-Systeme, für welche diese Pflichten gelten, sind aufgrund der veröffentlichten Informationen noch nicht abschliessend klar. Aufgrund der unterschiedlichen Informationen ist für eine abschliessende Beurteilung der finalisierte Text abzuwarten. Wenn nachfolgend auf die betreffenden Kompromisslösungen hingewiesen wird, stehen die Hinweise unter Vorbehalt, dass der amtlich gültige Text des AI Acts erst veröffentlicht werden muss.
Anwendungsbereich des AI Acts
Der AI Act ist eine europäische Verordnung, welche die Inverkehrsetzung von Anwendungen der künstlichen Intelligenz («KI-Systeme») im europäischen Binnenmarkt regeln wird. Um KI-Systeme von einfacher Software abgrenzen zu können, haben sich die Co-Gesetzgeber im Trilog darauf geeinigt, sich an der OECD-Definition zu orientieren, ohne diese wörtlich zu übernehmen. Wie die Definition genau lauten wird, wird erst mit der endgültigen Fassung des AI Acts ersichtlich werden.
Die Definition der OECD lautet: “An AI system is a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments. Different AI systems vary in their levels of autonomy and adaptiveness after deployment.» Eine ausführliche Erläuterung dieser Definition findet sich im Blog der OECD.
Darüber hinaus wird auch der territoriale Anwendungsbereich der Verordnung weit gefasst sein. Bereits der Vorschlag der Kommission sah das Auswirkungsprinzip vor, wonach sowohl öffentliche als auch private Akteure innerhalb und ausserhalb der EU erfasst werden, sofern das KI-System in der Union in Verkehr gebracht oder genutzt wird oder Menschen in der EU von der Verwendung des KI-Systems betroffen sind, d.h. der Output des KI-Systems in der EU Auswirkungen zeitigt. Irrelevant wird dabei sein, ob der Anbieter des KI-Systems seinen Sitz in der EU hat oder nicht. Anzumerken bleibt an dieser Stelle, dass die EU-Datenschutzgrundverordnung (DSGVO) parallel zur Anwendung kommt.
Der Anwendungsbereich des AI Acts wurde im Trilog insofern angepasst, als dass der AI Act nicht für Bereiche gelten wird, die nicht durch EU-Recht geregelt sind. Er wird auch nicht für KI-Systeme gelten, die ausschliesslich zu militärischen oder Verteidigungszwecken eingesetzt werden. Der AI Act wird auch keine Anwendung auf KI-Systeme finden, wenn diese für Forschung und Entwicklung oder für nicht-professionelle Zwecke eingesetzt werden. Für eine abschliessende Beurteilung muss der finale gültige Text abgewartet werden.
Betreffend die Ausnahme von Open Source Lösungen vom AI Act sind die bisherigen Informationen nicht vollständig klar. Basierend auf den Informationen von Euractiv scheint es so zu sein, dass kostenlose und Open Source Software nur dem AI Act unterstehen, wenn sie unter die verbotenen Anwendungen fallen, als KI-Systeme mit hohen Risiken zu qualifizieren sind, oder für Manipulationen geeignet sind. Zusätzlich gibt es eine spezielle Lösung für kostenlose bzw. Open Source General-Purpose AI Modelle. Diese sind gemäss Euractiv vom Anwendungsbereich ausgenommen, wenn deren Parameter öffentlich zugänglich gemacht werden, mit Ausnahme der Umsetzung einer Politik zur Einhaltung des Urheberrechts, der Veröffentlichung der detaillierten Zusammenfassung betreffend Trainingsdaten, der Einhaltung der Pflichten für sog. «high impact» Modelle mit systemischen Risiken und der Verantwortlichkeiten entlang der KI-Wertschöpfungskette. Für eine abschliessende Beurteilung der Tragweite dieser Ausnahmen muss auf den amtlich gültigen Verordnungstext gewartet werden.
Regelungen für General-Purpose AI Systeme und Modelle
Mit dem Entwurf des Europäischen Parlaments vom 14. Juni 2023 wurden neue Klassen von KI-Systemen eingeführt – General-Purpose AI (GPAI) und Foundation Models. Die Mitteilungen des Europäischen Parlamentes sowie der FAQ der Europäischen Kommission zum Trilog sprechen dagegen nur noch von General-Purpose AI (GPAI) bzw. General-Purpose AI Models. Der Kompromiss sieht vor, dass GPAI-Systeme und GPAI-Modelle den vom Parlament vorgeschlagenen Transparenzanforderungen genügen müssen. Die Entwickler solcher Systeme und Modelle müssen eine technische Dokumentation gemäss dem vom Parlament vorgeschlagenen Entwurf des KI-Gesetzes erstellen, die EU-Urheberrechtsgesetze einhalten und detaillierte Zusammenfassungen über die für das Training verwendeten Inhalte offenlegen. Eine strengere Regelung wurde für «High-Impact» GPAI Modelle mit systemischen Risiken eingeführt. Als High Impact GPAI Modelle mit systemischen Risiken gelten gemäss FAQ der Europäische Kommission GPAI Modelle, die mit einer Gesamtrechenleistung von mehr als 10^25 FLOPs trainiert wurden, da Modelle, die mit einer grösseren Rechenleistung trainiert wurden, tendenziell leistungsfähiger sind. Das AI Office kann diesen Schwellenwert im Lichte des technologischen Fortschritts aktualisieren und darüber hinaus in bestimmten Fällen andere Modelle auf der Grundlage weiterer Kriterien (z. B. Anzahl der Nutzer oder Grad der Autonomie des Modells) als solche mit systemischen Risiken bezeichnen. Die Pflichten für solche GPAI-Modelle mit systemischen Risiken umfassen z.B. Modellevaluierungen, Bewertung und Abschwächung des Systemrisikos, gegnerische Tests, Meldung schwerwiegender Vorfälle, Cybersicherheit und Berichterstattung über ihre Energieeffizienz.
Klassifizierung der KI-Systeme nach einem risikobasierten Ansatz
Der Kompromiss scheint von einem vierstufigen Ansatz auszugehen, wobei die genaue Ausgestaltung noch nicht vollständig klar ist. Die Zuordnung eines KI-Systems entscheidet darüber, welche Massnahmen zu treffen sind, um das entsprechende Risiko auf ein konformes Mass zu reduzieren (sofern das KI-System nicht verboten ist).
Gemäss FAQ der Europäischen Kommission sind die folgenden Risikostufen vorgesehen:
1. Systeme mit unannehmbarem Risiko (verbotene KI-Systeme)
Systeme mit unannehmbarem Risiko sind KI-Systeme, die gegen Werte der EU verstossen, da sie Grundrechte verletzen. Darunter fallen beispielsweise:
- biometrische Kategorisierungssysteme, die sensible Merkmale verwenden
- ungezieltes Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsanlagen zur Erstellung von Gesichtserkennungsdatenbanken
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
- Soziales Scoring auf der Grundlage von Sozialverhalten oder persönlichen Merkmalen
- KI-Systeme, die das Verhalten von Menschen manipulieren, um ihren freien Willen zu umgehen
- KI, die eingesetzt wird, um die Schwächen von Menschen (aufgrund ihres Alters, einer Behinderung, ihrer sozialen oder wirtschaftlichen Lage) auszunutzen.
Umstritten war, ob biometrische Erkennungssysteme an öffentlich zugänglichen Standorten (sog. «Remote Biometric Identification» (RBI)) ebenfalls als verbotene Applikationen gelten sollen. Die Verhandlungsführer einigten sich gemäss Pressemitteilung des Europäischen Parlamentes auf eine Reihe von Schutzmassnahmen und engen Ausnahmen für die Verwendung solcher biometrischer Identifizierungssysteme (RBI) zu Strafverfolgungszwecken, vorbehaltlich einer vorherigen richterlichen Genehmigung und für streng definierte Listen von Straftaten. Die «Post-Remote»-RBI soll ausschliesslich bei der gezielten Suche nach einer Person eingesetzt werden dürfen, die verurteilt wurde oder im Verdacht steht, eine schwere Straftat begangen zu haben. Die «Echtzeit»-RBI würde strengen Bedingungen unterliegen und ihr Einsatz wäre zeitlich und örtlich begrenzt, und zwar für folgende Zwecke:
- gezielte Suche nach Opfern (Entführung, Menschenhandel, sexuelle Ausbeutung),
- zur Abwehr einer konkreten und gegenwärtigen terroristischen Bedrohung,
- oder zur Lokalisierung oder Identifizierung einer Person, die im Verdacht steht, eine der in der Verordnung genannten Straftaten begangen zu haben (z. B. Terrorismus, Menschenhandel, sexuelle Ausbeutung, Mord, Entführung, Vergewaltigung, bewaffneter Raubüberfall, Beteiligung an einer kriminellen Vereinigung, Umweltkriminalität).
2. Systeme mit hohem Risiko
Der AI Act wird eine Liste von KI-Systemen enthalten, bei denen ein erhebliches Risiko besteht, dass sie die Sicherheit und die Grundrechte von Personen gefährden. Im Rahmen der Erarbeitung des politischen Kompromisses im Trilog haben die Co-Gesetzgeber den Mechanismus, unter welchen Bedingungen ein KI-System als «high-risk» eingestuft wird, stark überarbeitet. Die endgültige Fassung des KI-Gesetzes wird in dieser Hinsicht die notwendige Klarheit schaffen. Immerhin ist bekannt, dass KI-Systeme, die in sensiblen Bereichen wie Bildung, Arbeit, kritische Infrastruktur, öffentliche Verwaltung, Strafverfolgung, Grenzkontrolle und Rechtspflege eingesetzt werden, als KI-Systeme mit hohem Risiko gelten werden. Im Vergleich zum Kommissionsvorschlag 2021 sind neue Anwendungsfälle für KI-Systeme mit hohem Risiko hinzugekommen, z. B. die Vorhersage von Migrationstrends und die Grenzüberwachung. Die Einstufung eines KI-Systems als «high-risk» oder nicht wird erhebliche Auswirkungen auf die einzuhaltenden Vorschriften haben. Daher wird die genaue Regelung in der endgültigen Fassung des AI Acts entscheidend sein.
Bevor sie ein KI-System mit hohem Risiko auf den EU-Markt bringen oder anderweitig in Betrieb nehmen dürfen, müssen die Anbieter gemäss FAQ der Europäischen Kommission das System einer Konformitätsbewertung unterziehen. Damit können sie nachweisen, dass ihr System die verbindlichen Anforderungen für vertrauenswürdige KI erfüllt (z. B. Datenqualität, Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit, Cybersicherheit und Robustheit). Diese Bewertung muss wiederholt werden, wenn das System oder sein Zweck wesentlich geändert werden. KI-Systeme, die Sicherheitsbauteile von Produkten sind, die unter sektorale Rechtsvorschriften der Union fallen, werden immer als risikoreich eingestuft, wenn sie einer Konformitätsbewertung durch Dritte im Rahmen dieser sektoralen Rechtsvorschriften unterzogen werden. Auch für biometrische Systeme ist immer eine Konformitätsbewertung durch Dritte erforderlich.
Anwender von KI-Systemen mit hohen Risiken müssen zudem ein sog. «fundamental rights impact assessment» durchführen. Das Ergebnis ist den zuständigen Behörden zu melden. Die Bewertung soll gemäss FAQ der Europäischen Kommission eine Beschreibung der Prozesse des Anwenders umfassen, in denen das KI-System mit hohem Risiko eingesetzt werden soll, des Zeitraums und der Häufigkeit, in der das KI-System mit hohem Risiko eingesetzt werden soll, der Kategorien natürlicher Personen und Gruppen, die von seinem Einsatz im spezifischen Kontext betroffen sein könnten, der spezifischen Schadensrisiken, die sich auf die betroffenen Kategorien von Personen oder Personengruppen auswirken könnten, eine Beschreibung der Umsetzung von Massnahmen der menschlichen Aufsicht und der Maßnahmen, die im Falle des Eintretens der Risiken zu treffen sind. Noch nicht vollständig geklärt ist dies Interdependenz zwischen diesem «fundamental rights impact assessment» und der Datenschutz-Folgenabschätzung gemäss DSGVO. Gemäss gewissen Mitteilungen soll dort, wo eine Datenschutz-Folgenabschätzung stattfinden muss, das «fundamental rights impact assessment» gleich integriert werden. Es ist jedoch zu betonen, dass der Inhalt und vor allem der Zweck der beiden Bewertungen nicht deckungsgleich ist.
3. Systeme mit minimalem Risiko
KI-Systeme mit minimalem Risiko, d.h. andere als verbotene Anwendungen und KI-Systeme mit hohem Risiko, können unter Einhaltung der bestehenden Regelungen entwickelt und auf den Markt gebracht werden. Es sollen hierfür keine zusätzlichen, spezifischen Pflichten eingeführt werden. Anbieter solcher Systeme können jedoch freiwillig die Anforderungen an vertrauenswürdige KI anwenden und freiwillige Verhaltenskodizes einhalten (Codes of Conduct). Unklar ist aufgrund der Mitteilungen, was mit den «allgemeinen Prinzipien» geschehen ist, welche das Europäische Parlament für andere als verbotene Anwendungen oder KI-Systeme mit hohen Risiken implementieren wollte. Aufgrund der aktuell vorliegenden Informationen sind diese allgemeinen Prinzipien dem Trilog zum Opfer gefallen. Der finale Text bleibt abzuwarten.
4. Spezifische Transparenzrisiken
Für bestimmte KI-Systeme sollen besondere Transparenzanforderungen gelten, z. B. wenn ein eindeutiges Risiko der Manipulation besteht (z. B. durch den Einsatz von Chatbots). Die Nutzer sollten sich bewusst sein, dass sie mit einer Maschine interagieren. Es ist aufgrund der aktuell verfügbaren Informationen allerdings noch unklar, für welche KI-Systeme mit minimalem Risiko diese Anforderungen gelten sollen.
Konformität durch die Einhaltung harmonisierter technischer Normen
Der AI Act wird vorsehen, dass die Einhaltung harmonisierter technischer Normen die Vermutung der Konformität mit den entsprechenden Aspekten des AI Act begründet. Zu diesem Zweck hat die Europäische Kommission im Dezember 2022 die europäischen Normungsorganisationen CEN und CENELEC in einem provisorischen Normungsauftrag (Draft Standardisation Request) aufgefordert, bis 2025 zehn Normungsergebnisse zu erarbeiten. Dies insbesondere in den Bereichen:
- Risikomanagementsysteme für KI-Systeme
- Governance und Qualität von Datensätzen, die zum Training von KI-Systemen verwendet werden
- Aufzeichnungen durch Protokollierungsfunktionen von KI-Systemen
- Transparenz und Bereitstellung von Informationen für die Nutzer von KI-Systemen
- Menschliche Aufsicht über KI-Systeme
- Genauigkeit von KI-Systemen
- Robustheit von KI-Systemen
- Spezifikationen für die Cybersicherheit von KI-Systemen
- ein Qualitätsmanagementsystem für Anbieter von KI-Systemen, einschliesslich eines Überwachungsprozesses nach dem Inverkehrbringen
- Konformitätsbewertung von KI-Systemen
CEN und CENELEC haben begonnen, solche Normen in einem gemeinsamen technischen Ausschuss (Joint Technical Committee JTC21) zu entwickeln. Sie stützen sich dabei weitgehend auf das bestehende JTC von ISO und IEC zu KI, ISO/IEC JTC1 SC42, das seit 2017 technische Normen zu KI entwickelt.
Massnahmen zur Förderung von Innovationen
Um einen innovationsfreundlicheren Rechtsrahmen zu schaffen, sieht der Kompromiss vor, dass AI-Sandboxes auch die Erprobung innovativer KI-Systeme unter realen Bedingungen ermöglichen sollten. Darüber hinaus wurden neue Bestimmungen aufgenommen, die das Testen von KI-Systemen in der realen Welt unter bestimmten Bedingungen und Sicherheitsvorkehrungen ermöglichen. Um den Verwaltungsaufwand für kleinere Unternehmen zu verringern, soll die finale Version des AI Acts eine Liste von Massnahmen zur Unterstützung dieser Unternehmen vor.
Aufsicht und Sanktionen
Aufgrund der neuen Vorschriften für GPAI-Modelle und um eine EU-weit einheitliche Anwendung zu gewährleisten, wird innerhalb der Kommission ein KI-Büro («AI Office») eingerichtet, das für die Überwachung dieser fortgeschrittenen KI-Systeme zuständig sein wird. Es wird von einem wissenschaftlichen Gremium unabhängiger Expertinnen und Experten beraten.
Das AI-Board, ein anderes Gremium, welches sich aus Vertretern der Mitgliedstaaten zusammensetzt, wird als Koordinierungsplattform und Beratungsgremium für die Kommission fungieren. Schliesslich wird ein beratendes Forum für Vertreterinnen und Vertreter der Industrie, KMU, Start-ups, Zivilgesellschaft und Wissenschaft eingerichtet, welches das AI Board mit Fachwissen unterstützen soll.
Auf der ersten Ebene der Marktüberwachung werden sich aber die Anbieter von KI-Systemen befinden. Sie wird die Pflicht zur Produktbeobachtung nach der Markteinführung treffen.
Der AI Act wird unter anderem hohe Geldbussen vorsehen. Der Kompromiss hat die Bussen leicht angepasst:
- Bis zu EUR 35 Mio. bzw. 7% des weltweiten Jahresumsatzes (davon abhängig, welcher Wert höher ist) für Verstösse gegen verbotene Anwendungen oder die Nichteinhaltung der Anforderungen an Daten;
- Bis zu EUR 15 Mio. bzw. 3% des weltweiten Jahresumsatzes (davon abhängig, welcher Wert höher ist) bei Verstössen gegen andere Anforderungen oder Verpflichtungen aus der Verordnung, einschliesslich der Verletzung der Bestimmungen über GPAI Modelle;
- Bis zu EUR 7.5 Mio. bzw. 1.5% des weltweiten Jahresumsatzes (davon abhängig, welcher Wert höher ist) bei falschen, unvollständigen oder irreführenden Angaben in angeforderten Auskünften an benannte Stellen und zuständige nationale Behörden.
Die Ausführungen in den unterschiedlichen Mitteilungen zu tieferen Bussgeldobergrenzen für KMUs sind wiederum unklar bzw. widersprüchlich. Gemäss FAQ der Europäischen Kommission soll für jede Kategorie von Verstössen der niedrigere der beiden Beträge für KMU und der höhere für andere Unternehmen gelten.
Nächste Schritte und Inkrafttreten
Die technischen Arbeiten zur Umsetzung des politischen Kompromisses in eine endgültige Fassung des AI Acts sind im Gange. Diese endgültige Fassung soll im ersten Quartal 2024 vorliegen und dann formell verabschiedet werden. Es wird erwartet, dass der AI Act zwei Jahre nach seiner Verabschiedung in Kraft treten wird, mit Ausnahmen für einige Bestimmungen.
Gemäss FAQ der Europäischen Kommission soll der AI Act 24 Monate nach seinem Inkrafttreten in vollem Umfang anwendbar sein, wobei einzelne Regelungsbereiche wie folgt gestaffelt anwendbar werden sollen:
- 6 Monate nach Inkrafttreten müssen die Mitgliedstaaten verbotene Systeme schrittweise abschaffen;
- 12 Monate: Die Vorgaben an die Governance von General-Purpose-AI werden anwendbar;
- 24 Monate: alle Vorschriften des AI Act werden anwendbar, einschliesslich der Vorgaben in Bezug auf Hochrisikosysteme gemäß Anhang III (Liste der Anwendungsfälle mit hohem Risiko);
- 36 Monate: Es gelten die Vorgaben an Hochrisikosysteme gemäss Anhang II (Liste der Harmonisierungsrechtsvorschriften der Union).
Einschätzung
Der AI Act der Europäischen Union wird zu den ersten Gesetzgebungspaketen weltweit gehören, die sich der Regulierung künstlicher Intelligenz annehmen. Bis anhin wurden vor allem Standards (siehe zum ISO/IEC Standard für Künstliche Intelligenz: MLL-News vom 30. Juli 2020) oder behördliche Leitlinien (siehe für die Schweiz die Leitlinien für den Einsatz von KI durch die Bundesverwaltung: MLL-News vom 4. Februar 2021) verabschiedet.
Bemerkenswert ist bereits die Tatsache, dass die Definition von KI-Systemen sehr weit gefasst ist. Der AI Act wird nicht einzig auf KI-Systeme anwendbar sein, welche auf Deep-Learning-Methoden basieren. Grundsätzlich zu begrüssen ist, dass der risikobasierte Ansatz im Kompromiss beibehalten wurde. Mit diesem Ansatz kann die Regulierung den tatsächlichen und sich wandelnden Risiken angepasst werden. Bei diesem auch in anderen Bereichen zur Anwendung kommenden Ansatz wird den Definitionen und Abgrenzungen zwischen den einzelnen Risikokategorien grosse Praxisrelevanz zukommen. Auf Unternehmen, die KI-Systeme mit hohem Risiko entwickeln, werden zahlreiche neue Pflichten zukommen. Zu beachten ist, dass Anwender von solchen Systemen, gemäss Entwurf des AI Acts als Entwickler / Hersteller zu qualifizieren sind, wenn sie das AI-System unter einer eigenen Marke oder unter eigenem Namen einsetzen. Sie müssen in dieser Konstellation alle Pflichten einhalten, welche der AI Act an sich den Entwicklern / Herstellern auferlegt.
Der AI Act lehnt sich stark an bestehende Produktregulierungen an und entsprechend gross ist die Bedeutung der harmonisierten technischen Normen, die CEN und CENELEC bis 2025 erarbeiten sollen.
Wenig erstaunlich ist, dass die EU angesichts der dominanten Stellung amerikanischer und chinesischer Technologieunternehmen in vielen Einsatzgebieten von KI-Systemen einen extraterritorialen Anwendungsbereich des AI Acts vorsieht. Ebenso entspricht es immer mehr gängiger Gesetzgebungspraxis der EU-Kommission, mit hohen Bussgeldern zu regulieren. Wie bereits bei der DSGVO, könnte sich auch die vorgeschlagene Verordnung über künstliche Intelligenz so zum internationalen Benchmark entwickeln. Unternehmen, innerhalb und ausserhalb der EU, sollten die Gesetzgebungsarbeiten daher genau verfolgen.
Der AI Act wirkt sich bereits indirekt auf die Schweiz aus: In Abkehr von seiner ursprünglichen Einschätzung von 2019, wonach sich in Bezug auf die Regulierung von KI für die Schweiz «[…] keine grundlegenden Anpassungen des Rechtsrahmens auf[drängen].» (Herausforderungen der künstlichen Intelligenz, Bericht IDAG KI, 2019), gab der Bundesrat unlängst bekannt, dass er «[bis Ende 2024] mögliche Regulierungsansätze für die Schweiz aufzeigen [wird], die mit der KI-Verordnung der EU («AI Act») und der KI-Konvention des Europarats kompatibel sind.» (Bundesrat vom 22. November 2023: Analyse möglicher Regulierungsansätze für KI).
Aufgrund der Bedeutung des europäischen Binnenmarktes und der starken globalen Vernetzung neuer Technologien ist es sowohl für den Schweizer Gesetzgeber als auch für Schweizer Unternehmen, die KI-Systeme im europäischen Binnenmarkt einsetzen, unvermeidlich, sich mit dem AI Act der EU auseinanderzusetzen.
Weitere Informationen:
- European Commission: Artificial Intelligence – Questions and Answers of 12 December 2023
- Euractiv: European Union squares the circle on the world’s first AI rulebook vom 9. Dezember 2023
- European Parliament – Press release of 9 December 2023:
Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI
- Council of the EU – Press release 9 December 2023: Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world
- Verordnungs-Vorschlag zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz vom 21. April 2021
- Anhänge zum Verordnungs-Vorschlag zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz vom 21. April 2021
- Pressemitteilung der Europäischen Kommission vom 21. April 2021 «Neue Vorschriften für künstliche Intelligenz – Fragen und Antworten»
- EU-Datenschutzgrundverordnung (DSGVO)
- MLL-News vom 4. Februar 2021: Bund verabschiedet Leitlinien «Künstliche Intelligenz» (KI) für die Bundesverwaltung
- MLL-News vom 30. Juli 2020: ISO lanciert Standard zur Vertrauenswürdigkeit von AI-Systemen