ISO lanciert Standard zur Vertrauenswürdigkeit von AI-Systemen

  
Die internationale Organisation für Normierung hat einen neuen Standard zur Vertrauenswürdigkeit von Artificial Intelligence Systemen publiziert. Der Standard bezweckt die Schaffung von Vertrauen in solche Systeme durch Transparenz, Kontrolle und Erklärbarkeit sowie der Gewährleistung der Verfügbarkeit, Resilienz, Zuverlässigkeit, Richtigkeit, Sicherheit und des Datenschutzes durch spezifische risikominimierende Ansätze
. Neben der internationalen Organisation für Normierung bestehen auch in der EU und in der Schweiz Bestrebungen zur Schaffung von Vertrauenswürdigkeit in Artificial Intelligence Systeme.
  

Veröffentlichung eines ISO Standards zur Vertrauenswürdigkeit von AI-Systemen

Im Zuge der Digitalisierung und des rasanten technologischen Fortschritts konnte die Rechenleistung von computerbasierten Systemen exponentiell gesteigert werden. Dadurch ergaben sich neue Möglichkeiten in Bezug auf die Automatisierung, sodass unter anderem Systeme entwickelt wurden, welche intelligentes Verhalten ermöglichen und je nach Programmierung selbst dazu lernen. Bei diesen Systemen handelt sich um sog. Artificial Intelligence (AI) Systeme (bzw. Systeme mit künstlicher Intelligenz). Der Begriff AI bezeichnet keine bestimmte Technologie, sondern ist ein Sammelbegriff für eine Vielzahl von Methoden, bei denen kognitive Fähigkeiten mit mathematisch-statistischen Modellen simuliert werden. Es handelt sich dabei u.a. um den Versuch bestimmte Entscheidungsstrukturen des Menschen nachzubilden. Die Nachbildung erfolgt dabei beispielsweise durch die Programmierung und Konzeption eines Computers in einer Weise, in der er relativ eigenständig Problem bearbeiten kann.

Durch die angestrebte Eigenständigkeit von AI Systemen stellen sich aus regulatorischer, gesellschaftlicher und ethischer Sicht zahlreiche Fragen. Obwohl AI Systeme eine Vielzahl von Vorteilen mit sich bringen können, sind in Bezug auf deren Zuverlässigkeit, Fairness und Transparenz noch viele Fragen offen. Zusammengefasst werden können diese Vorbehalte unter dem Stichwort der Vertrauenswürdigkeit, die sich gemäss den Standards der internationalen Organisation für Normierung (ISO) in der Möglichkeit, die Erwartungen der Betroffenen auf überprüfbare Weise zu erfüllen, äussert.

Die internationale Organisation für Normierung beschäftigt sich damit, gewisse (anerkannte) Standards in verschiedenen Lebensbereichen zu entwickeln und die Umsetzung dieser Standards jeweils zu zertifizieren. Mitte dieses Jahres hat ISO einen Standard zur Vertrauenswürdigkeit von AI-Systemen veröffentlicht (ISO/IEC TR 24028:2020), um die Vertrauenswürdigkeit solcher Systeme zu fördern und diese durch gewisse Kriterien messbar(er) zu machen.
  

Ziel und Zweck des neuen ISO Standards

Ziel des ISO Standards zur Vertrauenswürdigkeit von AI Systemen ist es, die Faktoren zu erörtern, welche die Vertrauenswürdigkeit in AI Systemen beeinflussen, insbesondere bezüglich deren Bereitstellung und Nutzung. Dadurch soll die Vertrauenswürdigkeit in solche Systeme gestärkt werden. Dabei zeigt der ISO Standard auf, welche Ansätze existieren, um Vertrauen zu schaffen, und wie diese wirksam umgesetzt werden können. Zudem zeigt der ISO Standard auf, wie die Verletzlichkeit (sog. „Vulnerability“), welche eng mit der Vertrauenswürdigkeit zusammenhängt, mitigiert werden kann.
  

Inhalt des ISO Standards

Die relativ umfangreichen ISO Standards zur Vertrauenswürdigkeit von AI Systemen umfassen insbesondere die folgenden Bereiche:

  • Schaffung von Vertrauen in AI Systeme mittels Transparenz, Kontrolle und Erklärbarkeit und Ansätze, um dieses Vertrauen zu schaffen;
      
  • Analyse und Ansätze zur Gewährleistung der Verfügbarkeit, Resilienz, Zuverlässigkeit, Richtigkeit, Sicherheit und des Datenschutzes von AI Systemen; und
      
  • Aufzeigen von technischen Hindernissen sowie damit verbundene Risiken für AI Systeme und mögliche Techniken und Methoden zur Schadensbegrenzung.
      

Gemäss dem ISO Standard liegt die Spezifikation der verschiedenen Grade der Vertrauenswürdigkeit ausserhalb des Anwendungsbereichs und ist somit nicht Teil des Standards.
  

Bestrebungen in der EU zur Schaffung der Vertrauenswürdigkeit von AI Systemen

Der ISO Standard bildet nicht die einzige Initiative, welche die Vertrauenswürdigkeit von AI System systematisch analysiert und durch die Etablierung gewisser Anforderungen zu stärken versucht. Auf der Basis der von einer Expertenkommission erarbeiteten AI Strategie treibt die EU Kommission seit April 2019 (vgl. Pressemitteilung der EU Kommission vom 8.4.2019) ebensolche Bestrebungen voran und leitete eine Pilotphase ein, um sicherzustellen, dass die ethischen Leitlinien für die Entwicklung und Nutzung künstlicher Intelligenz in der Praxis umgesetzt werden können. Die Leitlinien basieren auf den von der EU Kommission eingesetzten Ethikkommission erarbeiteten sieben Voraussetzungen für eine vertrauenswürdige künstliche Intelligenz. Diese führen aus, dass ein vertrauenswürdiges AI System alle geltenden Gesetze und Vorschriften einhalten und eine Reihe von Anforderungen erfüllen muss. Spezifische Bewertungslisten, wie der neue ISO Standard, sollen dazu beitragen, die Erfüllung der einzelnen Kernanforderungen zu überprüfen:

  • Vorrang menschlichen Handelns und menschliche Aufsicht: AI Systeme sollten menschliches Handeln unterstützen und die Grundrechte des Einzelnen wahren. Sie dürfen dabei die Autonomie der Menschen weder verringern oder beschränken noch fehlleiten.
      
  • Robustheit und Sicherheit: Ein vertrauenswürdiges AI System setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des Systems zu bewältigen.
      
  • Privatsphäre und Datenqualitätsmanagement: Die betroffenen Personen müssen die volle Kontrolle über ihre eigenen Daten beibehalten. Ihre Daten dürfen nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
      
  • Transparenz: Die Rückverfolgbarkeit von AI Systemen muss sichergestellt werden.
      
  • Vielfalt, Nichtdiskriminierung und Fairness: AI Systeme sollten dem gesamten Spektrum der menschlichen Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die Barrierefreiheit gewährleisten.
      
  • Gesellschaftliches und ökologisches Wohlergehen: AI Systeme sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.
      
  • Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, welche die Verantwortlichkeit und Rechenschaftspflicht für AI Systeme und deren Ergebnisse gewährleisten.
      

Schweizer Bestrebungen zur Schaffung der Vertrauenswürdigkeit von AI Systemen

Auf Bundesebene wurden die Chancen und Risiken von AI Systemen im Rahmen des Berichts der interdepartementalen Arbeitsgruppe „Künstliche Intelligenz“ an den Bundesrat zu den „Herausforderungen der künstlichen Intelligenz“ behandelt. Im Gegensatz zum ISO Standard, setzt der Bericht aber keinen eigentlichen Standard fest, sondern er zeigt den Handlungsbedarf in einer ganzheitlichen Betrachtungsweise für die verschiedenen Wirtschaftssektoren der Schweiz auf. Dabei geht der Bericht u.a. auch auf die übergeordneten Aspekte beim Einsatz von AI Systemen wie die Vertrauenswürdigkeit, die Transparenz, die Nachvollziehbarkeit, die Diskriminierung, die Datensicherheit und den Datenschutz ein.

Der Bericht hält grundsätzlich fest, dass der bestehende Rechtsrahmen in der Schweiz dank seiner Technologieneutralität dazu geeignet sei, mit AI Systemen und den damit zusammenhängenden Geschäftsmodellen umzugehen (insbesondere auch durch die aktuelle Revision des Datenschutzgesetzes; vgl. dazu MLL-News vom 29.5.2020). Dieser Rechtsrahmen erlaube und begrenze damit „im Grundsatz“ den Einsatz von AI Systemen. Gemäss dem Bericht sei eine verantwortungsvolle Nutzung von AI Systemen durch das bestehende Schweizer Recht und der dem Recht zugrundeliegenden Werteordnung mittelfristig gewährleistet. Dennoch müssen die internationalen Entwicklungen eng verfolgt werden. Insbesondere darum, weil AI Systeme nicht nur rechtliche, sondern auch ethische und gesellschaftliche Herausforderungen, wie z.B. die Vertraulichkeit, beinhalten. Aus diesem Grund dürften die Entwicklungen in der EU und der neue ISO Standard zur Vertrauenswürdigkeit von AI Systemen auch in der Schweiz Beachtung finden.
  

Zusammenfassung und Fazit

Neben den Leitprinzipien, welche die EU Kommission zur Vertrauenswürdigkeit von AI Systemen publiziert hat, stellt der neue ISO Standard eine wichtige und hilfreiche Grundlage bezüglich der Anforderungen an die Vertrauenswürdigkeit von AI Systemen dar. Diese Anforderungen helfen nicht nur den Entwicklern von AI Systemen im Sinne einer Guideline, sondern sie unterstützen Unternehmen, welche AI Systeme einsetzen, bei der Auswahl vertrauenswürdiger Systeme. Zudem helfen sie Unternehmen auch die rechtlichen Risiken frühzeitig zu identifizieren und mit geeigneten Massnahmen zu mitigieren. Es kann somit festgehalten werden, dass die Vertrauenswürdigkeit stark mit der Schaffung von Transparenz (z.B. durch entsprechende Information, insbesondere bei der Bearbeitung von Personendaten) zusammenhängt und Transparenz einer der Eckpfeiler für den vertrauenswürdigen Einsatz von AI Systemen ist.

 

Weitere Informationen: