Da ging was schief.

Fehler 404.

Foto: Natasya Chen auf Unsplash
02.08.2022
Künstliche Intelligenz
PDF Download

Zertifizierung – Ein zentraler Baustein auf dem Weg zu einem vertrauenswürdigen Einsatz Künstlicher Intelligenz

Der Einsatz Künstlicher Intelligenz (KI) schreitet weltweit stetig voran und durchdringt unseren Lebensalltag. Aber in welchem rechtlichen Rahmen kann KI überhaupt zur Anwendung kommen? Und wie kann eine Zertifizierung zu ihrem vertrauenswürdigen Einsatz beitragen?

Im Mobilitätssektor zieht der Einsatz vollautomatisierter oder sogar autonomer Fahrzeuge bahnbrechende Veränderungen nach sich. Im Gesundheitssektor befinden sich KI-Systeme sowohl in der Diagnostik als auch in der Behandlung und Therapie auf dem Vormarsch. Anhand dieser beiden Einsatzgebiete lassen sich die Vorzüge, aber auch die Gefahren von KI anschaulich illustrieren. Einerseits können KI-Systeme unseren Alltag erheblich verbessern. So sind vollautomatisierte und autonome Fahrzeuge dazu geeignet, die Sicherheit des Straßenverkehrs zu erhöhen. Mithilfe von KI-basierten Diagnostiksystemen lassen sich Krankheiten frühzeitig sowie hinreichend verlässlich feststellen, was sich förderlich auf die individuellen Genesungschancen auswirken kann. Andererseits gehen mit dem Einsatz von KI auch besondere Risiken einher. Sowohl im Bereich des autonomen Fahrens als auch im Gesundheitssektor können Fehler eines KI-Systems verheerende bis hin zu lebensgefährlichen Folgen haben. Man stelle sich nur vor, dass ein vollautomatisiertes oder autonomes Fahrzeug einen Menschen, der über einen Fußgängerüberweg geht, nicht als solchen erkennt oder dass ein Diagnostiksystem eine Krebserkrankung nicht detektiert. Will man den Einsatz von KI-Systemen (auch) in derart grundrechtssensiblen Bereichen ermöglichen, müssen die jeweiligen Risiken durch Regulierung und weitere Sicherungsmaßnahmen auf ein vertretbares Maß reduziert werden. Nur wenn die Vorzüge die Nachteile eines Einsatzes wesentlich überwiegen, lässt sich ein solcher rechtfertigen.

KI-spezifische Herausforderungen

Dabei bergen insbesondere KI-Systeme, die auf Techniken des „Maschinellen Lernens“ (ML) basieren, spezifische Herausforderungen. Vereinfacht gesprochen lernen ML-Systeme, auf Basis sogenannter Trainingsdaten Muster und Regeln zu identifizieren, sie zu verallgemeinern und auf neue Sachverhalte anzuwenden. In dieser Funktionsbeschreibung offenbart sich bereits das erste Problem: Derartige Systeme sind auf Daten angewiesen. Ohne eine große Anzahl qualitativ hochwertiger Daten können sie nicht effizient arbeiten und die gewünschten Ergebnisse erzielen. Dieser „Datenhunger“ begründet gesteigerte Gefahren mit Blick auf den Datenschutz. ML-Systeme sind zudem häufig mit der sog.  „Black-Box-Problematik“ behaftet. Damit ist gemeint, dass sich oftmals – selbst bei vollständiger Einsicht in die jeweiligen Prozesse des KI-Systems – im Einzelnen nicht nachvollziehen lässt, wie ein bestimmtes Ergebnis zustande gekommen ist. Die inneren Funktionsmechanismen des Systems sind aufgrund etwaiger Komplexität oder fehlenden Wissens unzugänglich. In der Folge kann der Mensch ggf. auch nicht vorhersehen, in welche Richtung sich das selbstlernende System entwickeln wird. Es kann beim Einsatz somit zu unerwünschten Entscheidungen und sogar Schädigungen von Menschen kommen. Neben den hier beispielhaft aufgeworfenen Fragen des Datenschutzes und der Transparenz müssen zudem insbesondere KI-spezifische Probleme im Bereich der Fairness, der menschlichen Autonomie, der Sicherheit sowie der Verlässlichkeit adressiert werden.

Entwurf einer KI-Verordnung als weltweit erster umfassender Rechtsrahmen

Um diesen Herausforderungen zu begegnen und einen vertrauenswürdigen Einsatz von KI abzusichern, hat die Europäische Kommission am 21. April 2021 mit ihrem Entwurf einer KI-Verordnung den weltweit ersten umfassenden Rechtsrahmen im KI-Sektor angestoßen. Dem Regelungsvorschlag liegt ein sog. „risikobasierter Ansatz“ zugrunde. In Abhängig von der Kritikalität eines KI-Systems bezüglich europäischer Grundrechte und Grundwerte werden mehr oder weniger umfangreiche Anforderungen an das jeweilige System gestellt. Der Einsatz bestimmter, nach Einschätzung der Kommission besonders gefährlicher KI-Systeme wird sogar von vornherein verboten. Hierbei handelt es sich beispielsweise um näher konkretisierte Systeme, die zu Zwecken der Verhaltensmanipulation oder des sog. „Social Scorings“ eingesetzt werden. Im Bereich des „Herzstücks“ des Entwurfs, der Regulierung sog. „Hochrisiko-KI-Systeme“ wird zudem auf Konformitätsprüfungen als ein zentraler Baustein auf dem Weg zu einem vertrauenswürdigen Einsatz von KI gesetzt. Dass die umfangreichen Anforderungen der Verordnung bezüglich Transparenz, Datenschutz, Fairness etc. gewahrt sind, muss im Rahmen eines spezifischen Prüfverfahrens festgestellt werden.

Zertifizierung als vermittelnde Variante der Konformitätsprüfung

Dabei rückt – neben der internen Kontrolle – auch die Zertifizierung als eine Spielart der Konformitätsprüfungen in den Fokus. Diese soll daher im Folgenden eingeordnet und näher vorgestellt werden.

Konformitätsprüfverfahren unterscheiden sich u.a. im Hinblick auf den zu leistenden Aufwand, die prüfende Stelle und die Freiwilligkeit der Durchführung. Bewertungsverfahren können sich auf Produkte und Dienstleistungen, aber auch auf Systeme, Prozesse und Personen erstrecken. An dem unteren Ende der Skala von Konformitätsprüfverfahren lässt sich die freiwillige Selbstverpflichtung ansiedeln. Hierbei handelt es sich um die Erklärung bestimmter Organisationen oder Unternehmen, für sie geltende Regeln zu wahren. Unabhängige Dritte werden in dieser Art der Konformitätsbewertung nicht eingeschaltet. Sie erfolgt auf freiwilliger Basis und unterliegt damit keiner staatlichen Regulierung. Ähnlich verhält es sich mit dem sog. Gütesiegel, durch das spezifische Produkteigenschaften nach außen gekennzeichnet werden. Ein rechtliches Verfahren für die Konzeption und Ausstellung von Gütesiegeln existiert nicht. Das Vorliegen dieser Voraussetzungen wird in der Regel durch den Hersteller selbst überprüft. Am anderen Ende der Skala von Konformitätsprüfverfahren ist die Zulassung zu verorten. Hierbei handelt es sich um eine gesetzlich vorgeschriebene Prüfung von Produkten bzw. Systemen in Bezug auf deren Vereinbarkeit mit geltenden Rechtsnormen.  Dabei erfolgt die Zulassungsprüfung entweder durch das jeweils zuständige Bundesamt oder eine von der Bundesbehörde beauftragte Institution. Zwischen den vorgestellten Arten einer Konformitätsprüfung – gleichsam als vermittelnde Variante – liegt die Zertifizierung. Durch ein Zertifikat wird die Einhaltung bestimmter Normen, Standards oder Richtlinien – sowohl rechtlicher als auch ethischer Natur – für einen bestimmten Zeitraum bestätigt. Zertifizierung ist sowohl in einer freiwilligen als auch in einer gesetzlich vorgeschriebenen Spielart denkbar, wobei Freiwilligkeit den praktisch häufigeren Fall darstellt. Dabei erfolgt die Konformitätsbewertung durch einen unabhängigen sowie hinreichend qualifizierten Dritten, die sogenannte Zertifizierungsstelle.

5 Gründe für die Zertifizierung

Für die auch im KI-Verordnungsentwurf vorgesehenen Konformitätsprüfungen durch Zertifizierungsstellen sprechen gute Gründe, von denen im Folgenden fünf exemplarisch illustriert werden sollen:

  • Zertifizierung nimmt eine Schutzfunktion für die Rechte der von dem KI-System potenziell betroffenen Personen ein. Sie bietet eine zusätzliche Gewähr dafür, dass die für die Herstellung bzw. den Betrieb des KI-Systems geltenden Vorschriften zum Schutz von Rechtsgütern eingehalten werden. Zertifizierungsverfahren schaffen damit eine neben die Geltung von Rechtsnormen tretende Gewissheit der Rechtskonformität. Diese wird erheblich verstärkt, wenn durch die Konformitätsprüfung – wie im Fall der Zertifizierung – ein weiterer Akteur in das Verhältnis zwischen Hersteller und Nutzer zwischengeschaltet wird. Während die Regulierung durch Gesetze, Normen und Standards auf die Rechtskonformität des jeweiligen Herstellers als Adressat dieser Regeln setzt, wird dieser Mechanismus von Rechtsgeltung und Rechtsverwirklichung im Rahmen von Zertifizierungsverfahren durch die Hinzuziehung eines Dritten weiter gestärkt.
  • Im Rahmen der Zertifizierung können über das geltende Recht hinaus gehende Standards etabliert und überprüft werden, die (bislang) lediglich moralischen Wertvorstellungen entsprechen. Insoweit übernehmen Zertifizierungsverfahren generell ihrerseits eine in gewissem Umfang regulatorische Aufgabe. Indem in diesen Verfahren Merkmale von KI-Systemen überprüft werden können, die zwar rechtlich nicht gefordert sind, durchaus aber spezifischen mehrheitlichen Moralvorstellungen entsprechen, gewährleisten Zertifizierungen zusätzliche Standards. Diese können im besten Fall sogar Ausstrahlungswirkungen auf das Recht haben: Als „geronnene Moral“ können derartige Standards künftig auch geltendes Recht werden.
  • Zertifizierung kann das Vertrauen in KI-Systeme stärken. Gerade mit Blick auf den KI-Sektor herrscht aufgrund des aufgezeigten disruptiven Potenzials sowie der spezifischen Herausforderungen einschlägiger Technologien große Verunsicherung in der Bevölkerung. Um die mit dem Einsatz von KI-Systemen einhergehenden Chancen großflächig nutzen zu können, bedarf es der Schaffung einer hinreichenden Vertrauensgrundlage. Hierbei kann der Bestätigung der Wahrung einschlägiger Vorgaben durch eine unabhängige und qualifizierte Stelle eine tragende Rolle zuteilwerden.
  • Zudem wirkt sich Zertifizierung – vermittelt über die Schaffung einer Vertrauensgrundlage – innovationsfördernd aus. Vertrauen ist die Basis dafür, dass Menschen neue Technologien nutzen wollen und in der Folge die Nachfrage erhöht wird. Eine hohe Nachfrage kann zugleich den Anstoß für die Entfaltung weiterer Innovationspotenziale bilden.
  • Schließlich ist Zertifizierung auch insoweit im Interesse der Entwickler und Hersteller, als die Einschaltung eines qualifizierten sowie unabhängigen Dritten potenziell bestehende Schwachstellen eines KI-Systems frühzeitig offenlegen kann. In der Konsequenz können diese rechtzeitig beseitigt werden, bevor es zu schadensträchtigen Verläufen kommt, an die ggf. eine zivilrechtliche Haftung oder sogar strafrechtliche Verantwortlichkeit geknüpft sein könnte.

Zusammenfassend lässt sich festhalten, dass Zertifizierung eine tragende Rolle für die Absicherung eines vertrauenswürdigen Einsatzes von KI einzunehmen vermag. Vor diesem Hintergrund ist ihre Etablierung als ein Baustein des KI-Verordnungsentwurfs zu begrüßen. Solange gewährleistet wird, dass Zertifizierungsstellen hinreichend qualifiziert sind und unabhängig agieren, ist ihre Zwischenschaltung in das Verhältnis zwischen Hersteller und Nutzer mit beiderseitigen Vorzügen verbunden, die sich förderlich auf die Entfaltung und Nutzung der Potenziale von KI-Systemen auswirken können.

Suggested Citation

Weiss, Erik, Zertifizierung – Ein zentraler Baustein auf dem Weg zu einem vertrauenswürdigen Einsatz Künstlicher Intelligenz, 2.8.2022, https://www.libra-rechtsbriefing.de/L/ki-zertifizierung/

PDF Download