Da ging was schief.

Fehler 404.

Foto: Stable Diffusion Lizenz: CreativeML Open RAIL-M
06.09.2022
Digitalisierung der Justiz
PDF Download

Gesetzlicher Richter bleibt der Mensch

Die Digitalisierung der Justiz macht bei elektronischer Akte und elektronischem Rechtsverkehr nicht halt. So wird immer häufiger über einen Einsatz künstlicher Intelligenz an Gerichten gesprochen – der kennt Risiken, bietet aber auch Chancen.

Elektronische Akte und elektronischer Rechtsverkehr sind zentrale Schritte auf dem Weg der Justiz in eine digitale Zukunft. Mit ihnen geht ein tiefgreifender Wandel einher, auf den sich nicht nur die junge Richterschaft freut. Bei dem gesetzlichen Pflichtprogramm aus § 298a oder § 130d ZPO sollte die Justiz indes nicht Halt machen. Vielmehr lohnt es sich, das Thema Digitalisierung mit all seinen Facetten in den Blick zu nehmen und schon jetzt nach weiteren Wegen zu suchen, auf denen die Gerichte von neuen Technologien profitieren können.

In den Fokus gerückt ist hier etwa der Einsatz von Künstlicher Intelligenz (KI): Entsprechende Software wird mittlerweile nicht nur in der IT-Branche genutzt, sondern hält Einzug ins Wirtschaftsleben insgesamt und findet zunehmend auch in der Anwaltschaft Verwendung. Den Folgen sehen sich die Richterinnen und Richter in Deutschland täglich gegenüber, wenn zum Beispiel in Massenverfahren sehr umfangreiche und textbausteinartige Schriftsätze mit fraglichem Einzelfallbezug eingereicht werden (so sinngemäß auch TOP I.11 der 92. Justizministerkonferenz im November 2021, PDF).

FraUKE und die Fluggastklagen

Derartige „Wellen“ werden von KI-gestützten Softwarelösungen in spezialisierten Kanzleien oder durch Dienstleistungen von Legal-Tech-Anbietern getragen und bringen die Gerichte an den Rand ihrer Leistungsfähigkeit. Dass es insofern gesetzgeberischer Reformen bedarf, steht außer Frage. Die Justiz sollte sich aber auch in technischer Hinsicht nicht treiben lassen, sondern das Potenzial, das KI bietet, selbst nutzen.

Der Einsatz von KI in der Justiz wird in Deutschland beispielweise beim Amtsgericht Frankfurt a. M. unter dem Namen „FraUKE“ (kurz für Frankfurter UrteilsKonfigurator Elektronisch) zur Bewältigung der jährlich bis zu 15.000 Fluggastklagen erprobt (s. Bericht der Hessenschau). Diese Verfahren ähneln sich stark, weshalb ein KI-System mit Klage- und Urteilstexten aus der Rechtsprechung trainiert wird, um wiederkehrende Muster zu erkennen. Darauf aufbauend soll das Programm den Richterinnen und Richtern differenzierte, individuell veränderbare Textbausteine für ihre Entscheidungen vorschlagen.

KI ist aber nicht nur beim Umgang mit Massenverfahren einsetzbar: Wie wäre es etwa, wenn ein intelligenter Chatbot Bürgerinnen und Bürger rund um die Uhr darüber informierte, welches Gericht für ihr konkretes Anliegen zuständig ist und sie anschließend bei der Antragsstellung begleitete? Mit Hilfe einer KI könnten auch Gerichtsentscheidungen binnen Sekunden von einer Software anonymisiert werden, wodurch sich die Quote veröffentlichter Urteile und Beschlüsse und damit die Transparenz der Justiz insgesamt steigern ließe.

Strafzumessung mit unbekanntem Algorithmus

Das klingt verlockend? Ist es auch! Ein Blick auf die Gerichte anderer Länder zeigt allerdings, dass nicht alles, was sich technisch realisieren lässt, auch realisiert werden sollte.

So wird in vielen Bundesstaaten der USA die KI-gestützte Software „COMPAS“ („Correctional Offender Management Profiling for Alternative Sanctions“) genutzt, um die Rückfallgeschwindigkeiten von Straftätern zu prognostizieren. Das Programm wertet die Ergebnisse eines Interviews sowie die Strafakte aus und errechnet auf dieser Grundlage den „COMPAS-Output“, der etwa im Bereich der Strafzumessung sowie bei Bewährungsentscheidungen Berücksichtigung findet (s. Sachstandsbericht des Wissenschaftlichen Dienstes des Bundestags, PDF). Welcher Algorithmus hierfür genutzt wird, ist allerdings nicht bekannt. Die Software wird von einem privaten Unternehmen zur Verfügung gestellt, das die Berechnungsformel als Geschäftsgeheimnis betrachtet und eine Offenlegung verweigert.

Ein weiteres Beispiel für das technisch Machbare stammt aus China: Dort soll ein intelligentes Hilfssystem für die Fallbearbeitung in Strafsachen zum Einsatz kommen, das „System 206“. Laut einer Veröffentlichung im Asian Journal of Law and Society soll das Programm eine Spracherkennungssoftware umfassen, die die gerade im Gerichtssaal erörterten Themen identifiziere. Die installierten Bildschirme zeigten sodann allen Beteiligten automatisch die für diese Themen relevanten Dokumente oder Videos aus der Akte an; anschließend teile das System mit, ob die vorliegenden Indizien den in die Software integrierten, von Experten erarbeiteten und durch maschinelles Lernen weiterentwickelten Richtlinien für die Beweisführung genügten.

Mögliche Verletzung des rechtlichen Gehörs

Diese weiteren, internationalen Einsatzszenarien führen uns die Risiken einer gerichtlichen Nutzung künstlicher Intelligenz anschaulich vor Augen: Werden Prognosen auf Algorithmen gestützt, besteht stets die Gefahr diskriminierender Tendenzen, die ihrerseits sowohl auf einer einseitigen Programmierung als auch darauf beruhen können, dass die genutzte Datengrundlage einen diskriminierenden Status quo abbildet. Umso fragwürdiger erscheint es, wenn bei der Entscheidung über die vorzeitige Haftentlassung von Gefangenen oder bei der Beweiswürdigung nicht nachvollziehbar ist, welche Aspekte mit welcher Gewichtung in das „errechnete“ Ergebnis eingeflossen sind.

Hier kann der grundgesetzlich verankerte Anspruch der oder des Betroffenen auf rechtliches Gehör verletzt sein – wie soll er oder sie ein Rechtsmittel gegen die Gerichtsentscheidung begründen, wenn offenbleibt, auf welchen Kriterien sie beruht? Man kann sogar bezweifeln, ob die Richterin oder der Richter überhaupt noch eine eigene Entscheidung trifft, wenn er oder sie sich auf den „COMPAS-Output“ oder das vom „System 206“ angezeigte Ergebnis verlässt. Immerhin gibt es bei Legalprognose und Beweiswürdigung anders als bei einer mathematischen Gleichung keine eindeutig „richtige“ oder „falsche“ Lösung.

Dasselbe gilt für die Subsumtion unter unbestimmte Rechtsbegriffe: Wann etwa grobe Fahrlässigkeit vorliegt, etwas angemessen oder zumutbar ist oder ein wichtiger Grund zur Kündigung besteht, bedarf jeweils einer umfassenden Abwägung der Umstände des Einzelfalls. Auch hier ist eine richterliche Wertentscheidung gefordert, die sich standardisierten Formeln entzieht und an der es fehlt, wenn das von einer Software errechnete Ergebnis ohne eigenständige Überprüfung übernommen wird.

Gesetzlicher Richter ist und bleibt der Mensch

Damit ist zugleich eine zentrale Botschaft im Zusammenhang mit KI und Justiz erreicht: Der gesetzliche Richter gemäß Art. 101 Abs. 1 Satz 2 GG ist und bleibt ein Mensch! Er oder sie hat die Aufgabe, sich jedem einzelnen Fall zuzuwenden, die individuellen Bedenken, Probleme, Anliegen oder Meinungen der Beteiligten aufzunehmen und nach Abwägung aller relevanten Gesichtspunkte eine transparente, nachvollziehbare Entscheidung zu treffen. In diesen Kernbereich richterlicher Tätigkeit darf kein Algorithmus eingreifen.

Der Verantwortung, die hiermit einhergeht, ist sich die Justiz bewusst. Wir werden auch bei fortschreitenden technischen Möglichkeiten jedes gerichtliche KI-Projekt kritisch überprüfen und umso höhere Anforderungen an Transparenz und Nachvollziehbarkeit eines Programms stellen, je näher es an die richterliche Entscheidungsfindung heranrückt (s. auch die Ergebnisse der 74. Jahrestagung der OLG-Leitungen mit der Präsidentin des Bundesgerichtshofs im Mai 2022).

Innerhalb dieser Grenzen kann uns KI aber eine wichtige Hilfe sein und durch die Übernahme von vorbereitenden und unterstützenden Tätigkeiten dringend benötigte Freiräume für die letztendlichen – menschlichen! – Entscheidungen schaffen. Diese Chance sollten wir nutzen, um das Potenzial der Digitalisierung im Interesse einer modernen und leistungsfähigen Justiz bestmöglich auszuschöpfen.

Suggested Citation

Otte, Stefanie, Hoffmann, Maike, Gesetzlicher Richter bleibt der Mensch, libra-rechtsbriefing, 06.9.2022, https://www.libra-rechtsbriefing.de/L/digitalisierung-der-justiz

PDF Download