Autorin: Isabella María Eikel
Datum: 15.12.2025
Kategorie: Vorträge
Technologische Entwicklungen prägen seit längerem zunehmend auch die juristische Praxis, sei es durch automatisierte Vertragsprüfungen oder KI-gestützte Recherchetools. Besonders zugespitzt zeigt sich die Entwicklung in der Rechtsprechung selbst. Neben dem Einsatz digitaler Werkzeuge stellt sich mit maschinengenerierten Gerichtsentscheidungen die Frage, ob und in welchem Umfang algorithmische Systeme in die richterliche Entscheidungsfindung vordringen dürfen.
Am 15.12.2026 trug Antonia Stummvoll ihr Dissertationsthema „Verfassungsrechtliche Überlegung zu maschinengenerierten Gerichtsentscheidungen“ vor. Als Wissenschaftliche Mitarbeiterin und Doktorandin am Lehrstuhl für Öffentliches Recht, Verfassungstheorie und Rechtsphilosophie befasst sie sich mit den verfassungsrechtlichen Problemen des sog. Robo Judge und den erforderlichen Anforderungen an diesen.
Menschliche Wertung und algorithmische Nachbildung
Bevor über die Verfassungsmäßigkeit maschineller Gerichtsentscheidungen geurteilt werden kann, ist eine Betrachtung der menschlichen juristischen Entscheidungsfindung erforderlich. Der Mensch fällt Entscheidungen im Wege der Abwägung verschiedener Antwortmöglichkeiten. Die Abwägung wird von einer Vielzahl unterschiedlicher Faktoren beeinflusst, die sich nicht stets eindeutig bestimmen lassen. Darunter fallen beispielsweise die auslegungsmethodische Gewichtung, gesellschaftliche, wirtschaftliche oder zeitliche Hintergründe als auch Vorverständnisse und implizite Wertannahmen. Vor diesem Hintergrund stellt sich die Frage, ob und inwieweit sich solche wertungsgeprägten Entscheidungsprozesse algorithmisch abbilden lassen. Der Entscheidungsprozess lässt sich im Kontext der Verfassungspraxis in zwei Abschnitte unterteilen. Der context of discovery beschreibt die Herstellung, daher die Überlegung welches Ergebnis am Ende stehen soll. Der context of justification beschreibt die Begründung dieser „hergestellten“ Entscheidung. Bei diesem Zusammenspiel von Dezision und Argumentation kommen regelmäßig mehrere Antwortmöglichkeiten in Betracht, von denen nicht alle, wohl aber mehrere argumentativ vertretbar sind.
Was ist der Robo Judge? – Konzept und Zielsetzung
Der Robo Judge ist ein sprachgenerierendes KI-System, der Gerichtsentscheidungen nach Maßgabe richterlicher Begründungsmaßstäbe fällt. Ziel seines Einsatzes ist dabei nicht die vollständige Ersetzung des menschlichen Richters. Vielmehr soll der Robo Judge als Prognose- und Unterstützungsinstrument dienen, um gerichtliche Entscheidungsprozesse effizienter zu gestalten. Gleichwohl stellt sich die Frage nach seiner verfassungsrechtlichen Zulässigkeit.
Verfassungsrechtliche Herausforderungen maschineller Gerichtsentscheidungen
1. Dynamik des Rechts und das Problem der Perpetuierung
Indem der Robo Judge zu einem bestimmten Zeitpunkt mit Rechtsprechung und Gesetzgebung trainiert wird, kommt es zu einer systematischen Reproduktion eines in späteren Jahren überholten Entscheidungsniveaus. Damit liefe die Gefahr, dass der Robo Judge zu einem perpetuierenden System wird.
Erforderlich ist daher ein regelmäßiges Neutraining des Systems anhand der jeweils aktuellen Rechtsprechung und Gesetzeslage, um der Verfestigung eines rückständigen Status quos entgegenzuwirken.
2. Richterliche Unabhängigkeit bei automatisierten Verfahren
Die richterliche Unabhängigkeit als verfassungsrechtlicher Grundsatz fordert die persönliche und sachliche Unabhängigkeit der Gerichte. Die persönliche Unabhängigkeit schützt das Verfahren vor Einflussnahme der Richter aus eigenem Interesse. Eine eigenständige Einflussnahme ist bei einem KI-System jedoch mangels sozialer Bindungen und menschlicher Gefühle praktisch ausgeschlossen. Stattdessen birgt der Robo Judge die Gefahr einer Beeinflussung der sachlichen Unabhängigkeit. Schließlich wird das System durch einen Dritten trainiert, was äußere Weisungen verstärkt ermöglicht. Fraglich ist insbesondere, welcher Dritte das Training des Systems übernimmt. Ein Training durch die Exekutive wäre beispielsweise problematisch, da dadurch die Judikative als Kontrollinstanz der Exekutive in ihrer sachlichen Unabhängigkeit gefährdet werden würde.
Erforderlich wäre somit die Bereitstellung der Trainingsdaten durch unabhängige Richter sowie die Festlegung des Trainingsverfahrens durch ein gesetzlich legitimiertes Regelwerk.
3. Fehlendes semantisches Verständnis der Maschine und Einzelfallgerechtigkeit
Das KI-System kann zwar ein Urteil formulieren, versteht aber nicht wirklich, warum ein Gesetz im konkreten Fall angewendet wird. Sprachgenerierende KI arbeitet nämlich statistisch. Sie errechnet also die Wahrscheinlichkeit des Auftretens eines bestimmten sprachlichen Musters, versteht jedoch weder die Bedeutung noch die juristischen Konzepte. Der menschliche Richter trifft Entscheidungen unter semantischem Verständnis. Er weiß, was ein Gesetz aussagt, was es bewirken soll, und versteht den Einzelfall im Kontext der Rechtsordnung. Automatisierte Entscheidungen können somit in ungewöhnlichen Fällen unangemessen sein, obwohl sie statistisch nachvollziehbar sind.
Erforderlich ist daher zunächst, dass der Mensch Letztentscheider bleibt. Außerdem müsste Betroffenen ein einklagbares Recht auf menschliche Überprüfung der automatisierten Entscheidungen eingeräumt werden.
4. Kernproblem: Gleichheit und Diskriminierung
Zum Einstieg in ein zentrales Problem der maschinengenerierten Gerichtsentscheidungen ein Fallbeispiel: Beschuldigte mit Migrationshintergrund kommen überdurchschnittlich häufig in Untersuchungshaft. Die Herkunft ist grds. kein zulässiger Entscheidungsfaktor, sodass eine rechtliche Diskriminierung vorliegt. Vor diesem Hintergrund stellt sich die Frage, welche Folgen eine datenbasierte Entscheidungsfindung für Art. 3 I GG hat.
Bei der menschlichen Ungleichbehandlung ist zwischen drei Ebenen zu unterscheiden. Die sachlich gerechtfertigte Ungleichbehandlung basiert auf tatsächlichen Erwägungen, die nachvollziehbar sind und damit kein verfassungsrechtliches Problem darstellen (z.B. andere Staatsbürgerschaft erhöht Fluchtgefahr). Die strukturelle gesellschaftliche Ungleichbehandlung ist eine tatsächliche Gegebenheit, dessen Bekämpfung nicht Aufgabe des Gerichts und somit verfassungsrechtlich hinzunehmen ist (z.B. Migrationshintergrund könnte mit geringeren wirtschaftlichen Ressourcen und somit mit schlechterem Zugang zu Gerichtsvertretung einhergehen). Die gerichtliche Ungleichbehandlung folgt direkt aus den Gerichten, was verfassungsrechtlich problematisch ist (z.B. Ausländerfeindlichkeit des Richters). Dabei können Richter diskriminierende Entscheidungen basierend auf persönlichen Abneigungen oder auf systematische Ungleichbehandlung fällen. Zudem spielt die zufallsbedingte Entscheidungsvarianz, sog. noise eine zentrale Rolle. Diese Ungleichbehandlung erfolgt nicht absichtlich, sondern durch zufällige, ungeplante Einflüsse. Selbst bei identischen Sachverhalten können daher zwei Richter aufgrund z.B. unterschiedlicher Stimmungen zu unterschiedlichen Entscheidungen kommen, was die faktische Gleichbehandlung beeinträchtigt.
Während beim Menschen Ungleichbehandlung oft zufällig oder persönlich geprägt ist, zeigt es sich bei der KI anders. Diskriminierung folgt aus der sog. machine bias, also die systematische Verzerrung in KI-Systemen. Diese Verzerrungen entstehen prinzipiell durch fehlerhafte Trainingsdaten; beim Robo Judges also durch vergangene Rechtsprechung und Gesetzeslage. Daher diskriminieren Maschinen nicht originär, sondern verstärken und reproduzieren lediglich gesellschaftliche Strukturen.
Diskriminierung kann sowohl in der Begründung einer Entscheidung als auch in der Herstellung auftreten. Sowohl beim Menschen als auch bei der Maschine ist der Herstellungsprozess (context of discovery) eine Black Box. Im Unterschied sind bei KI-Systemen die entscheidungsbildenden Trainingsdaten bekannt. Die Entscheidungsgrundlagen des Menschen bleiben für außenstehende verborgen.
Im Ergebnis bedeutet das, dass menschliche Diskriminierung im Einzelfall kaum nachweisbar ist, während die Diskriminierung durch Maschine rekonstruierbar sein kann. Das erleichtert die Nachweisbarkeit und die Möglichkeit, Diskriminierung zu erkennen und zu korrigieren. Die algorithmische Konsistenz sorgt gleichzeitig dafür, dass ähnliche Fälle ähnlich behandelt werden. Diese Kombination reduziert die zufallsbedingte Entscheidungsvarianz und führt zu einer Annäherung an den Gleichheitssatz. Damit stellt Art. 3 I GG kein kategorisches Ausschlusskriterium dar, sondern einen allgemeinen Gestaltungsauftrag.
Erforderlich ist daher der bewusste Umgang mit Trainingsdaten, indem interne Diskriminierungen erkannt und korrigiert werden. Zudem spielt die menschliche Letztentscheidung zur Sicherung der Einzelfallgerechtigkeit und die Gewährleistung eines effektiven Rechtsschutzes gegen maschinelle Gerichtsentscheidungen auch bei diesem Problem eine wichtige Rolle.
Der Einsatz eines Robo Judges könnte also die Diskriminierung bei dem vorherigen Fallbeispiel senken. So könnte beispielsweise die überdurchschnittliche Inhaftierung von Beschuldigten mit Migrationshintergrund erkannt und berücksichtigt werden. KI-Systeme könnten dabei helfen, zufallsbedingte Unterschiede zwischen einzelnen Richtern zu reduzieren und konsistente Entscheidungen zu treffen. Einfacher gesagt als getan: Die Nachweisbarkeit von Diskriminierung ist schließlich bei menschlichen Entscheidungen deutlich schwieriger, und eine Korrektur vergangener Diskriminierung setzt eine sorgfältige Analyse voraus.
Maschinelle Urteile verfassungsrechtlich möglich?
Die Frage, ob maschinelle Gerichtsentscheidungen verfassungsgemäß sind oder nicht, lässt sich nicht ohne Weiteres beantworten. Es sollte aber nicht darum gehen, maschinelle Entscheidungen kategorisch abzulehnen, sei es aus Gründen der Unmöglichkeit oder aus einer generellen Abneigung. Frau Stummvoll hat dargestellt, dass der Robo-Judge unter Einhaltung der genannten Anforderungen verfassungsrechtlich nicht verboten ist. Damit sei nicht gesagt, dass der Robo-Judge zwangsläufig eingeführt werden muss. Es muss allein die demokratische Diskussion eingeleitet werden darüber, wie dieser zu beurteilen ist.
© 2026 Bayreuther Initiative für Legal Tech e.V.
