Juristische Aspekte Künstlicher Intelligenz - E

Juristische Aspekte Künstlicher Intelligenz
Wolfgang Zankl
Es gibt im österreichischen Recht keine Bestimmungen, die auf Probleme
künstlicher Intelligenz ausdrücklich Bezug nehmen. Dieses Manko ist bereits
jetzt – bei den bestehenden Anwendungen künstlicher Intelligenz - spürbar;
man denke an intelligente Navigations- und Steuerungssysteme (Kfz- und
Flugverkehr) und an die Aktivitäten von Software-Agenten (das sind
Programme mit einem gewissen Grad künstlicher Intelligenz, die auf virtuellen
Märkten selbständig Aufgaben – zB Vertragsabschlüsse – für ihren User
erledigen). Haftet ein User solcher Systeme, wenn sie versagen oder
manipuliert werden? Fragen, die auf der Grundlage des geltenden Rechts
schwer zu beantworten sind, weil es eben keine speziellen Regelungen gibt.
Man kann sich derzeit nur mit der analogen Anwendung von Bestimmungen
behelfen, die ähnliche Sachverhalte regeln. Es bleibt aber natürlich die
Unsicherheit, welche Regeln konkret heranzuziehen sind und es insbesondere
unklar, ob man diesbezüglich bei der Verschuldenshaftung ansetzen soll, die
den Benützer intelligenter Systeme nur bei schuldhaftem Fehlverhalten (also
zB bei vermeidbaren Programmierungsfehlern) haften lassen würde oder ob
man an die Gefährdungshaftung anknüpfen soll, wonach auch ohne
Verschulden zu haften wäre, also zB auch dann, wenn das System
unvorhersehbar versagt. Ob von intelligenten Programmen eine spezielle
Gefährdung ausgeht, die eine solche verschärfte Haftung gerechtfertigt
erscheinen lässt, ist allerdings noch nicht geklärt und hängt auch von den
technischen Gegebenheiten solcher Systeme ab. Am besten wäre es daher
wohl, einschlägige Rechtsgrundlagen zu schaffen, wobei aber die Erfahrung
lehrt, dass dies nicht allzu bald passieren wird (vgl das EKHG, welches erst
Jahrzehnte nach dem Auftauchen der ersten Kraftfahrzeuge erlassen wurde).
Werden intelligente Software-Systeme in mechatronische Körper integriert, so
entstehen intelligente Roboter. Irgendwann werden sich daher vor allem zwei
Rechtsfragen stellen: 1. Wer haftet für Fehlfunktionen solcher Gebilde? In
diesem Zusammenhang wird sich neuerlich und ganz manifest die Frage nach
einer verschuldensunabhängigen Haftung stellen. Denn auch wenn man
davon ausgeht, dass von künstlicher Intelligenz per se keine spezielle
Gefährdung ausgeht, so ist es doch etwas anderes, ob diese nur auf virtuellen
Märkten zum Einsatz kommt (auf denen idR nur Vermögensschäden drohen)
oder in Kombination mit Maschinen, deren Fehlfunktionen zu Schäden an
absolut geschützten Gütern führen können. Wer soll aber haften? Der
Hersteller oder der User eines Roboters oder beide? Das ist bezüglich des
Herstellers relativ leicht und sogar schon auf der Grundlage des geltenden
Rechts zu beantworten. Roboter sind Produkte im Sinne des
Produkthaftungsgesetzes, so dass ihr Hersteller verschuldensunabhängig
nach diesem Gesetz haftet, wenn Schäden durch die Fehlerhaftigkeit des
Produkts
eintreten.
Für
den
user
kann
die
Frage
nach
verschuldensunabhängiger Haftung de lege lata nicht beantwortet werden. Da
aber von beweglichen Gebilden, die sich aufgrund künstlicher Intelligenz frei
bewegen, ein gewisses Gefährdungspotential ausgeht, ist eine
Gefährdungshaftung nicht von der Hand zu weisen.
Wenn irgendwann ein programmierbarer Grad künstlicher Intelligenz erreicht
werden sollte, der sich jener natürlicher Intelligenz annähert, erreicht man den
2. Problemkreis: Wenn zB ein künstliches Gebilde dieselben intellektuellen
Kapazitäten aufweist wie ein Kind bestimmten Alters, wäre es dann nicht
indiziert, ihm (dem Roboter) im Rechtsverkehr - man denke dabei weniger an
Menschenrechte, sondern an rechtsgeschäftliche Kompetenzen - auch
dieselbe Rechtsstellung zu verleihen? Wird oder soll es also irgendwann vom
Menschen verschiedene Gebilde geben („e-persons“), die – so wie der
Mensch - rechtsfähig sind, also Träger von Rechten und Pflichten? Rein
rechtstheoretisch spricht nichts dagegen, denn unsere Rechtsordnung kennt
bereits jetzt Gebilde mit Rechtsfähigkeit, die vom Menschen verschieden sind,
nämlich juristische Personen (zB eine GmbH). Ob es also neben natürlichen
und juristischen auch künstliche Personen geben soll, ist letztlich eine Frage,
die nicht so sehr auf rechtskonstruktiver als vielmehr auf rechtsphilosophischer
und rechtsethischer Ebene zu klären sein wird.
Diese Diskussion wird wohl noch eine Weile auf sich warten lassen. Schon in
näherer Zukunft wird sich aber über kurz oder lang die Frage nach dem
Einsatz virtueller Richter stellen. Darunter kann man sich Programme
vorstellen, die wie ein Richter Rechtsstreitigkeiten schlichten oder sogar
hoheitlich entscheiden. Diese Entwicklung liegt vom Ansatz her insofern nahe,
als der für den juristischen Entscheidungsvorgang charakteristische
Syllogismus (wenn ein Sachverhalt einen bestimmten Tatbestand erfüllt, dann
tritt eine bestimmte Rechtsfolge ein) genau dem allen Programmen
immanenten 0/1 (wenn/dann) Aufbau entspricht. Im Hinblick auf die
Komplexität juristischer Entscheidungsfindung mit ihren unzähligen
Unschärfen und Eventualitäten wird aber wohl auch diese Entwicklung noch
nicht so bald stattfinden (Entwarnung). Dies vor allem im Privatrecht, das von
Programmen schwer vollziehbare Wertungsschlüsse verlangt. Schon eher ist
der virtuelle Richter im öffentlichen Recht vorstellbar (und hier teilweise sogar
schon im Einsatz, vgl die automatisierte Strafverfügung), das aufgrund seiner
stärkeren Formalisierung eher als das Privatrecht in das 0/1 („wenn-dann“)
Schema passt. Letztlich ist es aber auch im Privatrecht vorstellbar, komplexe
Wertungsvorgänge in eine Vielzahl einfacher Syllogismen zu „zerlegen“
(Ketten von 0/1-Abfolgen) so dass insgesamt ein wertungsähnlicher Prozess
generiert wird. Diese Entwicklung und die damit verbundene Frage nach den
Entscheidungsbefugnissen „virtueller Richter“ wird freilich nicht nur von
technischen Gegebenheiten geprägt, sondern stößt wiederum an die Grenzen
rechtsethischer, rechtsphilosophischer und nicht zuletzt natürlich auch
standesrechtlicher Befindlichkeiten.
Diese Bedenken erscheinen weit weniger ausgeprägt im Zusammenhang mit
dem im Privatrecht vorstellbaren Einsatz von Prozess-Prognosen-
Programmen (PPP). Sie könnten so konfiguriert werden, dass sie einen
konkreten Sachverhalt, über den Streit herrscht, mit vergleichbaren Fällen
(aus einer Rechtsdatenbank) in Beziehung setzen, um daraus
Prozesschancen abzuleiten. Je nach den generierten Wahrscheinlichkeiten
(„A würde einen Prozess mit einer Wahrscheinlichkeit von 60% gewinnen“)
würde den Parteien eine Vergleichsgrundlage geboten, der sie sich ex ante
freiwillig unterwerfen könnten oder die es ihnen immerhin ex post erlaubt, ihr
Prozessrisiko einzuschätzen. Diese Entwicklung wird vor allem vom Fortschritt
und Umfang entsprechender Datenbanken abhängen.