Juristische Aspekte Künstlicher Intelligenz Wolfgang Zankl Es gibt im österreichischen Recht keine Bestimmungen, die auf Probleme künstlicher Intelligenz ausdrücklich Bezug nehmen. Dieses Manko ist bereits jetzt – bei den bestehenden Anwendungen künstlicher Intelligenz - spürbar; man denke an intelligente Navigations- und Steuerungssysteme (Kfz- und Flugverkehr) und an die Aktivitäten von Software-Agenten (das sind Programme mit einem gewissen Grad künstlicher Intelligenz, die auf virtuellen Märkten selbständig Aufgaben – zB Vertragsabschlüsse – für ihren User erledigen). Haftet ein User solcher Systeme, wenn sie versagen oder manipuliert werden? Fragen, die auf der Grundlage des geltenden Rechts schwer zu beantworten sind, weil es eben keine speziellen Regelungen gibt. Man kann sich derzeit nur mit der analogen Anwendung von Bestimmungen behelfen, die ähnliche Sachverhalte regeln. Es bleibt aber natürlich die Unsicherheit, welche Regeln konkret heranzuziehen sind und es insbesondere unklar, ob man diesbezüglich bei der Verschuldenshaftung ansetzen soll, die den Benützer intelligenter Systeme nur bei schuldhaftem Fehlverhalten (also zB bei vermeidbaren Programmierungsfehlern) haften lassen würde oder ob man an die Gefährdungshaftung anknüpfen soll, wonach auch ohne Verschulden zu haften wäre, also zB auch dann, wenn das System unvorhersehbar versagt. Ob von intelligenten Programmen eine spezielle Gefährdung ausgeht, die eine solche verschärfte Haftung gerechtfertigt erscheinen lässt, ist allerdings noch nicht geklärt und hängt auch von den technischen Gegebenheiten solcher Systeme ab. Am besten wäre es daher wohl, einschlägige Rechtsgrundlagen zu schaffen, wobei aber die Erfahrung lehrt, dass dies nicht allzu bald passieren wird (vgl das EKHG, welches erst Jahrzehnte nach dem Auftauchen der ersten Kraftfahrzeuge erlassen wurde). Werden intelligente Software-Systeme in mechatronische Körper integriert, so entstehen intelligente Roboter. Irgendwann werden sich daher vor allem zwei Rechtsfragen stellen: 1. Wer haftet für Fehlfunktionen solcher Gebilde? In diesem Zusammenhang wird sich neuerlich und ganz manifest die Frage nach einer verschuldensunabhängigen Haftung stellen. Denn auch wenn man davon ausgeht, dass von künstlicher Intelligenz per se keine spezielle Gefährdung ausgeht, so ist es doch etwas anderes, ob diese nur auf virtuellen Märkten zum Einsatz kommt (auf denen idR nur Vermögensschäden drohen) oder in Kombination mit Maschinen, deren Fehlfunktionen zu Schäden an absolut geschützten Gütern führen können. Wer soll aber haften? Der Hersteller oder der User eines Roboters oder beide? Das ist bezüglich des Herstellers relativ leicht und sogar schon auf der Grundlage des geltenden Rechts zu beantworten. Roboter sind Produkte im Sinne des Produkthaftungsgesetzes, so dass ihr Hersteller verschuldensunabhängig nach diesem Gesetz haftet, wenn Schäden durch die Fehlerhaftigkeit des Produkts eintreten. Für den user kann die Frage nach verschuldensunabhängiger Haftung de lege lata nicht beantwortet werden. Da aber von beweglichen Gebilden, die sich aufgrund künstlicher Intelligenz frei bewegen, ein gewisses Gefährdungspotential ausgeht, ist eine Gefährdungshaftung nicht von der Hand zu weisen. Wenn irgendwann ein programmierbarer Grad künstlicher Intelligenz erreicht werden sollte, der sich jener natürlicher Intelligenz annähert, erreicht man den 2. Problemkreis: Wenn zB ein künstliches Gebilde dieselben intellektuellen Kapazitäten aufweist wie ein Kind bestimmten Alters, wäre es dann nicht indiziert, ihm (dem Roboter) im Rechtsverkehr - man denke dabei weniger an Menschenrechte, sondern an rechtsgeschäftliche Kompetenzen - auch dieselbe Rechtsstellung zu verleihen? Wird oder soll es also irgendwann vom Menschen verschiedene Gebilde geben („e-persons“), die – so wie der Mensch - rechtsfähig sind, also Träger von Rechten und Pflichten? Rein rechtstheoretisch spricht nichts dagegen, denn unsere Rechtsordnung kennt bereits jetzt Gebilde mit Rechtsfähigkeit, die vom Menschen verschieden sind, nämlich juristische Personen (zB eine GmbH). Ob es also neben natürlichen und juristischen auch künstliche Personen geben soll, ist letztlich eine Frage, die nicht so sehr auf rechtskonstruktiver als vielmehr auf rechtsphilosophischer und rechtsethischer Ebene zu klären sein wird. Diese Diskussion wird wohl noch eine Weile auf sich warten lassen. Schon in näherer Zukunft wird sich aber über kurz oder lang die Frage nach dem Einsatz virtueller Richter stellen. Darunter kann man sich Programme vorstellen, die wie ein Richter Rechtsstreitigkeiten schlichten oder sogar hoheitlich entscheiden. Diese Entwicklung liegt vom Ansatz her insofern nahe, als der für den juristischen Entscheidungsvorgang charakteristische Syllogismus (wenn ein Sachverhalt einen bestimmten Tatbestand erfüllt, dann tritt eine bestimmte Rechtsfolge ein) genau dem allen Programmen immanenten 0/1 (wenn/dann) Aufbau entspricht. Im Hinblick auf die Komplexität juristischer Entscheidungsfindung mit ihren unzähligen Unschärfen und Eventualitäten wird aber wohl auch diese Entwicklung noch nicht so bald stattfinden (Entwarnung). Dies vor allem im Privatrecht, das von Programmen schwer vollziehbare Wertungsschlüsse verlangt. Schon eher ist der virtuelle Richter im öffentlichen Recht vorstellbar (und hier teilweise sogar schon im Einsatz, vgl die automatisierte Strafverfügung), das aufgrund seiner stärkeren Formalisierung eher als das Privatrecht in das 0/1 („wenn-dann“) Schema passt. Letztlich ist es aber auch im Privatrecht vorstellbar, komplexe Wertungsvorgänge in eine Vielzahl einfacher Syllogismen zu „zerlegen“ (Ketten von 0/1-Abfolgen) so dass insgesamt ein wertungsähnlicher Prozess generiert wird. Diese Entwicklung und die damit verbundene Frage nach den Entscheidungsbefugnissen „virtueller Richter“ wird freilich nicht nur von technischen Gegebenheiten geprägt, sondern stößt wiederum an die Grenzen rechtsethischer, rechtsphilosophischer und nicht zuletzt natürlich auch standesrechtlicher Befindlichkeiten. Diese Bedenken erscheinen weit weniger ausgeprägt im Zusammenhang mit dem im Privatrecht vorstellbaren Einsatz von Prozess-Prognosen- Programmen (PPP). Sie könnten so konfiguriert werden, dass sie einen konkreten Sachverhalt, über den Streit herrscht, mit vergleichbaren Fällen (aus einer Rechtsdatenbank) in Beziehung setzen, um daraus Prozesschancen abzuleiten. Je nach den generierten Wahrscheinlichkeiten („A würde einen Prozess mit einer Wahrscheinlichkeit von 60% gewinnen“) würde den Parteien eine Vergleichsgrundlage geboten, der sie sich ex ante freiwillig unterwerfen könnten oder die es ihnen immerhin ex post erlaubt, ihr Prozessrisiko einzuschätzen. Diese Entwicklung wird vor allem vom Fortschritt und Umfang entsprechender Datenbanken abhängen.
© Copyright 2024 ExpyDoc