Künstliche Intelligenz und neue Gesetze: KI bekommt rechtlichen Rahmen [Interview]
Brauchen wir neue Gesetze, um menschliche Kreativität zu schützen? Alexandra Ciarnau, Expertin für IT-, IP- und Datenschutz-Recht, erklärt im Interview, worauf Sie bei der Verwendung von KI-Tools achten müssen.
Die rechtlichen Rahmenbedingungen für die Entwicklung und Nutzung künstlicher Intelligenz (KI) sind gerade im Entstehen, dazu müssen viele juristische Fragen geklärt werden. Über den aktuellen Stand erzählt Alexandra Ciarnau, Vorstandsmitglied des Vereins Women in AI Austria und Rechtsanwältin mit Spezialisierung auf IP/IT (Intellectual Property / Information Technology) sowie Daten- und Verbraucherschutz.
Ist das Thema künstliche Intelligenz (KI) für Juristinnen und Juristen besonders herausfordernd? Oder ist KI ein Problem wie jedes andere?
Alexandra Ciarnau: Aus juristischer Sicht ist das Thema KI extrem spannend. Juristinnen und Juristen wollen ja immer alles ganz logisch und strukturiert betrachten. Aber das geht bei KI oft gar nicht. Denn wie eine KI genau arbeitet, woher sie ihre „Inspiration“ nimmt, wie die Algorithmen im Hintergrund funktionieren – das alles lässt sich nicht so leicht sagen. Wir Juristinnen und Juristen schauen deshalb auf das, was wir sehen und beurteilen können, und das sind der Input und der Output. Also erstens: Welches Datenmaterial nutzt eine KI? Und zweitens: Was ist das generierte Ergebnis, und was darf die Anwenderin oder der Anwender damit tun?
Wenn ein Text oder ein Bild von einer KI erzeugt wird, ist dann immer das Unternehmen, von dem das Programm stammt, auch Urheber? Oder liegt das Urheberrecht bei der Userin beziehungsweise dem User?Ciarnau: Urheberrechtlich geschützt sind eigentümliche geistige Schöpfungen. Das heißt, das Ergebnis muss sich vom Alltäglichen und Landläufigen abheben. Schöpfer kann also nur der Mensch sein. Somit kommt primär die Userin oder der User als möglicher Schöpfer in Frage. Wann allerdings eine solche eigentümliche geistige Schöpfung vorliegt, ist eine Einzelfallentscheidung. Das ist bei KI nur schwer zu beurteilen. Erstens, weil der Input so gigantisch ist. Und zweitens, weil die Userin oder der User zwar eine Anweisung gibt, einen sogenannten Prompt, aber nicht genau wissen kann, wie die KI die unterschiedlichen „Schnipsel“, die ihr zur Verfügung stehen, zusammensetzt zu einem neuen Text oder Bild. Man kann nicht für jeden einzelnen Fall ein Gericht entscheiden lassen: War das jetzt individuell und kreativ genug, was hier eingegeben wurde, sodass das generierte Bild oder der generierte Text eine „Schöpfung“ der Userin oder des Users ist?
Erinnern wir uns zurück an einen Fall aus dem Jahr 2011: Ein Affe im indonesischen Dschungel löste die Kamera eines Naturfotografen aus – zufällig genau in dem Moment, als er in die Linse schaute. Der Fotograf hat die Rechte an diesem „Affen-Selfie“ für sich beansprucht – und letztlich auch zugesprochen bekommen. Er argumentierte: Er habe ja die Kamera bereitgestellt, der Affe habe nur einen Knopf gedrückt. Heute könnten KI-Unternehmen genauso argumentieren: Die Userinnen und User betätigen ja nur einen Auslöser und haben keine Kontrolle darüber, was sie erschaffen. Umgekehrt könnten Userinnen und User ins Treffen führen, dass ohne ihre Anweisung kein Ergebnis generiert worden wäre. Je individueller die Anweisung, desto eigentümlicher auch das Ergebnis und desto eher könnte ein urheberrechtlich geschütztes Werk vorliegen.
Wie lässt sich die Urheberschaft also regeln?
Ciarnau: Die Betreiber von KI-Tools räumen den Userinnen und Usern meist von vornherein bestimmte Rechte ein – oder eben nicht. Noch klarer kann man das regeln, wenn man sich ein KI-Tool „maßanfertigen“ lässt. Denn dann kann vertraglich festgehalten werden, dass die Nutzung der generierten Inhalte exklusiv bei der Käuferin oder dem Käufer des Tools liegt. Bei Gratis-Tools hingegen liegt die Nutzung des generierten Contents nie exklusiv bei der Userin oder dem User. Denn die nächste Userin oder der nächste User könnte ja unter Umständen den gleichen oder einen sehr ähnlichen Output erhalten. Vor dem Einsatz ist daher aus Nutzersicht eine genaue Recherche notwendig: Was darf ich mit dem Content über den privaten Gebrauch hinaus tun, was nicht? Ist eine kommerzielle Verwendung erlaubt? Ist eine Bearbeitung zulässig?
Die wichtigsten Punkte in aller Kürze zusammengefasst finden Sie auch im dazugehörigen Video-Beitrag mit Alexandra Ciarnau.
Müssen Unternehmen für Datenschutz und Transparenz sorgen, wenn sie KI-Tools verwenden?
Ciarnau: Jedes Unternehmen und jede öffentliche Einrichtung, die KI für bestimmte Tätigkeiten anwenden wollen, müssen sich davor mit der „Legal Compliance“ beschäftigen. Also: Was darf ich mit der KI-Anwendung tun und in was für einem Rahmen dürfen sich meine Mitarbeiterinnen und Mitarbeiter bewegen? Diese Fragen muss das einzelne Unternehmen mit dem KI-Tool-Anbieter klären und vertraglich absichern. Und auch die Mitarbeiterinnen und Mitarbeiter müssen eingeschult werden, wie sie sich im Umgang mit dem KI-Tool datenschutzkonform verhalten. Also dass sie zum Beispiel mit personenbezogenen Daten oder Geschäftsgeheimnissen umso sensibler umzugehen haben.
Brauchen wir weitere Gesetze, um neue Formen von Falschinformation zu bestrafen oder verbreitete Inhalte leichter überprüfbar zu machen?
Ciarnau: Ich würde einen Schritt früher ansetzen: Was für Gesetze braucht es, um KI-Tools so zu bauen, dass sie keine Rechte verletzen können? Man spricht hier von compliance by design. In diese Kerbe schlägt auch der AI Act der Europäischen Union: Dort wird verlangt, dass Anbieter von Large Language Models – wie etwa ChatGPT eines ist – ihre Tools so programmieren, dass die Verbreitung von illegalen Inhalten von vornherein ausgeschlossen ist. Außerdem verlangt der AI Act Transparenz gegenüber den Nutzerinnen und Nutzern: Sie müssen darüber aufgeklärt werden, welche Quellen die KI für die Generierung von Inhalten heranzieht. Und als dritten Aspekt legt das Gesetz Transparenz gegenüber der Öffentlichkeit, also den Konsumentinnen und Konsumenten, fest: KI-generierte Inhalte müssen entsprechend ausgewiesen werden.
Inwiefern muss der Gesetzgeber auf die Tech-Branche und Innovationen im Bereich KI Rücksicht nehmen?
Ciarnau: Bei aller Notwendigkeit von strengen Gesetzen und guten Compliance-Regeln müssen wir uns auch in die Firmen hineinversetzen, die künstliche Intelligenz weiterentwickeln und neue Tools designen. Das sind auch kleine oder mittelständische Unternehmen, die nicht die gleichen Ressourcen haben wie globale Konzerne. Der Gesetzgeber muss also auf eine leichte Umsetzbarkeit Rücksicht nehmen. Außerdem müssen Gesetze so gestaltet sein, dass sie Innovationen nicht behindern. Wir befinden uns in der EU ja in einem globalen Wettlauf mit den USA, China und anderen Wirtschaftszonen. Ein guter Weg sind hier sogenannte regulatory sandboxes, also begrenzte und überwachte Testumgebungen, wo man KI-Tools und ihre Compliance vorab überprüft, bevor man sie in die „reale Welt“ entlässt.
KI wird sich in den kommenden Jahren massiv auf den Arbeitsmarkt auswirken. Wäre es sinnvoll, neue Arbeitnehmerrechte zu schaffen als Schutz gegenüber KI-Entwicklungen?
Ciarnau: Als ChatGPT Ende 2022 das erste Mal weltweit für Aufsehen gesorgt hat, kam bei vielen Menschen schnell die Sorge auf: Werden mein Know-how und mein Können am Arbeitsmarkt schon bald überflüssig werden? Da macht es aus Arbeitnehmersicht durchaus Sinn, von der Politik eine Reaktion zu fordern. Zum Beispiel könnte man einen Anspruch auf Weiterbildungsmaßnahmen oder Umschulungen andenken. Allerdings fördern viele Unternehmen schon jetzt proaktiv Fortbildungen ihrer Mitarbeiterinnen und Mitarbeiter.
Kann der Gesetzgeber mit der rasanten Weiterentwicklung von KI-Technologie überhaupt Schritt halten?
Ciarnau: Der Gesetzgeber kommt beim technischen Fortschritt selten hinterher. Aber das ist zum Teil auch verständlich. Man beobachtet eine Zeit lang die Entwicklungen und versucht dann punktuell zu regulieren und zu steuern. Um die Zeit zu überbrücken, die es dauert, bis neue KI-Gesetze schließlich in Kraft treten, wäre es ratsam, verstärkt auf „Guidelines“ für Entwicklerinnen und Entwickler sowie für Anwenderinnen und Anwender zu setzen. So können sich alle gemeinsam darauf einstellen, was bald Gesetz sein wird.
Woher beziehen die Politikerinnen und Politiker, die diese KI-bezogenen Gesetze verhandeln müssen, ihr Wissen? Sind sie gut beraten?
Ciarnau: Es gibt inhouse, also in den Ministerien und im Parlament, Expertenwissen, auf das sie zurückgreifen können. Vermutlich wird auch weitere Expertise zugekauft. Darüber hinaus wird Wissen im Austausch mit Stakeholdern generiert: In Österreich wurde etwa ein KI-Stakeholderforum geschaffen sowie ein KI-Beirat, in dem mehrere Wissenschaftlerinnen und Wissenschaftler beratend tätig sind. Es ist wichtig, dass ein möglichst breit gefächertes Verständnis der Chancen und Herausforderungen rund um KI etabliert wird. Eine Regulierung greift immer dann gut, wenn man sich vorher ein differenziertes Bild einer Problemlage gemacht hat. Im Fall von KI heißt das, zugespitzt gesagt: Man soll nicht nur die Juristinnen und Juristen befragen, sondern muss auch die technische, die ethische und die soziale Perspektive miteinbeziehen.
Über die Herausforderungen des von der Bundesregierung initiierten KI-Beirats erzählt der Vorstand Horst Bischof im Interview: „Die KI als Challenge: die Aufgaben des AI Advisory Boards (KI Beirat)“.
Meiner Ansicht nach war es eine sehr smarte Entscheidung, die nationale KI-Servicestelle, die durch den europäischen AI Act notwendig geworden ist, in Österreich bei der Rundfunk und Telekom Regulierungs-GmbH (RTR) anzusiedeln. Denn die RTR ist bereits interdisziplinär aufgestellt mit Expertinnen und Experten aus den Bereichen Technik, Wirtschaft und Recht.
Letzte Frage: Brauchen Maschinen bald ihre eigene Rechtspersönlichkeit? Oder ist das Science Fiction?
Ciarnau: Wir sind noch meilenweit davon entfernt, dass sich Roboter selbstbestimmt durch die Welt bewegen oder KI-Systeme als dem Menschen gleichgestellt wahrgenommen werden. Aber selbst wenn es einmal so sein sollte – was nützt es, einer KI eine Rechtspersönlichkeit zuzugestehen? Rechtspersönlichkeiten dienen ja dazu, dass Personen oder Organisationen Verantwortung für ihr Tun übernehmen können und auch für die Konsequenzen einer Handlung einstehen können. Die Frage ist: Kann das bei einer KI genauso umgesetzt werden? Tut es einer KI „weh“, wenn sie eine Verwaltungsstrafe zahlen muss oder für zwei Jahre abgeschaltet wird? Wird sie sich dann „bessern“? Zurzeit ist das für mich nicht denkbar. Aber natürlich – man weiß nie, was die Zukunft bringt.
Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria