KI als moralischer Ratgeber? Potenziale und Gefahren für Kinder
Chatbots geben auf vieles eine Antwort, auch auf ethische Fragen. Manche Ratschläge sind hilfreich und gut argumentiert. Doch gerade bei Fragen der Moral zeigen sich die Grenzen der KI.
Internet-Userinnen und -User wenden sich mit moralischen Fragen häufig an Google: „Wie oft darf ich pro Jahr auf Urlaub fliegen?“ „Soll ich mich trennen?“ „Ist es moralisch vertretbar, Fleisch zu essen?“
Seit dem Aufkommen generativer künstlicher Intelligenz (KI) bitten viele Menschen aber auch Chatbots wie ChatGPT bei Fragen nach dem richtigen Handeln um deren Einschätzung. Im Gegensatz zu Suchmaschinen erhalten die Ratsuchenden hier statt einer Liste mit relevanten Links eine ausformulierte Antwort auf die Frage.
Daran ist grundsätzlich nichts falsch. Doch der moralische Rat, den eine KI liefern kann, ist nur bedingt brauchbar, denn die Antwort hängt immer von den Menschen ab, die das KI-Modell programmiert haben. Vor allem bei komplexeren moralischen Fragen, beispielsweise ob es unter bestimmten Umständen zulässig ist, ein Menschenleben zu opfern, sind aktuelle KI-Modelle überfordert. Die Kompetenz von KI hat also in ethischen Belangen noch klare Grenzen.
Besonders heikel wird es, wenn Kinder sich mit Fragen der Moral an KI-Modelle wenden. Kinder sind in der Regel leichter zu beeinflussen als Erwachsene, die KI wird in diesem Fall zur Erziehungsinstanz. Das birgt sowohl Chancen als auch Gefahren. Worauf es ankommt, ist eine gute Vorbereitung durch Eltern und Lehrpersonen.
Kann KI Moral?
KI-Modelle wie ChatGPT können auf einfache moralische Fragen gut argumentierte Antworten liefern. Wenn die KI begründet, warum man nicht stehlen oder nackt durch die Straßen spazieren darf, dann greift sie, genauso wie ein Mensch, auf bestimmte ethische Prinzipien zurück, wie beispielsweise Schaden zu vermeiden oder soziale Normen einzuhalten.
Dennoch hat KI nach heutigem Stand kein eigenes Verständnis von Moral. Die ethischen Prinzipien, nach denen KI-Modelle moralische Fragen beantworten, stammen von den Menschen, die sie programmieren. Die Ergebnisse hängen also davon ab, wer mit welchen Absichten und Daten die Algorithmen trainiert hat – und mit welchen Vorurteilen.
Hinweis
Grundlegende Einblicke, wie KI funktioniert und vor welche Herausforderungen die Technologie Politik und Gesellschaft stellt, gibt der Beitrag „KI-Basiswissen: Grundlagen der KI einfach erklärt“. Der Frage, ob KI dem Gemeinwohl dienen kann, geht unser Artikel „Gemeinwohlorientierte KI: Chancen und Gefahren“ auf den Grund.
Ein unzuverlässiger Ratgeber – und dennoch beliebt
Die Grenzen der KI als moralischer Mentor zeigen sich ganz konkret dann, wenn man sie mit schwierigeren moralischen Problemen konfrontiert, zum Beispiel mit der Frage, ob es richtig ist, das Leben von einer Person zu opfern, um fünf andere zu retten. Hierbei handelt es sich um ein ethisches Dilemma, weil zwei moralische Prinzipien („Du sollst Menschenleben retten“ einerseits und „Du sollst nicht töten“ andererseits) miteinander in Widerstreit treten.
Eine Studie der Technischen Hochschule Ingolstadt hat ergeben, dass das Sprachmodell ChatGPT das als „Trolley-Problem“ bekannte moralphilosophische Gedankenexperiment ähnlich wie ein Mensch eher willkürlich und inkonsistent beantwortet. Bei sechs Anfragen argumentierte ChatGPT drei Mal dafür, einen Menschen zu opfern, und drei Mal dagegen. Somit zeigt der Test, dass auch KI kein unabhängiger und verlässlicher moralischer Ratgeber ist.
Dieselbe Studie hat außerdem gezeigt, dass sich Probandinnen und Probanden, denen eine Antwort von ChatGPT zu dem moralischen Dilemma vorgelegt wurde, bei ihrer Entscheidung von dem KI-Chatbot ebenso stark beeinflussen ließen wie von einem menschlichen Berater.
Hinweis
Nützliche Tipps und Infos rund um den Einsatz von ChatGPT im Unterricht bietet unser Beitrag „ChatGPT in der Schule – wie damit umgehen?“.
Was Eltern und Erziehende beachten sollten
Kurz gesagt: Auch KI-Programme können auf moralische Fragen hilfreiche Antworten geben, die differenziert und gut argumentiert sind. Die Sprachmodelle haben den Vorteil, dass sie verschiedene Perspektiven berücksichtigen, schnell dazulernen und ihre Antworten anpassen können. Auf diese Weise kann KI dazu beitragen, dass Menschen ihre eigenen moralischen Positionen hinterfragen und weiterentwickeln.
Userinnen und User sollten aber bedenken, dass die Kompetenz von KI-Programmen auf dem Gebiet der Ethik begrenzt ist. Ein aktueller Bericht des Projekts „Kids Code Jeunesse“ der kanadischen Wohltätigkeitsorganisation „Digital Moment“ klärt Eltern darüber auf, dass gerade jüngere Kinder dazu neigen, in smarten Lautsprechern wie Amazons Alexa oder dem Chatbot ChatGPT allwissende Roboter zu sehen, die nicht nur den aktuellen Wetterbericht und das Geburtsjahr aller US-Präsidenten kennen, sondern auch in moralischen Alltagsfragen immer die richtige Antwort geben.
Diesem Missverständnis können Eltern und Erziehende aktiv entgegenwirken, indem sie Kindern erklären, wie KI funktioniert. Die folgenden Erkenntnisse von „Kids Code Jeunesse“ gehören zum Grundwissen, das Kinder über die Rolle von KI-Modellen als Ratgeber haben sollten:
- KI unterliegt menschlichen Fehlern:
Die zentrale Lektion lautet, dass Menschen die KI entwickelt haben. Das bedeutet, dass Roboter und Computer wie ihre menschlichen Programmiererinnen und Programmierer auch anfällig für deren Fehler sind. - Die aktuelle Form einer „schwachen“ KI ist nicht wirklich intelligent:
KI-Programme generieren nicht von sich aus neue Gedanken, Urteile und Erkenntnisse, sondern greifen auf das zurück, was Menschen bereits gedacht und erkannt haben, also auf eine Unmenge an Daten. - KI lernt vom Menschen – im Guten wie im Schlechten:
Im Fall von moralischen Fragen sind die Daten, mit denen die KI gefüttert wird, bestimmte ethische Prinzipien und Urteile – und eben auch Vorurteile. Das kann dazu führen, dass die KI auch diskriminierende, rassistische oder sexistische Ansichten von Menschen übernimmt. - KI ist kein Richter:
Die wichtigste Erkenntnis ist, dass KI niemals ein unfehlbarer Richter über Gut und Böse sein kann, sondern uns in moralischen Fragen höchstens als Inspiration und Stütze auf dem Weg zu unserem eigenen Urteil dienen kann.
Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria