KI-gesteuerte Bots und die Verbreitung von Desinformation
Sie sind schnell, treffsicher und in den falschen Händen können sie zur Gefahr werden. Die Rede ist von KI-gesteuerten Bots, die nicht nur mehr Effizienz und Automatisierung bringen, sondern auch Desinformation in sozialen Medien verbreiten.
Künstliche Intelligenz (KI) kann den Alltag fraglos einfacher machen, in erster Linie durch die Automatisierung von Arbeitsschritten. Allerdings kann sie für cyberkriminelle Aktivitäten missbraucht werden und als Medium für politische Propaganda auch die Verbreitung von Desinformation erleichtern. Denn mithilfe von KI werden nicht selten irreführende oder manipulative Inhalte automatisiert erstellt und in kürzester Zeit einem breiten Publikum zugeführt, um die öffentliche Meinung zu beeinflussen. Dies erfolgt über sogenannte KI-Bots – Programme, die in sozialen Netzwerken menschliches Verhalten nachahmen, Inhalte posten, liken und teilen. Ihre Aktivitäten verzeichnen vor demokratischen Wahlen oder im Zuge kontroverser weltpolitischer Ereignisse einen enormen Anstieg.
Welche Gefahr Desinformation für die Gesellschaft birgt und wie Sie sie erkennen können, erfahren Sie in den Beiträgen „Die Online-Flut an Desinformation“ und „Kampf gegen Desinformation: EU verlangt Maßnahmen von Online-Riesen“.
Wie funktionieren KI-Bots?
Geschwindigkeit und Volumen – diese Faktoren machen Bots beim Verbreiten von Inhalten effektiver, als es ein einzelner Mensch je sein könnte. Vereinfacht gesagt ist ein (Chat-)Bot nichts anderes als ein Dialog-Programm. Regelbasierte Chatbots (auch Klickbots genannt), die ihre Userinnen und User nur aus einem vorgefertigten Katalog von Fragen und Antworten wählen lassen, waren die Vorgänger der KI-gesteuerten Bots. Mit dem Einsatz von künstlicher Intelligenz und maschinellem Lernen sind Dialog-Programme deutlich komplexer geworden.
Jede generative KI benötigt für ihre Verwendung eine aus Fragen und Antworten bestehende Datenbank, damit sie künftig Vorhersagen zu Anfragen oder Aussagen treffen kann. Denn KI-Bots interagieren mit Nutzerinnen und Nutzern über Freitext – also beliebige Text- oder Audioeingaben. Mit jeder Userinteraktion werden Gesprächsverläufe analysiert und neue Daten in die Datenbank eingespeist. So entwickelt sich das intelligente Dialog-Programm stetig weiter, die Antworten und Empfehlungen werden präziser und der Bot lernt immer besser, menschliche Konversation zu simulieren. Je mehr Informationen die KI sammelt, desto schwieriger wird es, ihre Äußerungen von denen eines Menschen zu unterscheiden.
Wie genau KI-Sprachmodelle funktionieren, lesen Sie im Beitrag „KI-Textgeneratoren: So funktionieren AI-Anwendungen wie ChatGPT und Co.“. Wie Sie KI-Beiträge erkennen können, erfahren Sie im Text „Täuschend echt: So erkennen Sie KI-Content“.
Der Einsatz von KI-Bots ist grundsätzlich nicht verboten und kann im Alltag sowie im Berufsleben, etwa im Kundenservice oder Marketing, nützlich sein. Gefährlich werden KI-Bots dann, wenn sie Fake News oder Desinformation in sozialen Medien verbreiten. Denn in den vergangenen Jahren haben Instagram, YouTube und TikTok als Nachrichtenquelle immer stärker an Relevanz gewonnen – laut der Anfang 2024 veröffentlichten Mediengewichtsstudie der deutschen Medienanstalten haben sich Social-Media-Plattformen für die „Generation Z“ mittlerweile sogar als wichtigste Informationsquelle etabliert. Jedoch gibt es auf ihnen kaum eine wirksame Inhaltsmoderation. Vielmehr bilden sie ein „Ökosystem, in dem sich Desinformation relativ unreguliert verbreiten kann“, wie die Politikwissenschaftlerin Julia Partheymüller von der Universität Wien gegenüber ORF.at meinte – ein Grund, warum die Internetkonzerne Meta, Google und ByteDance als Betreiber der Plattformen seit Inkrafttreten des Digital Services Act (DSA) am 17. Februar 2024 vermehrt ins Visier der Europäischen Union (EU) geraten.
Meta (Instagram, Facebook), ByteDance (TikTok) und Google (YouTube) haben seit Inkrafttreten des DSA bereits Schritte gegen Desinformation und Wahlmanipulation auf ihren Plattformen gesetzt: Demnach sollen manipulierte Inhalte kenntlich gemacht oder gelöscht werden. Zudem verpflichteten sich auf der Münchner Sicherheitskonferenz im Februar 2024 Vertreterinnen und Vertreter von 20 einflussreichen Online-Unternehmen – darunter Adobe, Amazon, Google, IBM, Microsoft, OpenAI und X (Twitter) – zur Zusammenarbeit, um schädliche KI-Inhalte besser erkennen und bekämpfen zu können.
Beeinflussung demokratischer Wahlen durch Desinformation mittels KI-Bots
Geschwindigkeit und Volumen der durch KI-gesteuerte Bots auf Social Media geposteten, geteilten oder gelikten Falschmeldungen bewirken, dass sich diese wie ein Lauffeuer auf den Plattformen verbreiten. Um noch mehr Userinnen und User zu erreichen, kommt es häufig vor, dass Cyberkriminelle via Malware eine Vielzahl von internetfähigen Geräten kapern und ganze Bot-Netzwerke erschaffen, die remote gesteuert werden.
Auf diese Weise werden etwa auch Hashtags verstärkt, um die irreführenden Nachrichten in den Trendlisten nach oben zu bringen. Werden Nutzerinnen und Nutzer immer wieder mit denselben Fake News konfrontiert, beeinflusst dies die öffentliche Meinung zu bestimmten Themen und die Wahrnehmung der Nachrichtenkonsumentinnen und -konsumenten verzerrt sich. Dieses Phänomen ist als „Echokammer-Effekt“ bekannt.
Alle Informationen zu Bot-Netzwerken finden Sie im Beitrag „Botnetze: Wie gefährlich sind die Schattennetzwerke?“.
Desinformation ist nicht zuletzt eine Gefahr für die demokratische Willensbildung einer Gesellschaft, weil sie das Vertrauen in seriöse Medien untergräbt. Diskussionen über aktuelle Ereignisse und um politische Entscheidungen, aber auch die Wahlwerbung politischer Parteien haben sich zu einem Großteil auf die digitale Ebene verlagert. 2024 schreiten global mehr Menschen zur Urne als jemals zuvor: In über 60 Ländern stehen Wahlen bevor, auch in Österreich. Damit sind etwa vier Milliarden Menschen und rund 45 Prozent der Weltbevölkerung in diesem „Superwahljahr“ dazu aufgerufen, sich mit dem politischen Geschehen auseinanderzusetzen und ihre Stimme abzugeben. Expertinnen und Experten warnen daher vor einem Anstieg der Wählerbeeinflussung durch KI-gesteuerte Desinformation. Denn laut dem „Global Risks Report 2024“ des Weltwirtschaftsforums (WEF) entfällt auf diese Art von Fehl- und Desinformation das höchste Risikopotenzial in Bezug auf die Weltordnung, die Entwicklung demokratischer Gesellschaften und die Bereitschaft beziehungsweise Befähigung der Menschheit, globale Krisen zu bewältigen.
Obwohl viele KI-Programme bislang in der Kritik standen, selbst ohne das Zutun von Cyberkriminellen irreführende Informationen zu verbreiten, ist etwa der Chatbot „Ashley“ in den USA bereits ganz offiziell im Wahlkampf-Einsatz für die Demokratische Partei. Der von Civox entwickelte Bot ging Ende 2023 in personalisierten und individuell auf die Wählerinnen- und Wählerprofile zugeschnittenen Telefongesprächen auf Stimmenfang und ist damit eines der ersten Beispiele für eine neue Ära des Wahlkampfes mittels generativer KI.
In Europa zeigte ein Selbstversuch des deutschen Faktencheck-Teams Correctiv, dass zumindest die Sprachmodelle Google Gemini, Microsoft Copilot und ChatGPT keine verlässlichen Quellen für politische Informationen bieten, da sie die meisten Fragen der Redaktion zu internationaler Politik und der kommenden Europawahl entweder nicht beantworten konnten oder schlichtweg Antworten erfanden.
Hier geht es zum vollständigen Correctiv-Artikel über den KI-Selbstversuch. Auch die „Süddeutsche Zeitung“ setzt auf einen KI-Bot zur Europawahl, der alle Fragen der Wählerinnen und Wähler beantworten soll.
Wie sollten Sie mit vermuteten Falschinformationen umgehen?
In jedem Fall gilt für Userinnen und User das Prinzip „Check and re-check“, bevor Inhalte etwa auf Social Media geteilt werden. Die Glaubwürdigkeit der Person, von der die Informationen stammen, sollte stets überprüft und Aussagen mithilfe verschiedener Informationsquellen (zum Beispiel On- und Offline-Medien, unterschiedliche Zeitungen) hinterfragt werden. Zudem bemühen sich Faktencheck-Plattformen wie beispielsweise Mimikama, Correctiv oder die APA, aktuell kursierende Falschinformationen aufzudecken und richtigzustellen.
Welche Auswirkungen automatisierte Propaganda durch KI-Bots haben kann und wie Sie sich davor schützen, erfahren Sie im Mimikama-Artikel „KI-Bots und politische Propaganda in sozialen Netzwerken“.
Mit dem „Newstest“, einem kostenlosen Online-Tool, können Userinnen und User die eigene Medienkompetenz überprüfen. Es unterstützt beim sicheren Umgang mit Nachrichten im Internet. Alle Infos lesen Sie im Beitrag „Der-Newstest.at: ein Onlinetest über Medienkompetenz“.
Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria