Produzent und Konsument – Neue Verantwortung auf Social Media
Im Netz sind Inhalte schnell produziert. Um verbale Entgleisungen und Desinformationen reflektiert einzuordnen und ihnen entgegenzuwirken, bedarf es einer ethischen Verantwortung – für die Nutzung, aber auch für die eigene Erstellung von Medieninhalten.
Das Social Web bietet ideale Bedingungen für die Verbreitung von Vorverurteilungen, rassistischen Aufrufen, unbestätigten Meldungen und Verschwörungstheorien. Die sich verstärkende Problematik in dem Informationsdilemma spitzt sich in der Corona-Krise zu: Desinformationen gehen viral und wirken sich folgenreich auf den demokratischen Diskurs aus. Experten warnen vor Radikalisierung und Spaltung. Im Gespräch über ethische Verantwortung auf sozialen Netzwerken erklärt Wirtschafts- und Medienethiker Michael Litschka, Dozent an der Fachhochschule St. Pölten, was Medienkompetenz eigentlich bedeutet.
Sie sagen, dass wir alle sogenannte „Produser“ sind, also Menschen, die in Zeiten von digitalen Plattformen und Social Media Inhalte sowohl nutzen als auch erstellen, und deshalb eine ethische Verantwortung haben. Wie funktioniert ethisches Handeln in einer digital geprägten Gesellschaft?
Michael Litschka: Es kommt darauf an, auf welcher Ebene die Ethik angesetzt wird. Wollen wir uns darauf verlassen, dass Individuen ethisch handeln? Das ist spätestens dann gefährlich, wenn die Menschen nicht intrinsisch dazu motiviert sind. Hier sind Unternehmen gefragt, die aktuelle Situation ernst zu nehmen und einzugreifen. Sämtliche produzierte Inhalte erreichen schnell eine große Menge an Leuten und werden oft unhinterfragt weitergetragen. Das ist mit einer großen ethischen Verantwortung verbunden. Ethik funktioniert nur, wenn es klare Anregungen gibt, etwas zu tun.
Hinweis
Der Begriff „Produser“ ist ein Schachtelwort, das sich aus den englischen Begriffen „Producer“ (Produzent) und „User“ (Nutzer) zusammensetzt. Darunter wird verstanden, dass Userinnen und User nicht nur Inhalte konsumieren, sondern sie gleichzeitig auch erstellen und mit ihnen interagieren, wie es etwa in sozialen Netzwerken gängig ist.
Wie sieht diese Verantwortung konkret aus?
Litschka: Das große Problem mit den Plattformen ist, dass sie sich als Technologieplattformen begreifen: neutral und ethisch nicht angreifbar. Nach diesem Selbstverständnis stellen sie nur die Technologie zur Verfügung, die Userin beziehungsweise der User tauscht sich aus und ist selbst als „Produser“ für seine Inhalte verantwortlich. Doch wozu führt das? Das System wurde für Wahlbeeinflussungen missbraucht, und durch zunehmende Desinformationen und Verschwörungstheorien wird unsere Diskussionskultur unterminiert. Deshalb sollten Unternehmen mehr Verantwortung übernehmen und Vorkehrungen treffen. Facebook stellt beispielsweise vermehrt Personal ein, das Hate Speeches und Fake News untersucht. Angesichts der Menge an Postings ist dies aber geradezu unmöglich. Ein sinnvoller Schritt wäre es, Algorithmen preiszugeben, die den Nutzerinnen und Nutzern immer wieder Inhalte einspielen. Mehr Transparenz ist erforderlich: Wie funktionieren sie? Wer programmiert sie zu welchem Zweck? Und warum werden wir in diesen Prozess nicht eingebunden und können nicht selbst entscheiden? Die großen Plattformen verweigern diese Transparenz.
Gibt es bereits Maßnahmen für mehr Transparenz in den sozialen Netzwerken?
Litschka: Auf europäischer Ebene gibt es zwei große Gesetzesvorhaben, den Digital Services Act (DSA) und den Digital Markets Act (DMA). Neben der Kernidee, die Marktmacht der großen Tech-Riesen zu beschneiden und für mehr Fairness auf dem digitalen Markt zu sorgen, sollen digitale Plattformen mehr Verantwortung für die Inhalte übernehmen, die auf ihren Seiten veröffentlicht werden. Das Prinzip der Freiwilligkeit alleine reicht nicht aus, wie man in der Verbreitung von Desinformations-Kampagnen erkennen kann.
Welche Auswirkungen haben Algorithmen auf unsere Medienrezeption?
Litschka: Das Hauptproblem der technologischen Entwicklung ist, dass wir nicht genau wissen, wo sie uns wie beeinflusst. Man erhält von Google und Co. keinerlei Informationen dazu. Algorithmen filtern Informationen aus einer Datenmenge heraus und treffen dadurch Vorentscheidungen. Das kann bequem und harmlos sein, wie bei den Startbildern auf Netflix und auch sinnvoll wie in manchen medizinischen Bereichen. Es kann aber auch fatale Auswirkungen haben, insbesondere wenn der Zweck nicht abgestimmt ist und wir nicht wissen, wie sie operieren. Die künstliche Intelligenz erzeugt dadurch Inhalte, die sich massiv auf unser Handeln auswirken. Dazu gehören auch sich selbst bestätigende Inhalte, die das Phänomen von „Bubbles“ hervorbringen.
Braucht es neue Regeln, um hier Ethikstandards zu installieren?
Litschka: Es gibt Überlegungen, die Unternehmen zu verpflichten, in ihre Algorithmen ethische Standards einzubeziehen. Die Umsetzung gestaltet sich allerdings schwierig. Auf politischer Ebene ist ein Ansatz denkbar, nur solche Unternehmen zuzulassen, die sich bereit erklären, gewisse Regeln einzuhalten. So wie die Medienrechte für Medien bindend sind und der Presserat im Printbereich als Kontrollinstanz nicht wegzudenken ist, könnte ähnliches für soziale Medien installiert werden.
Was kann jeder Einzelne tun?
Litschka: Das ist eine der entscheidenden Fragen. Nicht jeder hat den intellektuellen Anspruch, sich eingehend über alles zu informieren. Der unterschiedliche Informationsstand der Userinnen und User führt schließlich dazu, dass waghalsige Theorien Anklang finden. Wer sich nicht gut informiert, fällt umso leichter in die Blase von Desinformationen und Verschwörungstheorien. Wenn wir aus diesem Informationsdilemma heraus wollen, müssen wir unsere Komfortzone verlassen und uns mit mehreren Quellen beschäftigen.
Digitale Medien wirken sowohl im öffentlichen wie im privaten Bereich und nehmen massiven Einfluss auf das gesellschaftliche, politische, soziale und ökonomische Geschehen. Sind wir kompetent genug, damit verantwortungsvoll umzugehen
Litschka: Es ist natürlich ein Zeit- und Energieaufwand nötig, dem eine Bequemlichkeit im Alltag gegenübersteht. Aber es ist in vielen Themen unumgänglich, sich ausreichend zu informieren und verschiedene Quellen zur Überprüfung des Wahrheitsgehalts heranzuziehen, um wie beim Klimawandel gemeinsam neue Lösungen zu finden. Langfristig wird uns diese Arbeit nicht erspart bleiben und wir sollten früh damit anfangen. Ich habe den Eindruck, dass in Schulen Medienkompetenz und Medienbildung zu wenig verankert sind. Ein verpflichtendes, durchgängiges Curriculum wäre erstrebenswert.
Was braucht es für eine kritisch reflektierte Nutzung und Erstellung von Medieninhalten? Wie erhält man eine solide Kompetenz, um Inhalte im Netz zu schaffen?
Litschka: Der wache Blick auf die Marktlogik schafft mehr Bewusstsein und Verständnis, um Inhalte zu hinterfragen und kritisch einzuordnen. Je weniger Klick-Ökonomie und Werbefinanzierung als Finanzierungsform dominieren, umso eher kann man eine seriöse Berichterstattung vermuten. Dies trifft nicht einheitlich zu, der Druck des Marktes wird immer größer. Andererseits folgt das Geld nicht immer dem Mainstream. Aber in der Alltagsrecherche kann man mit solchen Quellen starten und sich dann durch verschiedene weitere Quellen hindurcharbeiten.
Was ist das größte Defizit im Bereich digitaler Medien, das zu dem Problem zunehmender Verschwörungstheorien und Hasspostings beiträgt?
Litschka: Die Markt- und Finanzierungsform spielt eine große Rolle. Wollen wir auch im journalistischen Bereich Erfolg haben, bedienen wir uns dieser Plattformen, der Klick-Ökonomie und der Werbefinanzierung, weil es zu wenig andere Finanzierungsmöglichkeiten gibt. Die Plattformen nutzen das aus und die Userinnen uns User fallen in diese Blase hinein. Auch Informationsmedien werden gezwungen, nach dieser Marktlogik zu handeln.
Wie kann in Zukunft ein wohlwollendes, gesellschaftliches Miteinander digital gelingen?
Litschka: Ich denke, wir sollten grundsätzlich sowohl die Personen- als auch die Organisations- und Ordnungsebene mit ethischen Standards bespielen und alle Beteiligten einbinden. Ethik hat nicht nur mit einzelnen Personen zu tun – wir dürfen uns nicht nur auf den Einzelnen verlassen und sollten ein breites Verantwortungsbewusstsein schaffen.
Tipp
Mimikama ist unter anderem eine Faktenchecker-Plattform zur Förderung von Medienkompetenz. Desinformationen, Deepfake Videos und Fake Mails können gemeldet werden. Der Verein zur Aufklärung über Internetmissbrauch überprüft deren Wahrheitsgehalt.
Die Beratungsstelle Extremismus ist eine bundesweite Anlaufstelle für Personen, die in ihrem Umfeld mit dem Thema Extremismus konfrontiert sind und sich von extremistischen Ideologien oder Gruppierungen distanzieren wollen.
Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria