Heute – in den Zeiten von Facebook, Twitter und Instagram – steht Möglichkeit der großflächigen Beeinflussung der öffentlichen Meinung theoretisch jedem zur Verfügung. Dies gilt umso mehr, weil hinter der Verbreitung falscher Nachrichten inzwischen nicht mehr unbedingt Menschen stehen müssen. Die Meinungsmache in den sozialen Medien wird heute auch von sogenannten Social Bots geführt – automatisierte Programme, die sich als Menschen ausgeben und versuchen, die dort geführten Debatten durch Likes, Tweets oder Retweets in die von ihren Urhebern gewünschte Richtung zu lenken.
Fake News und Social Bots stellen deshalb eine zunehmende Herausforderung für Regierungen, Organisationen und Unternehmen dar. Wie lassen sich Social Bots identifizieren? Sind Social Bots für politische oder wirtschaftliche Institutionen nur ein Abwehrthema oder können sie auch einen sinnvollen Zweck erfüllen?
„Bot“ ist eine Kurzform von Roboter. Social Bots wiederum sind Computerprogramme, die in sozialen Medien in automatisierter Form Nachrichten oder Meinungen verbreiten. Dies geschieht beispielsweise durch Likes, Tweets oder Retweets bei Online-Diensten wie Twitter. Dabei wird der Eindruck erweckt, hinter den entsprechenden Social Media-Profilen stünden reale Menschen.
Undemokratischer Charakter
Tatsächlich sind Social Bots aber Maschinen, die von ihren Betreibern gezielt eingesetzt werden, um die öffentliche Meinung zu manipulieren – zuweilen auch mithilfe von Fake News. Ihr täuschender Charakter widerspricht den Gepflogenheiten des demokratischen Diskurses, denn Bots geben vor jemand zu sein, der sie nicht sind. Neben dieser kritischen Betrachtungsweise stellt sich jedoch die Frage, ob es in den kommenden Jahren nicht auch legitime Möglichkeiten geben könnte, Social Bots zu nutzen.
Unterschiedliche Qualität
Die Qualität der Meinungsroboter ist sehr unterschiedlich. Simpel programmierte Bots beschränken sich in erster Linie auf die Streuung bereits vorformulierter Mitteilungen. Andere kommunizieren mit echten Nutzern und sind in der Lage, eigenständig neue Nachrichten zu generieren. Social Bots haben sich in den vergangenen Jahren stark weiterentwickelt. Dadurch – und aufgrund ihrer schieren Masse – wird es immer schwieriger, die automatisierten von den realen Accounts zu unterscheiden.
Die meisten Bots lassen sich noch immer anhand einfacher Fragen identifizieren: Formuliert er wie ein Mensch? Macht er auch mal eine Pause? Warum hat sein Profil kein Foto? Geht es um einen einzigen Social Bot, der Fake News via Twitter oder Facebook verbreitet, dann sind Journalisten oder andere Profis meist in der Lage, den Täuschungsversuch zu enttarnen.
Zunehmend überzeugender
Jedoch verwischt die Grenze zwischen eindeutig menschlichen und eindeutig maschinellen Verhaltensweisen. Dank steigender Rechnerkapazitäten können Social Bots auf immer größere Datenbestände zugreifen. Durch den kombinierten Einsatz von Big-Data- und Artificial-Intelligence-Technologien sind Social Bots in der Lage, menschliche Verhaltensmuster immer überzeugender nachzuahmen.
Zu den am besten dokumentierten Fällen von Social Bots gehört ihr großflächiger Einsatz während des Ukrainekonflikts im Jahr 2014. Zwei deutsche Wissenschaftler wiesen die Existenz eines mutmaßlich von ukrainischen Rechtsnationalisten gesteuerten Social-Bots-Netzwerks mit rund 15.000 aktiven Twitter-Accounts nach.
Tarnung durch Themenvielfalt
In den rund 60.000 versandten Tweets ging es nicht nur um Politik, sondern um viele andere populäre Themen. Diese intelligente Strategie macht es normalen Nutzern schwer, die tatsächlichen Motive der Urheber zu erkennen. Aus diesem Beispiel und ähnlichen dokumentierten Fällen – unter anderem während der Brexit-Kampagne –
lassen sich zumindest drei potenzielle Gefahren ableiten, die Social Bots für die demokratische Debattenkultur bergen:
Social Bots sind in der Lage, gezielt Falschinformationen in Umlauf zu bringen, was vor allem in angespannten politischen Lagen potenziell dramatische Folgen haben kann.
Durch die enorme Menge verbreiteter Beiträge können Social Bots Trends in sozialen Netzwerken manipulieren und so die öffentliche Meinung in eine bestimmte Richtung lenken.
Mit ihren häufig radikalen Positionen tragen Social Bots dazu bei, dass sich (menschliche) User aus politischen Debatten zurückziehen. Somit erreichen Meinungsroboter eine Verrohung des öffentlichen Diskurses.
Nicht nur politische Motive
Die potenziellen Gefahren durch Meinungsroboter beschränken sich allerdings nicht auf die politische Sphäre. Eine Reihe theoretischer Szenarien beschäftigt schon heute die Spezialisten. Beispielsweise könnten gezielt Aktienkurse manipuliert werden. Bot-Kampagnen könnten Anleger in nicht-existente Kapitalanlagen treiben. Und durch Falschnachrichten könnten klassische Vertriebs- und Beratungsmodelle infiltriert werden. Doch trotz aller Risiken: Bergen Social Bots nicht auch Chancen?
Social Bots sind in der Lage, durch die Verbreitung von Fake News gezielt „falsche Tatsachen“ in Umlauf zu bringen. Aber sind Social Bots deshalb als Instrument für Unternehmen und andere seriöse Institutionen diskreditiert? Die Frage ist nicht ganz leicht zu beantworten, denn technisch betrachtet handelt es sich bei Social Bots lediglich um eine Spielart der Chatbots.
Kommunizierende Roboter
Wenn man von Social Bots als Meinungsrobotern spricht, lassen sich Chatbots analog als Kommunikationsroboter bezeichnen. Letztere werden bereits von vielen Unternehmen verwendet – eine Entwicklung, die dadurch beschleunigt wurde, dass Facebook seine Messenger-App im vergangenen Jahr für die Chatbots von Fremdfirmen öffnete.
Vielfältige Einsatzmöglichkeiten
Die Einsatzfelder von Chatbots werden immer vielfältiger. Bei Taco Bell beispielsweise (einer US-Kette im Bereich Systemgastronomie) nimmt der Roboter inzwischen die Essensbestellung entgegen, kümmert sich um die Rechnung, gibt kulinarische Tipps und organisiert Gruppenbestellungen. Auch viele Buchungsportale setzen inzwischen auf Chatbots, ebenso wie Wetterdienste oder Anbieter für Gesundheitstipps.
Zukunft im Kundenservice?
Entsprechende Fortschritte bei künstlicher Intelligenz und maschinellem Lernen vorausgesetzt, könnten die Kommunikationsroboter in den kommenden Jahren zu virtuellen Assistenten mutieren, die menschlichen Servicemitarbeitern sowohl in der Kundenkommunikation als auch im Kundenservice immer mehr Aufgaben abnehmen.
Soziale Medien sind nicht nur ein Verbreitungskanal für Fake News, sondern auch ein potenzielles Einfallstor für Cyberangriffe. Netzwerke wie LinkedIn oder Xing erlauben es Außenstehenden dabei, die Organigramme ganzer Unternehmen nachzuvollziehen. Die Frage lautet: Wie können sich Regierungen, Parteien, Unternehmen und andere Organisationen gegen Angriffe zur Wehr setzen?
Begrenzte Möglichkeiten
Facebook wie auch Google haben bereits eine Reihe von Maßnahmen gegen Fake News ergriffen. Doch radikale Abwehrmaßnahmen sind kaum denkbar. Eine Art „Ausweispflicht“ beispielsweise würde darauf hinauslaufen, dass Nutzer bei der Eröffnung eines Facebook- oder Twitter-Accounts einen ähnlichen Identifizierungsprozess durchlaufen wie etwa bei einem Girokonto.
Recht und Unrecht
Wie sieht der richtige Umgang mit falschen Nachrichten aus? Wer entscheidet, was eine Fake News ist und was nicht? Welche Geschichte ist objektiv falsch – und welche lediglich politisch „gespinnt“? Auch wenn sich die Linie zwischen Recht und Unrecht trennscharf ziehen ließe, so bliebe das Problem der Durchsetzung: Wenn Urheber illegaler Handlungen im fernen Ausland sitzen, hat die nationalstaatliche Rechtsprechung keine Chance.
Aufklärung tut Not
Die potenzielle Gefahr, die von Fake News, Social Bots oder Cyberattacken in den sozialen Medien ausgeht, verlangt nach gesamtgesellschaftlichen Antworten. Im Mittelpunkt muss dabei die Aufklärung stehen. Das Problem muss nicht nur auf Makro-, sondern auch auf Mikroebene angegangen werden: Parteien, Unternehmen und sonstige Institutionen werden nicht umhinkommen, eigene Schutzmechanismen gegen die Risiken zu entwickeln.
Alle bisherigen Erfahrungen deuten darauf hin, dass die entsprechenden Maßnahmen von zusätzlichen Investitionen in die IT-Sicherheit über Vorkehrungen zur Krisenkommunikation bis hin zu einer stärkeren Sensibilisierung der Mitarbeiterschaft reichen müssen.
„Angesichts der Informationsflut im digitalen Zeitalter scheint das Bedürfnis nach Verlässlichkeit zuzunehmen. Mit diesem Pfund können Medienhäuser wuchern, indem sie Transparenz und Recherche in den Vordergrund stellen.“
PwC hat im April/Mai 2017 eine repräsentative Bevölkerungsumfrage zum Thema „Social Bots und Fake News“ durchführen lassen. 1.000 Bundesbürger ab 18 Jahren nahmen daran teil. Lesen Sie hier die wichtigsten Ergebnisse unserer Umfrage und erfahren Sie, wie die Deutschen das Thema sehen.