Politische Stimmungsmache

Social Bots: So erkennen Sie Meinungsroboter auf Twitter, Facebook & Co.

Flüchtlinge, Terror, die Kölner Silvesternacht – bei Themen wie diesen mischen sich häufig auch Meinungs-Bots in die Debatten in sozialen Netzwerken. Doch wie kann man sie identifizieren? Ein Experte nennt uns Anhaltspunkte.

Foto: Fotolia

Foto: Fotolia

Die Meinungsroboter sind unter uns: Social Bots spucken ihre Kurznachrichten und Hass-Kommentare ins Netz und versuchen, politisch Stimmung zu machen. Zum Beispiel nach Ereignissen wie der Silvesternacht in Köln oder während Talkshows.

Woran können Nutzer von Twitter, Facebook und Co. identifizieren, ob eine neue Meldung von einem Propaganda-Bot stammt? Professor Dietmar Janetzko, Experte für Wirtschaftsinformatik an der Cologne Business School, nennt wichtige Erkennungsmerkmale:


Wie seriös ist der Account?

Wie vertrauenswürdig erscheint er Ihnen? Kennen Sie die Person, die da twittert, kennen Sie Follower? Und gibt es ein echtes Foto? „Sinnvoll ist ein Test, ob das Porträt der zweifelhaften Person von Google übernommen wurde“, empfiehlt Janetzko. Das geht mithilfe der umgekehrten Bildersuche von Google. Ein weiterer Anhaltspunkt: Zeigt das Profil nur das Bild einer Comic-Figur, ist auch schon eher Vorsicht geboten.

Wie aktiv ist der geheimnisvolle User?

Wie oft und wann werden von dem Account Meldungen verschickt? Selbst ein sehr aktiver Politiker schafft kaum mehr als 20, 30 Tweets am Tag. Wer in der Zeit 50 und mehr Kurznachrichten versendet, den stuft die Universität von Oxford als Propaganda-Bot ein. Eher verdächtig ist es auch, wenn die Meldungen mitten in der Nacht abgeschickt werden.

Wie schnell reagiert der Account?

Kein Mensch kann eine Kurznachricht schon in einer Sekunde nach der ursprünglichen Veröffentlichung an andere Profile weiterleiten, berichtet Experte Janetzko. Für die Bot-Software ist das kein Problem.

Was wird auf Testfragen geantwortet?

Wenn es um räumliches Denken geht, tun sich Social Bots schwer mit einer Antwort. Also ruhig einmal fragen: „Was ist über Dir?“ oder „Was ist unter Dir?“. Ein Mensch kann das einfach beantworten, ein Bot ist dafür nicht programmiert.

Wie ist das Verhältnis von Freunden zu Followern?

„Social Bots haben meistens viele Freunde, denen sie folgen, aber wenig eigene Follower“, erklärt Professor Janetzko. Bei realen Personen sei das Verhältnis eher ausgeglichen. Besonders Politiker oder Popstars haben manchmal Millionen Follower, folgen aber selbst nur wenigen.

Was sagt die Web-Seite „Bot or not“?

Die Universität des US-Bundesstaats Indiana in Bloomington hat ein Hilfs-Tool zum Erkennen von Bots entwickelt. Unter truthy.indiana.edu/botornot/ kann man Accounts testen lassen. Das Testsystem bewertet die Profile mit einem Score; ein hoher Score spricht eher für einen Bot.


Meinungsroboter sicher zu identifizieren, sei aber nicht leicht, sagt Janetzko. Denn die Hacker optimieren sie auch immer wieder, damit die Bots nicht auffallen. Einen Einblick in die Manipulationsversuche von Social Bots hierzulande bietet die Berliner Initiative Botswatch.de. Sie analysiert öfter Diskussionen in sozialen Netzwerken – etwa während Talkshows – auf ihren Bot-Anteil und stellt die Ergebnisse ins Netz.

Übrigens: Wer Fake-News oder Hass-Kommentare melden will, kann das bei Facebook, indem er einfach auf den kleinen Pfeil rechts oben in der Ecke des Posts klickt. Aus dem dann sich öffnenden Menü „Beitrag melden“ beziehungsweise „Foto melden“ aussuchen. Der Kurznachrichtendienst Twitter bietet im Netz eine ausführliche Anleitung zum Melden schädlicher und illegaler Inhalte.

Mehr zum Thema:

Manchmal spucken sie ihre Kurznachrichten aus 1.000 Accounts ins Netz. So versuchen Meinungsroboter, politische Debatten zu manipulieren. Betrieben werden sie von Computer-Freaks, nicht unbedingt von Geheimdiensten.

Nicht nur die großen Firmen, politische Institutionen und prominente Personen – längst sind auch Privatanwender immer stärker ins Visier von Hackern geraten. Wie man sich zu Hause am besten davor schützt.

Artikelfunktionen


Diese Beiträge könnten Sie auch interessieren:

'' Zum Anfang