Julia Ebner: Die Extremismus-Forscherin über Bot-Armeen und Hass im Netz
Draußen im digitalen Raum tobt ein unsichtbarer Krieg. Während wir durch unsere Feeds scrollen, lang vergessene Bekannte liken oder uns über wütende Kommentare ärgern, sind sie längst am Werk: Armeen von Bots, gesteuert von Extremisten, Trollen und politischen Strategen. Wie keine andere in Europa hat Julia Ebner dieses Phänomen in den letzten Jahren akribisch durchleuchtet. Die österreichische Extremismus-Forscherin, die in London an einer führenden Forschungseinrichtung für strategischen Dialog arbeitet, warnt seit Jahren vor der systematischen Unterwanderung unserer sozialen Netzwerke. Und ihre jüngsten Analysen sind alarmierender denn je.
Die Methode: Wie Bots unsere Köpfe erobern
Es wäre zu kurz gegriffen, hinter jeder Hasskampagne einfach nur ein paar wütende Menschen zu vermuten. Was Julia Ebner und ihr Team in verdeckten Recherchen aufdecken, ist hochprofessionell organisierte Manipulation. Es geht nicht mehr um einzelne Trolle, sondern um Bot-Armeen, die tausende Accounts gleichzeitig steuern. Sie posten nicht einfach nur radikale Parolen, sie interagieren, sie verstärken sich gegenseitig und verleihen so extremen Minderheiten eine künstliche Reichweite, die sie in der realen Welt nie hätten. Die Taktik ist immer ähnlich: In den Kommentarspalten unter Beiträgen zu Flüchtlingen, Impfungen oder Wahlen tauchen plötzlich massenhaft identische Narrative auf. Für Julia Ebner ist das ein klares Muster: „Was wie eine spontane Volksseele aussieht, ist oft das Ergebnis von sorgfältig geplanten digitalen Angriffen“, fasst sie die Erkenntnisse ihrer verdeckten Ermittlungen zusammen. Besonders perfide: Die Bots lernen dazu. Sie imitieren menschliches Verhalten, posten zuerst harmlose Katzenbilder, um Vertrauen aufzubauen, und schlagen dann erst zu.
Die tödliche Wirkung von Likes und Shares
Viele unterschätzen noch immer die Sprengkraft dieser digitalen Manipulation. Doch Julia Ebner hat in ihren Büchern wie „Going Dark“ oder „The Rage“ eindrucksvoll dokumentiert, wie aus digitaler Hetze reale Gewalt wird. Sie zeigt auf, wie Terrororganisationen und rechtsextreme Gruppen dieselben Algorithmen nutzen, um verzweifelte Jugendliche zu rekrutieren. Die Plattformen selbst werden zu Komplizen, denn ihre Algorithmen belohnen Empörung und Radikalität – sie bringen die schlimmsten Inhalte an die Spitze der Timelines, weil sie die meiste Interaktion generieren. Ein besonders beunruhigendes Beispiel sind die sogenannten Deepfakes. In einer Welt, in der man bald niemandem mehr auf Video oder Audio trauen kann, sieht Julia Ebner eine neue Dimension der Desinformation auf uns zukommen. „Wir stehen vor einer Zerreißprobe für die Demokratie“, warnt sie. Denn wenn Fakten nichts mehr zählen, gewinnen am Ende nur noch die Lautesten und die Skrupellosesten.
Was können wir tun? Die Expertin hat klare Forderungen
Doch Julia Ebner wäre nicht die profilierteste Forscherin auf diesem Gebiet, wenn sie nur düstere Prognosen abgeben würde. Sie fordert von den Tech-Konzernen endlich radikale Transparenz. Es reicht nicht, ein paar offensichtliche Hasspostings zu löschen. Die Algorithmen müssen umgestellt werden, sie dürfen nicht länger die Verbreitung von Extremismus belohnen. Zudem braucht es:
- Mehr digitale Kompetenz in der Bevölkerung: Wir müssen lernen, manipulative Inhalte zu erkennen und kritisch zu hinterfragen.
- Eine unabhängige Forschung: Bisher gewähren Plattformen wie Facebook oder X (ehemals Twitter) viel zu selten Einblick in ihre Daten.
- Internationale Zusammenarbeit: Digitale Manipulation macht an Grenzen nicht halt. Nur wenn Staaten wie Österreich, Deutschland und die EU gemeinsam handeln, können wir die virtuellen Söldner stoppen.
Die Arbeit von Julia Ebner ist ein unverzichtbarer Kompass in diesen chaotischen Zeiten. Sie taucht ein in die dunkelsten Ecken des Internets, um uns allen zu zeigen, was dort unten brodelt. Ihre Warnungen sollten wir ernst nehmen – denn der Kampf um die Deutungshoheit in unseren Köpfen hat längst begonnen. Und wir sind alle mittendrin, ob wir wollen oder nicht.