Interessanter Artikel in der NZZ.
(Nur, was den Begriff Amok betrifft, sitzt auch die NZZ dem in den Medien verbreiteten falschen Begriff auf, denn alles, was vorbereitet ist, ist schonmal kein Amok.)
Spoiler
Auftrag an Anhänger
Schon bevor er für seine Tat losrückte, hatte er Gleichgesinnte instruiert: «Freunde, es ist an der Zeit, mit dem Rumlabern aufzuhören und einen Anlauf im echten Leben zu unternehmen», schrieb er in dem Chatroom 8chan, der für seine teils extremistischen Inhalte bekannt ist. «Bitte tragt euren Teil bei und verbreitet die Botschaft.» Seine Anhänger taten ihm den Gefallen: Sie luden das Video des Amoklaufs herunter, bevor es gelöscht werden konnte, und verbreiteten es einem Bienenschwarm gleich über Whatsapp, Twitter, Youtube, Facebook, Reddit und andere sozialen Netzwerke.
Wie gut der Attentäter die Funktionsweise der sozialen Medien verstanden hat und wie geschickt er um Aufmerksamkeit heischt, offenbart sich erst bei genauerem Hinsehen. Während der Live-Aufzeichnung, kurz bevor er die erste Moschee stürmt, hält er inne und spricht seine Zuschauer an: «Vergisst nicht, Freunde, abonniert Pewdiepie.» Dahinter steckt nicht das perfide Gefasel eines Geisteskranken, sondern eine Anspielung auf den Youtube-Star mit der bis heute grössten Fangemeinde, ein Schwede mit Spitznamen «Pewdiepie», dessen Videokanal mehr als 89 Millionen Menschen folgen.
Diesem drohte jüngst, auf Platz zwei der Videoplattform verdrängt zu werden, weshalb seine Anhänger die Aktion «Subscribe to Pewdiepie» ins Leben riefen. Nachdem der rechtsextreme Terrorist ihn während seiner Tat namentlich genannt hatte, musste der Youtube-Star, der im wahren Leben Felix Kjellberg heisst und früher wegen rassistischer Aussagen in der Kritik stand, dazu Stellung beziehen. Er sei völlig angewidert, dass diese Person seinen Namen verwendet habe, twitterte Kjellberg. Der Plan des Täters ging voll auf: Auf einen Schlag hörten 89 Millionen Menschen von seiner Tat.
ƿ૯ωძɿ૯ƿɿ૯
✔
@pewdiepie
Just heard news of the devastating reports from New Zealand Christchurch.
I feel absolutely sickened having my name uttered by this person.
My heart and thoughts go out to the victims, families and everyone affected by this tragedy.
670 Tsd.
06:00 - 15. März 2019
Twitter Ads Info und Datenschutz
168 Tsd. Nutzer sprechen darüber
Polizei musste erst einen Hinweis geben
Der Attentäter mag gewieft vorgegangen sein – doch der Anschlag zeigte wieder einmal, wie unfähig die sozialen Netzwerke nach wie vor dabei sind, Aufnahmen von Gewalttaten von ihren Plattformen zu verbannen. Auch am Tag nach dem Doppelanschlag kursierten noch Versionen des Videos im Internet, wie zahlreiche Medien berichteten.
Die Sprecherin von Facebook in Neuseeland, Mia Garlick, schrieb in einer Stellungnahme, die Polizei habe sie auf das Video aufmerksam gemacht, kurz nachdem die Live-Übertragung begonnen habe, und man habe dieses wie auch das Nutzerkonto des Attentäters auf Facebook und Instagram gelöscht. Es ist jedoch bemerkenswert, dass Facebook erst einen Hinweis der Polizei erhalten musste, bis das Netzwerk reagierte, und dass die internen Mechanismen wieder einmal versagt haben. Es ist nicht das erste Mal, dass ein Mord live auf der Plattform übertragen wird: 2017 übertrug ein Mörder in Cleveland sein Verbrechen in Echtzeit, im gleichen Monat brachte ein Mann in Thailand sein Baby vor einem Millionenpublikum um. Letzteres Video nahm Facebook erst nach 24 Stunden offline.
Inzwischen beschäftigt der Technologie-Konzern nach eigenen Aussagen mehr als 15 000 Mitarbeiter, die das soziale Netzwerk nach Hassrede, Mobbing oder Gewalttaten durchkämmen und die entsprechende Inhalte und Nutzerkonten löschen sollen. Speziell entwickelte Algorithmen sollen zusätzlich dabei helfen, solche Beiträge ausfindig zu machen, wie CEO Mark Zuckerberg in den vergangenen Monaten immer wieder betont hat.
Youtube, die Video-Plattform von Google, hat vergleichbare Massnahmen ergriffen, um Gewaltvideos zu unterbinden. Tatsächlich waren die Videos des Anschlags in Christchurch auch nach kurzer Zeit als «heikel» gekennzeichnet, wie ein Reporter der Online-Plattform Buzzfeed News beobachtete. Doch man konnte die Videos trotzdem anschauen, wenn man anklickte, dass man den Hinweis zur Kenntnis genommen habe.
Ryan Mac
✔
@RMac18
Antwort an @RMac18
What's bizarre is that YouTube's algo or moderators have flagged these videos as sensitive, but users are still allowed to watch them after consenting. This is the screen you see before viewing. How is broadcasting mass murder not a violation of terms of service?
705
04:51 - 15. März 2019
298 Nutzer sprechen darüber
Twitter Ads Info und Datenschutz
Sprecher von Youtube wie auch von Twitter sagten am Freitag, man arbeite mit Hochdruck daran, die Videos aus Christchurch zu löschen; solche Gewalt habe keinen Platz auf ihren Plattformen. Doch wie schon bei früheren Gewaltverbrechen scheinen die Plattformen nach wie vor machtlos zusehen zu müssen, wie sie zum Spielball von Verbrechern werden.
Auch das Online-Forum Reddit, das zu den beliebtesten Plattformen im Internet zählt, demonstrierte eindrücklich sein Versagen: In Diskussionsgruppen namens «Gore» (Blut) und «Watch people die» (Schau zu, wie Leute sterben) teilten Nutzer die Aufnahmen aus Christchurch. Erst am Freitag schloss die Plattform die besagten Kanäle, wobei Letzterer seit sieben Jahren existiert hatte und 300,000 Mitglieder zählte, wie die Nachrichtenagentur AP berichtete.
Kontrollmechanismen haben versagt
Die sozialen Medien haben in den letzten Jahren durchaus neue Methoden entwickelt, um Gewaltbotschaften zu unterdrücken. So erstellen etwa Facebook und Youtube von derartigen Videos eine Art Fingerabdruck, einen sogenannten Hash. Alle neu hochgeladenen Videos, die den Gleichen «Fingerabdruck» haben, werden automatisch gelöscht, sobald sie noch einmal irgendwo auf der Plattform auftauchen. Ursprünglich wurde diese Methode entwickelt, um die Verbreitung urheberrechtlich geschützter Aufnahmen oder auch Kinderpornografie zu unterbinden.
Doch auch die Attentäter sind klüger geworden: Der Hash lässt sich umgehen, wenn man das Video leicht verändert, es etwa kürzt oder neue Hintergrundmusik hinzufügt. Genau das haben die Anhänger des Attentäters von Christchurch offenbar getan. Für die sozialen Netzwerke war es ein Kampf gegen Windmühlen: An einem Ort löschten sie das Video und die dazugehörigen Nutzerkonten, an einem anderen Ort tauchte ein neuer Nutzer auf, der die Aufnahmen hochlud.
Eine «hochgradig bescheuerte Idee»
Eine Lösung wäre, dass die sozialen Netzwerke die Beiträge, die die Nutzer hochladen, erst überprüfen, bevor sie diese zur Veröffentlichung freigeben. Das wäre natürlich eine Sisyphusaufgabe, schliesslich werden allein auf Youtube jede Minute rund 400 Stunden Videomaterial hochgeladen. Doch die Plattformen wehren sich dagegen mit Verweis auf die Redefreiheit, die sie nicht unterbinden wollen. Tatsächlich wollen sie wohl auch den unendlichen Fluss an immer neuen Inhalten, die das Öl in den Motoren ihrer Plattformen liefern, nicht trocken legen. Der Unterschied zwischen Beiträgen über Gewalt, wie sie etwa Nachrichtenplattformen erstellen, und gewalttätigen Beiträgen ist jedoch für Algorithmen bisher kaum zu verstehen.
Facebooks Livestreaming-Angebot sei eine «hochgradig bescheuerte Idee», sagte Siva Vaidhyanathan, der an der University of Virginia Medienstudien lehrt und das Buch «Antisocial Media: How Facebook Disconnects Us and Undermines Democracy» geschrieben hat, gegenüber der Nachrichtenagentur AP. Mit den Milliarden von Nutzern seien Facebook und Youtube inzwischen «nicht mehr zu kontrollieren».
Einen Tag nach dem Terroranschlag auf zwei Moscheen in Christchurch ist das Entsetzen über die Tat gross. Vor der Al Noor Moschee trauern Menschen um die 49 Verstorbenen. Dutzende Menschen wurden verletzt, 16.3. (Bild: Vincent Yu / AP)
«Soziale Netzwerke und die Firmen des Silicon Valley sind schlecht ausgerüstet, um mit den negativen Aspekten ihrer Plattformen umzugehen», sagt auch der Digitalexperte Sanjana Hattotuwa, der Berater bei der in der Schweiz ansässigen Stiftung ICT4Peace ist und derzeit einen PhD in Neuseeland erwirbt. Ihre Plattformen seien so designed, dass sie Inhalte, die gerade populär sind, besonders prominent und schnell verbreiteten. Terroristen nutzten diese Funktionsweise der Algorithmen nun für ihre Zwecke.
Regulierung droht
Jede Technologie könne für Schlimmes verwendet werden, sagte Lee Jarvis, Autor des Buches «Terrorism: a critical introduction», gegenüber dem Fernsehsender CNN. Autos könnten dafür genutzt werden, dass sich Menschen gegenseitig weh tun, es brauche deswegen Gesetze für den sicheren Umgang.
Über genau solchen Regulierungen für die Technologie-Firmen brüten derzeit Gesetzgeber von Washington bis Brüssel. Seit Monaten kritisieren Beobachter, die sozialen Medien hätten keine Kontrolle über das, was auf ihren Seiten geschehe. Der jüngste Anschlag dürfte sie in dieser Ansicht bestärkt haben.
Noch viel gravierender ist jedoch der Gedanke, dass sich andere Terroristen das Vorgehen des Attentäters von Christchurch schlimmstenfalls zum Vorbild nehmen könnten.