#rp13: Kommentarkultur mit Trollen oder Mobbing?

Auf einem blauen Hintergrund mit einem gezeichneten Hund, Krake und Champagner steht: GOOD BYE

CC BY 2.0 Tony Sojka

Vom Montag bis Mittwoch tauschten sich in Berlin auf der re:publica 2013 Forscher_innen, Blogger_innen, Aktivist_innen und weitere Internet-Interessierte aus. Neben dem festen Sessionplan gab es wieder spontane Workshops (etwa um eine Kampagne für Netzneutralität zu starten), extra Treffen (wie von der Girls On Web Society) und vor allem: Pausengespräche. Hier ergaben sich dieses Jahr, anknüpfend an zwei Vorträge, für mich die spannendsten Gedanken zum Thema Trolle und Kommentare.

So berichteten zunächst Linus Neumann, Nils Dagsson Moskopp und Michael Kreil über die Auswertung der Kommentare auf refefe. Die Seite „ergänzt“ Fefe’s Blog um einen Kommentarbereich, der allerdings komplett unmoderiert ist. Damit sammelt sich dort das Schlimmste des Schlimmsten an Kommentaren – eine einzigartige Datenbasis. Leider bleibt die Auswertung wenig ergiebig. Der Anteil der verwendeten Schimpfwörter steigt seit dem Beginn, außerdem nutzen die Kommentatoren andere Wörter als Fefe. Die inhaltliche Auswertung ist bisher aber nicht voran gekommen. Spannend wäre hier der Vergleich mit moderierten Kommentarbereichen oder gar welchen, die sich durch besonders wertschätzenden Austausch auszeichnen. Anlaufpunkt wären vielleicht die DIY-Bloggerinnen, deren Vortrag leider abgelehnt wurde.

Außerdem stellte Neumann zwei Methoden zur Kommentarmoderation vor. Zum einen die „Trolldrossel“. Hier werden neue Kommentare mit einer Blacklist an unerwünschten Wörtern und Sätzen abgeglichen. Je höher die Trollwahrscheinlichkeit, umso mehr unlösbare Captchas müssen überwunden werden. Sich durch diese durchzutesten, bis schließlich ein lösbares kommt, kostet Zeit und Nerven. Wer hartnäckig genug ist, kommt allerdings durch. Zum anderen die „Trollhölle“, die von einer moderierenden Person geschaffen wird. Sie sortiert die Trolle in eine extra Liste, so dass ihre Kommentare für die „normalen“ Nutzer_innen ausgeblendet werden. Dies ermöglicht vor allem die Umsetzung von „Don’t feed the troll“, lässt Trolle aber ihre Kommentare weiter sehen. Beide Ansätze schonen tendentiell die Nerven konstruktiv Diskutierender, ohne Beiträge zu löschen.

In einem zweiten Panel ging es um einen Erklärungsansatz, warum wir im Internet überhaupt Trolle haben. Leider gingen die guten Ideen im Vortrag von Klaus Kusanowsky weitestgehend unter, der sehr weit ausholte und den roten Faden mehrfach verlor. Er betrachtet Beschimpfungen und Drohungen bereits als Eskalation der Kommunikation und sieht das Problem davor. Denn im Internet treffen Menschen aufeinander, die sich vorher nicht kennen. Die ihre eigenen Umgangsformen haben, die nicht von allen geteilt werden und überhaupt nicht wissen, wer nun welche Erwartung hat.

Hinzu kommt, gerade auf Twitter, dass sehr viele Informationen nur angenommen werden. Eine Überschrift mit Link zu einem Artikel kann bedeuten, dass die Twittererin diesen gelesen und für gut befunden hat. Aber vielleicht will sie ihn noch lesen. Oder fand den Artikel doof. Ein Retweet nun kann auch alle diese Dinge bedeuten. Hier befinden wir uns in einem Aushandlungsprozess, der trotz Netiketten noch lange nicht abgeschlossen ist. Manchmal, wie etwa bei Retweets auf Twitter, ändern sich angenommenen Regeln auch sehr schnell. Leider endete der Vortrag mit dem Hinweis, Trollerei sei ein Zeichen, der Aushandlungsprozess funktioniere, wobei Kusanowsky zuvor noch einen Selbstmord nach massiven Anfeindungen erwähnt hatte. „Funktionieren“ sollte der Prozess allerdings ohne tote Menschen.

Da allerdings stellt sich auch die Frage, wann ein Troll ein Troll ist – und wann ein Bully, ein_e Mobber_in. Denn derzeit werden Hasskommentare oft alle zusammen genommen betrachtet: als Taten von Trollen. Nach einer engeren Definition versuchen Trolle allerdings mit minimalem Aufwand maximales Chaos zu erzeugen. Indem sie etwa eine Frage in den Raum werfen und damit einen Streit entzünden, an dem sie aber nicht weiter teilnehmen. Wer dagegen sehr viel Zeit und Arbeit investiert, immer wieder selbst andere angreift, dabei vor allem auf Menschen in strukturell schwächerer Position abzielt, wäre danach ein klassischer Bully. Gegen Mobbing haben wir offline immerhin schon Strategien entwickelt, die es nun gelte, online umzusetzen.

Wie Aushandlung von neuen Umgangsformen voran geht, wurde am Beispiel des „Dark Twitter“ diskutiert. Den geschützten Twitter-Accounts, die sich vor allem mit weiteren geschützten Accounts vernetzen und so den Versuch geschützter Räume bedeuten. Passend war dies kein Thema einer offiziellen Session, sondern wurde abseits in kleinen Gruppen behandelt. Wer vernetzt sich dort mit wem? Wie umgehen mit den Rändern, an denen nicht alle Informationen allen Diskutierenden sichtbar sind, weil sie (noch) nicht vernetzt sind? Oder dem „Auslaufen“ von Informationen an Überlappungen von Follower-Kreisen? Trotz der meist sehr kleinen Kreise ist oft nicht abzuschätzen, welche Personen diese in einen komplett anderen Kreis hereintragen könnten. Welche Erwartungen stellen die Dark Twitterer_innen aneinander? Welche Sanktionen sind angemessen für Grenzverletzungen, die erst als solche benannt werden müssen?

So gibt es am Ende viele Fragen und Denkanstöße, die mich sicher noch eine Weile beschäftigen werden. Außerdem einige Ideen für weitere Projekte. Die Trolldrossel als Plugin für weitere Webseiten etwa. Den Vergleich verschiedener Kommentarbereiche – vielleicht wird ja was draus! Weitere Blogbeiträge zur re:publica 2013 insgesamt gibt es schon von Milenskaya, Ninia LaGrande, Antje Schrupp und Claudia Kilian und Michaela Werner muss erst noch nach Hause kommen. Habe ich was übersehen? Dann ab in die Kommentare! Nachschaubar auf YouTube sind auch schon sehr viele Session-Dokumentationen, hier gematcht auf den Sessionplan.