Kategorien
Dieses Internet Open Spaces

#rp13: Kommentarkultur mit Trollen oder Mobbing?

Auf einem blauen Hintergrund mit einem gezeichneten Hund, Krake und Champagner steht: GOOD BYE
CC BY 2.0 Tony Sojka

Vom Montag bis Mittwoch tauschten sich in Berlin auf der re:publica 2013 Forscher_innen, Blogger_innen, Aktivist_innen und weitere Internet-Interessierte aus. Neben dem festen Sessionplan gab es wieder spontane Workshops (etwa um eine Kampagne für Netzneutralität zu starten), extra Treffen (wie von der Girls On Web Society) und vor allem: Pausengespräche. Hier ergaben sich dieses Jahr, anknüpfend an zwei Vorträge, für mich die spannendsten Gedanken zum Thema Trolle und Kommentare.

So berichteten zunächst Linus Neumann, Nils Dagsson Moskopp und Michael Kreil über die Auswertung der Kommentare auf refefe. Die Seite „ergänzt“ Fefe’s Blog um einen Kommentarbereich, der allerdings komplett unmoderiert ist. Damit sammelt sich dort das Schlimmste des Schlimmsten an Kommentaren – eine einzigartige Datenbasis. Leider bleibt die Auswertung wenig ergiebig. Der Anteil der verwendeten Schimpfwörter steigt seit dem Beginn, außerdem nutzen die Kommentatoren andere Wörter als Fefe. Die inhaltliche Auswertung ist bisher aber nicht voran gekommen. Spannend wäre hier der Vergleich mit moderierten Kommentarbereichen oder gar welchen, die sich durch besonders wertschätzenden Austausch auszeichnen. Anlaufpunkt wären vielleicht die DIY-Bloggerinnen, deren Vortrag leider abgelehnt wurde.

Außerdem stellte Neumann zwei Methoden zur Kommentarmoderation vor. Zum einen die „Trolldrossel“. Hier werden neue Kommentare mit einer Blacklist an unerwünschten Wörtern und Sätzen abgeglichen. Je höher die Trollwahrscheinlichkeit, umso mehr unlösbare Captchas müssen überwunden werden. Sich durch diese durchzutesten, bis schließlich ein lösbares kommt, kostet Zeit und Nerven. Wer hartnäckig genug ist, kommt allerdings durch. Zum anderen die „Trollhölle“, die von einer moderierenden Person geschaffen wird. Sie sortiert die Trolle in eine extra Liste, so dass ihre Kommentare für die „normalen“ Nutzer_innen ausgeblendet werden. Dies ermöglicht vor allem die Umsetzung von „Don’t feed the troll“, lässt Trolle aber ihre Kommentare weiter sehen. Beide Ansätze schonen tendentiell die Nerven konstruktiv Diskutierender, ohne Beiträge zu löschen.

In einem zweiten Panel ging es um einen Erklärungsansatz, warum wir im Internet überhaupt Trolle haben. Leider gingen die guten Ideen im Vortrag von Klaus Kusanowsky weitestgehend unter, der sehr weit ausholte und den roten Faden mehrfach verlor. Er betrachtet Beschimpfungen und Drohungen bereits als Eskalation der Kommunikation und sieht das Problem davor. Denn im Internet treffen Menschen aufeinander, die sich vorher nicht kennen. Die ihre eigenen Umgangsformen haben, die nicht von allen geteilt werden und überhaupt nicht wissen, wer nun welche Erwartung hat.

Hinzu kommt, gerade auf Twitter, dass sehr viele Informationen nur angenommen werden. Eine Überschrift mit Link zu einem Artikel kann bedeuten, dass die Twittererin diesen gelesen und für gut befunden hat. Aber vielleicht will sie ihn noch lesen. Oder fand den Artikel doof. Ein Retweet nun kann auch alle diese Dinge bedeuten. Hier befinden wir uns in einem Aushandlungsprozess, der trotz Netiketten noch lange nicht abgeschlossen ist. Manchmal, wie etwa bei Retweets auf Twitter, ändern sich angenommenen Regeln auch sehr schnell. Leider endete der Vortrag mit dem Hinweis, Trollerei sei ein Zeichen, der Aushandlungsprozess funktioniere, wobei Kusanowsky zuvor noch einen Selbstmord nach massiven Anfeindungen erwähnt hatte. „Funktionieren“ sollte der Prozess allerdings ohne tote Menschen.

Da allerdings stellt sich auch die Frage, wann ein Troll ein Troll ist – und wann ein Bully, ein_e Mobber_in. Denn derzeit werden Hasskommentare oft alle zusammen genommen betrachtet: als Taten von Trollen. Nach einer engeren Definition versuchen Trolle allerdings mit minimalem Aufwand maximales Chaos zu erzeugen. Indem sie etwa eine Frage in den Raum werfen und damit einen Streit entzünden, an dem sie aber nicht weiter teilnehmen. Wer dagegen sehr viel Zeit und Arbeit investiert, immer wieder selbst andere angreift, dabei vor allem auf Menschen in strukturell schwächerer Position abzielt, wäre danach ein klassischer Bully. Gegen Mobbing haben wir offline immerhin schon Strategien entwickelt, die es nun gelte, online umzusetzen.

Wie Aushandlung von neuen Umgangsformen voran geht, wurde am Beispiel des „Dark Twitter“ diskutiert. Den geschützten Twitter-Accounts, die sich vor allem mit weiteren geschützten Accounts vernetzen und so den Versuch geschützter Räume bedeuten. Passend war dies kein Thema einer offiziellen Session, sondern wurde abseits in kleinen Gruppen behandelt. Wer vernetzt sich dort mit wem? Wie umgehen mit den Rändern, an denen nicht alle Informationen allen Diskutierenden sichtbar sind, weil sie (noch) nicht vernetzt sind? Oder dem „Auslaufen“ von Informationen an Überlappungen von Follower-Kreisen? Trotz der meist sehr kleinen Kreise ist oft nicht abzuschätzen, welche Personen diese in einen komplett anderen Kreis hereintragen könnten. Welche Erwartungen stellen die Dark Twitterer_innen aneinander? Welche Sanktionen sind angemessen für Grenzverletzungen, die erst als solche benannt werden müssen?

So gibt es am Ende viele Fragen und Denkanstöße, die mich sicher noch eine Weile beschäftigen werden. Außerdem einige Ideen für weitere Projekte. Die Trolldrossel als Plugin für weitere Webseiten etwa. Den Vergleich verschiedener Kommentarbereiche – vielleicht wird ja was draus! Weitere Blogbeiträge zur re:publica 2013 insgesamt gibt es schon von Milenskaya, Ninia LaGrande, Antje Schrupp und Claudia Kilian und Michaela Werner muss erst noch nach Hause kommen. Habe ich was übersehen? Dann ab in die Kommentare! Nachschaubar auf YouTube sind auch schon sehr viele Session-Dokumentationen, hier gematcht auf den Sessionplan.

5 Antworten auf „#rp13: Kommentarkultur mit Trollen oder Mobbing?“

„und überhaupt nicht wissen, wer nun welche Erwartung hat“

Dieser Punkt ist sehr wichtig. Ich hatte versucht zu erklären, dass es nicht darauf ankommt, wer welche Erwartungen hat, denn müsste es darauf ankommen, dann könnte diese Art der Kommunikation gar nicht funktionieren. Woher sollen Unbekannte voneinander wissen, was sie von einander zu erwarten haben? Nur weil sie das nicht wissen, kann die Diskussion sich selbst organisieren. Das bedeutet konsequenterweise, dass Schlechtinformiertsein die beste Voraussetzung für diese Art der Kommunikation ist. Das bedeutet nicht, dass das so bleiben muss oder bleiben wird, denn schließlich kann man sich ja kennen lernen, aber man muss nicht.
Twitter und das ganze Social Web ist eigentlich überflüssig. Und gerade diese Überflüssigkeit ist die vorteilhafte Innovation, weil die Menschen mit den Vorurteilen, die sie sonst gegeneinander haben, nichts mehr anfangen können. Vorurteile meint ja über Menschen etwas zu wissen, ohne sie zu kennen. Wenn man aber nun bei Twitter meint, über Menschen etwas zu wissen, ohne sie zu kennen, und dennoch glaubt, gut informiert zu sein, ist Trollerei eigentlich schon im Gange. Daraus könnte man den Schluss ziehen, dass man davon ausgeht, schlechter als alle anderen informiert zu sein.

Klaus Kusanowsky beschreibt das Problem: Er betrachtet Beschimpfungen und Drohungen bereits als Eskalation der Kommunikation und sieht das Problem davor. Trolle als Trolle zu bezeichnen ist leicht selbst Trollerei. Trolle entstehen vorher. In der Wikipedia werden Leute willkürlich als Trolle bezeichnet, der ersten Eskalationsstufe eines Mobbings. Seit 2004 – wo ich angefangen habe, gegen die Färbung von Artikeln rund um die Burschen- und Studentenschaften zu schreiben – wird mir in der deutschsprachigen Wikipedia Trollerei vorgeworfen. Der schlagende Burschenschafter Frank Schulenburg, karrierebewußt in die Wikipedia-Foundation aufgestiegen – hat mich ohne Begründung im engschsprachigen Wikipedia-Portal http://meta.wikimedia.org/wiki/User:Thomas7 blockiert.

Eine halbwegs neutrale Beschreibung (m)einer vermeintlichen Trollerei findet sich hier:

http://www.netzthemen.de/sterz-wikipedia/5-1-4-troll-oder-nicht-troll-der-fall-thomas7

Mehr Infos zu braunfärbenden Interessensgruppen in der Wikipedia:

http://thomas7.bloggles.info/

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.