Язык вражды (англ.: Hate Speech) в Интернете стал проблемой мирового масштаба. В социальных сетях нападают на сексуальные меньшинства, запугивают членов определенных религиозных общин и этнических групп. Изменения к худшему в поведении пользователей заметны, в частности, по комментариям к нашим публикациям в Facebook. Под анонсом интервью со знаменитой российской писательницей Людмилой Улицкой появились отвратительные антисемитские высказывания, а каждый обзор ситуации по коронавирусу заканчивается перебранкой, причем в результате во всех грехах виноватыми оказываются журналисты: мол, если бы не СМИ, которые вступили в «сговор с фармакомпаниями», то ни вируса, ни эпидемии бы не было. Да уж, как говорил Шурик, и часовню тоже мы развалили.
На многих платформах есть фильтры, которые автоматически блокируют подобные комментарии, но этих мер зачастую недостаточно. Facebook, например, по собственной оценке (или согласно внутренним документам, просочившимся в СМИ несколько месяцев назад), в состоянии удалить не более 5% высказываний ненависти. Кроме того, автоматические фильтры являются неточными и, как правило, противоречат свободе выражения мнений. Таким образом, ответственность за противодействие языку ненависти ложится на модераторов социальных сетей.
Как же реагировать на неадекватные высказывания в сети? Чтобы выяснить ответ на этот вопрос исследователи Цюрихской федеральной политехнической школы (ETHZ) и Цюрихского университета (UZH) провели эксперимент. Используя методы машинного обучения, они выявили 1350 англоязычных пользователей Twitter, которые ранее публиковали расистские или ксенофобские твиты. Ученые и студенты под руководством профессора политического анализа ETHZ Доминика Хангартнера отвечали этим пользователям, используя различные стратегии. Первой группе они отвечали сообщением, призванным вызвать сочувствие, например, «Афроамериканцам очень больно, когда люди используют такие выражения». Второй группе они выносили предупреждение о возможных социальных последствиях твита, а третьей отправляли шутливый мем. Так, один из мемов изображал птицу, сжимающую клюв другой птицы с фразой «Пожалуйста, прекратите писать в Twitter». Четвертая же группа была контрольной.
Выяснилось, что только комментарии, основанные на эмпатии, способны снизить уровень языка ненависти – хотя и в относительно небольшой степени. Эта группа отправила меньше ксенофобных твитов в последующие четыре недели, чем контрольная группа, и чаще удаляла первоначальный ксенофобный твит. Исследователи также фиксировали, реагировали ли пользователи на обращенные к ним ответы и каким образом. Согласно результатам, около 15% из них ответили на сообщения – большинство сделали это достойно, а некоторые даже извинились, причем лишь незначительная часть из них использовала в своем ответе язык ненависти.
Авторы исследования, результаты которого были опубликованы в научном журнале Proceedings of the National Academy of Sciences, признают, что они, конечно, не нашли универсального средства против языка ненависти в Интернете, но обнаружили важные подсказки о том, какие стратегии могут сработать, а какие нет. В будущем еще предстоит выяснить, все ли основанные на эмпатии ответы имеют одинаковый эффект. Например, комментирующих можно попросить поставить себя на место жертвы или спросить их, что бы они чувствовали, если бы люди говорили о них таким же образом.