
Автоматизированные инструменты модерации контента, развернутые на фоне «всплеска жестокого и графического контента» в Facebook и Instagram после 7 октября зашли слишком далеко в удалении постов, которые пользователи социальных сетей должны были видеть, - вынесла решение во вторник независимая надзорная группа их материнской компании Meta.
Этот вывод был сделан в результате анализа двух случаев, когда модераторы вручную восстанавливали контент, удаленный компьютерной модерацией. Один из них касался видео в Facebook, на котором было показано, как террорист ХАМАС похитил женщину 7 октября. Другим было видео в Instagram, на котором были показаны последствия удара возле больницы «Аль-Шифа» в секторе Газы.
Эти дела были первыми, рассмотренными Наблюдательным советом Меты в рамках нового ускоренного процесса, призванного обеспечить более быстрое реагирование на насущные проблемы.
В обоих случаях сообщения были удалены, поскольку Meta снизила планку, при которой ее компьютерные программы автоматически помечали контент, касающийся Израиля и Газы, как нарушающий политику компании в отношении контента с изображением насилия и изображений, разжигания ненависти, насилия и подстрекательства, а также издевательств и преследований.
«Это означало, что Meta более агрессивно использовала свои автоматизированные инструменты для удаления контента, который мог нарушить ее политику», — говорится в решении совета директоров. «Хотя это снизило вероятность того, что Meta не сможет удалить нарушающий контент, который в противном случае мог бы избежать обнаружения или где возможности для проверки человеком были ограничены, это также увеличило вероятность того, что Meta ошибочно удалит не нарушающий контент, связанный с конфликтом».
По данным совета директоров, по состоянию на прошлую неделю компания до сих пор не подняла «пороги доверия» до уровня, существовавшего до уровня 7 октября, и это означает, что риск удаления нежелательного контента остается выше, чем до атаки.
Наблюдательный совет призывает Meta — как это уже было сделано во многих предыдущих случаях — усовершенствовать свои системы, чтобы защититься от алгоритмов, неправильно удаляющих сообщения, предназначенные для просвещения об экстремизме или противодействия ему. Случайное удаление образовательного и информационного контента преследовало компанию в течение многих лет, особенно резко, когда Meta запретила отрицание Холокоста в 2020 году.
«Эти решения было очень трудно принять, и они потребовали долгих и сложных обсуждений в Наблюдательном совете», — заявил в своем заявлении председатель правления Майкл МакКоннелл. «Совет сосредоточил внимание на защите права на свободу выражения мнений людей со всех сторон об этих ужасных событиях, обеспечивая при этом, чтобы ни одно из показаний не подстрекало к насилию или ненависти. Эти свидетельства важны не только для выступающих, но и для пользователей по всему миру, которые ищут своевременную и разнообразную информацию о революционных событиях, некоторые из которых могут стать важным доказательством потенциальных серьезных нарушений международных прав человека и гуманитарного права».
Meta — не единственная компания, занимающаяся социальными сетями, которая подвергается тщательной проверке из-за использования контента, связанного с войной между Израилем и Хамасом. TikTok подвергся критике из-за преобладания антиизраильского контента на популярной видеоплатформе. А во вторник Европейский Союз объявил об официальном расследовании деятельности X, платформы, ранее известной как Twitter, с использованием новых регуляторных полномочий, предоставленных в прошлом году, и после первоначального расследования резкого роста «террористического и насильственного контента и разжигания ненависти» после 7 октября.