Поиск..

360° Грани Лента новостей

Нет «приукрашиванию» изнасилования

.

Социальные сети, которые когда-то создавались как пространство для общения и самовыражения, превратились в арену борьбы — за голос, за видимость, за право назвать вещи своими именами. И чем глубже цифровые платформы внедряют алгоритмическую модерацию, тем чаще правда оказывается замаскирована эвфемизмами, а жертвы — наказанными за откровенность.

Эта новая реальность проявилась особенно резко после вопроса, который кинооператор Джуд Эзе задал у себя в Facebook: «Почему слово “изнасилование” сегодня заменяют формулой “принуждение к сексуальным действиям”?»

Эзе сформулировал то, что чувствуют миллионы: слишком “уродливое” слово, слишком страшное действие, слишком легкое цифровое стирание. А под его постом — десятки историй людей, чьи публикации были скрыты или удалены не за пропаганду насилия, а за честное описание пережитого.

Алгоспик: новый язык страха

Чтобы избежать блокировки, пользователи — особенно женщины — начали искажать речь: «изнасилование» превращается в «инаслование», «убить» — в «минуснуть», «сексуальное насилие» — в «СН», «самоубийство» — в «само…цид».

Этот цифровой новояз получил название алгоспик — язык, созданный не культурой, а страхом перед алгоритмом. Так мы пришли к абсурду: человек, который рассказывает о преступлении, рискует больше, чем тот, кто замаскированно угрожает его совершить.

Чьи глаза решают, что нам говорить?

Модерация в первом поколении соцсетей возникла не случайно — цифровые платформы стали рассадником буллинга, порнографии, экстремизма. Контроль был необходим. Но выросла пропасть между задачей и исполнением. Модератор имел в среднем 10 секунд, чтобы принять решение по одной публикации. Объём оказался непосилен, и гиганты типа Meta перешли к автоматизации. Машины учатся на данных, классифицируют контент, но не понимают ни боли, ни контекста, ни иронии.

Meta признаёт, что алгоритмы «часто ошибаются», а апелляции «медленные и неудовлетворительные». Теперь корпорации делают следующий шаг — перекладывают часть ответственности на пользователей через формат Community Notes, как на платформе X. Но передача власти сообществу — палка о двух концах. В обществах, где доминируют патриархальные и дискриминационные установки, коллективные суждения могут лишь воспроизвести те же травмы.

Алгоритмы как инструмент подавления

Особенно дорого ошибки стоят женщинам Африки, Азии, Ближнего Востока — там, где гендерное насилие табуировано, а судебные механизмы слабы.

Когда слово «изнасилование» заменяют милым эмодзи или звездочками, зло становится банальным, а жертва получает ещё один удар: её слова обесцениваются. И в этот же момент цифровые маргиналы используют лазейки, чтобы маскировать угрозы и “шутки”, играя на размытых границах, созданных алгоритмами. В результате — парадокс: жертва получает предупреждение, а агрессор — виртуальную амнистию.

Там, где нет людей, не будет и справедливости

Цифровые гиганты годами сокращают штаты модераторов, заменяя их ИИ несмотря на то, что автоматические системы плохо работают со свидетельствами травмы, политическим контекстом, языками меньшинств и сатирой это для них темный лес.

Как пример — массовые увольнения модераторов TikTok в начале 2025 года под предлогом «перехода на ИИ». Но как можно доверить моральный выбор системе, которая не различает насмешку и боль?

Что должно измениться

Я предлагаю другой фундамент. Возвращение человеческого разума. Модерацию должны вести профессиональные команды, обученные, защищённые и хорошо оплаченные. Машины — вспомогательны, но не главные.

Перераспределение редакционной власти. Данные для обучения ИИ не могут основываться только на опыте развитых стран. В право голоса должны быть включены жертвы насилия и правозащитники, сообщества пользователей, эксперты из стран Глобального Юга. Только так алгоритмы смогут научиться отличать правду от агрессии.

Право на свидетельство. Платформы обязаны дать возможность помечать контент как документирование насилия, а не его пропаганда. Это защитит язык, а не исказит его.

Честный отказ от цифровых эвфемизмов. Мы не должны изобретать новые слова вместо тех, что уже называют зло, а должны разрушать структуру, которая заставляет нас молчать.

Если цифровое пространство продолжит поощрять замещение правды туманными эвфемизмами, мы потеряем саму ткань общественного разговора. Право быть услышанным — не преступление. И лишь тогда, когда платформы перестанут наказывать за правду, мы сможем говорить о цифровой демократии, а не о цифровой цензуре.

Зикора ИБЕ,

обозреватель, автор подкастов, международный эксперт

в области социальной и гендерной справедливости

P.S. Проблема цифровых эвфемизмов становится глобальной угрозой для свободы слова. Особенно в странах, где жертвы и так сталкиваются с системной стигматизацией. Мы поддерживаем право на честное свидетельство и призываем платформы к ответственности.

 

Хотите больше? В нашем Telegram-канале — темы под грифом «не для всех»: нестандартные ракурсы, дополнительные материалы и аналитика без купюр.

Ваша добровольная поддержка проектов KI очень важна!

Поделиться этим материалом:
Метки:

Смотри также:

Оставить комментарий

Your email address will not be published. Required fields are marked *

КАЛЕЙДОСКОП НОВОСТЕЙ: