Нет «приукрашиванию» изнасилования
.
Социальные сети, которые когда-то создавались как пространство для общения и самовыражения, превратились в арену борьбы — за голос, за видимость, за право назвать вещи своими именами. И чем глубже цифровые платформы внедряют алгоритмическую модерацию, тем чаще правда оказывается замаскирована эвфемизмами, а жертвы — наказанными за откровенность.
Эта новая реальность проявилась особенно резко после вопроса, который кинооператор Джуд Эзе задал у себя в Facebook: «Почему слово “изнасилование” сегодня заменяют формулой “принуждение к сексуальным действиям”?»
Эзе сформулировал то, что чувствуют миллионы: слишком “уродливое” слово, слишком страшное действие, слишком легкое цифровое стирание. А под его постом — десятки историй людей, чьи публикации были скрыты или удалены не за пропаганду насилия, а за честное описание пережитого.
Алгоспик: новый язык страха
Чтобы избежать блокировки, пользователи — особенно женщины — начали искажать речь: «изнасилование» превращается в «инаслование», «убить» — в «минуснуть», «сексуальное насилие» — в «СН», «самоубийство» — в «само…цид».
Этот цифровой новояз получил название алгоспик — язык, созданный не культурой, а страхом перед алгоритмом. Так мы пришли к абсурду: человек, который рассказывает о преступлении, рискует больше, чем тот, кто замаскированно угрожает его совершить.
Чьи глаза решают, что нам говорить?
Модерация в первом поколении соцсетей возникла не случайно — цифровые платформы стали рассадником буллинга, порнографии, экстремизма. Контроль был необходим. Но выросла пропасть между задачей и исполнением. Модератор имел в среднем 10 секунд, чтобы принять решение по одной публикации. Объём оказался непосилен, и гиганты типа Meta перешли к автоматизации. Машины учатся на данных, классифицируют контент, но не понимают ни боли, ни контекста, ни иронии.
Meta признаёт, что алгоритмы «часто ошибаются», а апелляции «медленные и неудовлетворительные». Теперь корпорации делают следующий шаг — перекладывают часть ответственности на пользователей через формат Community Notes, как на платформе X. Но передача власти сообществу — палка о двух концах. В обществах, где доминируют патриархальные и дискриминационные установки, коллективные суждения могут лишь воспроизвести те же травмы.
Алгоритмы как инструмент подавления
Особенно дорого ошибки стоят женщинам Африки, Азии, Ближнего Востока — там, где гендерное насилие табуировано, а судебные механизмы слабы.
Когда слово «изнасилование» заменяют милым эмодзи или звездочками, зло становится банальным, а жертва получает ещё один удар: её слова обесцениваются. И в этот же момент цифровые маргиналы используют лазейки, чтобы маскировать угрозы и “шутки”, играя на размытых границах, созданных алгоритмами. В результате — парадокс: жертва получает предупреждение, а агрессор — виртуальную амнистию.
Там, где нет людей, не будет и справедливости
Цифровые гиганты годами сокращают штаты модераторов, заменяя их ИИ несмотря на то, что автоматические системы плохо работают со свидетельствами травмы, политическим контекстом, языками меньшинств и сатирой — это для них темный лес.
Как пример — массовые увольнения модераторов TikTok в начале 2025 года под предлогом «перехода на ИИ». Но как можно доверить моральный выбор системе, которая не различает насмешку и боль?
Что должно измениться
Я предлагаю другой фундамент. Возвращение человеческого разума. Модерацию должны вести профессиональные команды, обученные, защищённые и хорошо оплаченные. Машины — вспомогательны, но не главные.
Перераспределение редакционной власти. Данные для обучения ИИ не могут основываться только на опыте развитых стран. В право голоса должны быть включены жертвы насилия и правозащитники, сообщества пользователей, эксперты из стран Глобального Юга. Только так алгоритмы смогут научиться отличать правду от агрессии.
Право на свидетельство. Платформы обязаны дать возможность помечать контент как документирование насилия, а не его пропаганда. Это защитит язык, а не исказит его.
Честный отказ от цифровых эвфемизмов. Мы не должны изобретать новые слова вместо тех, что уже называют зло, а должны разрушать структуру, которая заставляет нас молчать.
Если цифровое пространство продолжит поощрять замещение правды туманными эвфемизмами, мы потеряем саму ткань общественного разговора. Право быть услышанным — не преступление. И лишь тогда, когда платформы перестанут наказывать за правду, мы сможем говорить о цифровой демократии, а не о цифровой цензуре.
Зикора ИБЕ,
обозреватель, автор подкастов, международный эксперт
в области социальной и гендерной справедливости
P.S. Проблема цифровых эвфемизмов становится глобальной угрозой для свободы слова. Особенно в странах, где жертвы и так сталкиваются с системной стигматизацией. Мы поддерживаем право на честное свидетельство и призываем платформы к ответственности.
Хотите больше? В нашем Telegram-канале — темы под грифом «не для всех»: нестандартные ракурсы, дополнительные материалы и аналитика без купюр.

Ваша добровольная поддержка проектов KI очень важна!





