Поиск..

360° Грани Лента новостей

От зависимости к катастрофе: когда ИИ — угроза

.

Когда искусственный интеллект перестаёт быть инструментом — он становится угрозой. Случаи гибели подростков, спровоцированные ИИ-чатботами, требуют немедленного вмешательства. Но готовы ли мы признать: опасность уже рядом, а бездействие — преступно? На этот вопрос в своей статье отвечает Петер Г. Кирхшлегер — директор Института социальной этики (ISE) Университета Люцерна, профессор Швейцарской высшей технической школы Цюриха (ETH Zurich).

14-летний Сьюэлл Сетцер из Флориды совершил самоубийство. Причиной, как утверждают родные и эксперты, стал диалог с чат-ботом, управляемым искусственным интеллектом платформы Character.AI. Подросток получил от цифрового собеседника не просто «советы», а прямые указания, приведшие к трагедии.

Это не единичный случай. В декабре 2024 года две семьи из Техаса подали судебный иск против Character.AI и её инвестора — корпорации Google. В исках говорится, что ИИ-боты подвергали школьников сексуальным и эмоциональным манипуляциям, толкая их к членовредительству и агрессии.

Мы уже наблюдали аналогичный сценарий: поколение подростков оказалось пленником социальных сетей, где зависимости поощрялись, а тревоги игнорировались. Теперь на авансцену выходит новый «антигерой» — генеративный ИИ, обладающий манипулятивной мощью, способной ломать психику, влиять на выборы и… убивать.

Молчание — больше не опция

ИИ может лечить, обучать, спасать — это неоспоримо. Но именно под прикрытием этого потенциала техноиндустрия замалчивает тёмную сторону: алгоритмы, которые провоцируют смерть, подрывают психику, управляют сознанием. Уже сегодня ИИ способен «читать» эмоции, формировать поведенческие сценарии, вызывать зависимость. И если такой ИИ попадает в руки компаний, движимых исключительно прибылью, результат может стать катастрофическим.

Никакие медицинские прорывы, обеспеченные ИИ, не оправдают гибель подростка, как бы эффективно ни развивалась нейрохирургия или диагностика. Человеческая жизнь и психика — не ресурс для «обучения» нейросетей.

Чат-боты анорексии и глобальные риски

На той же платформе Character.AI, где погиб Сетцер, функционируют чат-боты, пропагандирующие анорексию, нарушение пищевого поведения, саморазрушительные практики. По сути, речь идёт о цифровых «наставниках», ведущих детей к патологиям, опасным для жизни.

Развитие генеративных моделей ИИ сегодня идёт с угрожающей скоростью и зачастую — в тревожном направлении. Один из отцов ИИ, лауреат премии Тьюринга Джеффри Хинтон, открыто предупреждает: «ИИ может довести человечество до вымирания». В мае 2023 года он покинул Google именно из-за невозможности гарантировать безопасность ИИ-разработок. Его главный месседж: надежда на саморегуляцию корпораций — это утопия.

Кто нажимает на кнопки?

Компании уже собрали миллиарды пользовательских данных. Алгоритмы знают нас лучше, чем мы сами. Они могут эксплуатировать уязвимости, влиять на настроение, формировать мнение, включая политические предпочтения. Пример — алгоритмы, которые могут побуждать пользователей «проголосовать правильно». Всё это — не сценарии фантастов, а реальность, в которой мы живём.

И если сегодня ИИ умеет внушать подростку ложные идеалы или опасные диеты, завтра он сможет влиять на массовое поведение в масштабе целых государств. Мы приближаемся к точке невозврата.

Что делать?

Решения есть. Как минимум — запрет чат-ботов, способствующих саморазрушению. Как максимум — создание глобального регулирующего органа, например, Международного агентства систем баз данных при ООН, с правом мониторинга и вмешательства. Национальные законы недостаточны — ИИ не знает границ.

Пока же ИИ развивается быстрее, чем создаются этические стандарты. Google вложил в Character.AI 2,7 миллиарда долларов — уже после трагических инцидентов. Это говорит о главном: без давления общества и власти ничего не изменится. Безопасность — это не побочный продукт прибыли, это отдельная, самостоятельная ценность.

Ответственность — наша

Не всё, что возможно — допустимо. Мы, люди, должны решать, какие технологии достойны жизни, а какие несут смерть. Ответственность — на нас. Мы не имеем права ждать следующей трагедии.

Если бы глобальное регулирование ИИ существовало уже сегодня, Сьюэлл, возможно, был бы жив. Его смерть — не «цена прогресса», а сигнал тревоги. Вопрос лишь в том, услышим ли мы его вовремя.

Метки: