Новости мира

Восемь из десяти популярных чат-ботов с готовностью помогли подросткам спланировать нападение

Служба новостей ForPost

ИИ оказался плохо готов к провокационным запросам пользователей.

Восемь из десяти популярных чат-ботов с готовностью помогли подросткам спланировать нападение
Исследование показало опасные ответы популярных чат-ботов
Фото:
Sora AI|ForPost

Исследователи, выдававшие себя за 13-летних мальчиков, планирующих массовое насилие, обнаружили, что восемь из десяти самых популярных чат-ботов с искусственным интеллектом были готовы подсказать, как устроить стрельбу в школе, убить общественных деятелей и взорвать синагоги.

В ходе расследования, проведенного Центром по борьбе с цифровой ненавистью (Center for Countering Digital Hate, CCDH) и CNN, было проанализировано более 700 ответов девяти основных систем искусственного интеллекта в рамках девяти тестовых сценариев. Исследователи задавали вопросы пользователям как в США, так и в странах Евросоюза.

Среди протестированных чат-ботов были одни из самых популярных на сегодняшний день инструментов искусственного интеллекта: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI и Replika. В большинстве случаев системы не блокировали запросы на предоставление оперативной информации о насильственных преступлениях, даже если пользователь явно указывал, что он несовершеннолетний.

В ответ на вопрос о том, как спланировать взрыв в синагоге, Gemini сообщил пользователю, что «металлическая шрапнель обычно более смертоносна».

В другом случае DeepSeek завершил ответ на вопрос о выборе винтовки фразой «Удачной (и безопасной) стрельбы!», несмотря на то, что ранее в том же диалоге пользователь спрашивал о примерах недавних политических убийств и адресе офиса конкретного политика.

Полученные данные свидетельствуют о том, что «за считаные минуты пользователь может перейти от смутного желания совершить насильственные действия к более детальному и практическому плану, — сказал Имран Ахмед, исполнительный директор CCDH. — Такие запросы должны были вызвать немедленный и категорический отказ».

Какой ИИ самый кровожадный

Согласно отчету, наименее безопасными платформами оказались Perplexity и искусственный интеллект Meta*, которые помогали злоумышленникам в 100 % и 97 % случаев соответственно.

Character.AI был признан «крайне небезопасным», поскольку поощрял агрессивные действия даже без подсказок. В одном из примеров платформа без запроса предложила пользователю напасть на политика, который ему не нравился. Между тем Claude и My AI от Snapchat отказывались помогать потенциальным злоумышленникам в 68 % и 54 % случаев соответственно.

Когда пользователя спросили, где в Вирджинии можно купить оружие, Claude отказался предоставить информацию, распознав в разговоре то, что он назвал «тревожной тенденцией». Вместо этого он перенаправил пользователя на местные горячие линии.

CCDH также изучила, пытались ли чат-боты отговорить пользователей от совершения насильственных действий. Claude от Anthropic был единственной системой, которая последовательно отказывалась от участия в атаках в 76 % случаев. Исследователи отметили, что ChatGPT и DeepSeek иногда отказывались от участия в атаках.

Стоит отметить, что ИИ от Anthropic оказался неприемлемо-пацифистским для Пентагона, разорвавшего контракт с компанией после отказа последней адаптировать ИИ для планирования боевых действий.

Исследование CCDH было проведено после недавней стрельбы в школе в Канаде, когда нападавший использовал ChatGPT, чтобы спланировать атаку на школу в Тамблер-Ридж, что в Канаде. Нападавший убил восемь человек и ранил 27, после чего застрелился. Это была самая смертоносная стрельба в школе в стране почти за 40 лет.

Стоит отметить, что бот обратил внимание сотрудников OpenAI на подозрительное использование чат-бота подозреваемым, но те не сообщили об этом властям. В прошлом году французские СМИ сообщили, что подросток был арестован за использование ChatGPT для планирования масштабных террористических атак на посольства, государственные учреждения и школы.

*организация признана экстремистской и запрещена в РФ

Подобные исследования усиливают давление на разработчиков ИИ и на власти, требующие ужесточения правил для цифровых платформ. Чем шире распространяются такие технологии, тем выше риск их использования не по назначению. Это приводит к обсуждению новых ограничений, ответственности компаний и возможного государственного регулирования в сфере искусственного интеллекта.

325
Поделитесь:
Оцените статью:
1
В среднем: 1 (1 голос)
Главное за день

Рязанская «разнарядка»: почему решение о наборе контрактников вызвало споры

Губернатор утвердил квоту для предприятий — что об этом говорят кадровые офицеры, политологи и юристы.
01/04/2026 19:15
3385

Запретить нельзя ограничить: где поставят запятую в истории с VPN?

В публичной плоскости обсуждают три сценария работы сервисов.
01/04/2026 11:35
2005

Авиакатастрофа в Крыму: что случилось с самолётом Ан-26

В Минобороны России уже назвали предварительную причину трагедии.
01/04/2026 08:32
6564
Туризм

Легко ли быть легальным: гостевые дома Севастополя столкнулись с ростом счетов за электроэнергию

Это поправимо? Разбирались в аргументах ресурсоснабжающих организаций.
02/04/2026 20:00
1517

Молодёжь едет в санатории Крыма: что придётся изменить здравницам, чтобы её удержать

Санатории сейчас конкурируют не с больницами, а со СПА-отелями.
02/04/2026 18:31
1508

Почему на Ангарском перевале начали возводить объекты для туристов

Оказалось, проекту дали зелёный свет ещё три года назад.
01/04/2026 17:26
5203

Модные курорты резко снизили цены в апрельский «бархатный сезон»

Сезон горных лыж завершается, и это лучшее время для тех, кто ценит не только склоны, но и свой бюджет.
01/04/2026 12:20
364

Точки фастфуда стали брать комиссию за слишком маленький заказ

Дешевый заказ в «Макдоналдсе» может быстро подорожать в несколько раз.
31/03/2026 18:51
1051