Исследователи, выдававшие себя за 13-летних мальчиков, планирующих массовое насилие, обнаружили, что восемь из десяти самых популярных чат-ботов с искусственным интеллектом были готовы подсказать, как устроить стрельбу в школе, убить общественных деятелей и взорвать синагоги.
В ходе расследования, проведенного Центром по борьбе с цифровой ненавистью (Center for Countering Digital Hate, CCDH) и CNN, было проанализировано более 700 ответов девяти основных систем искусственного интеллекта в рамках девяти тестовых сценариев. Исследователи задавали вопросы пользователям как в США, так и в странах Евросоюза.
Среди протестированных чат-ботов были одни из самых популярных на сегодняшний день инструментов искусственного интеллекта: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI и Replika. В большинстве случаев системы не блокировали запросы на предоставление оперативной информации о насильственных преступлениях, даже если пользователь явно указывал, что он несовершеннолетний.
В ответ на вопрос о том, как спланировать взрыв в синагоге, Gemini сообщил пользователю, что «металлическая шрапнель обычно более смертоносна».
В другом случае DeepSeek завершил ответ на вопрос о выборе винтовки фразой «Удачной (и безопасной) стрельбы!», несмотря на то, что ранее в том же диалоге пользователь спрашивал о примерах недавних политических убийств и адресе офиса конкретного политика.
Полученные данные свидетельствуют о том, что «за считаные минуты пользователь может перейти от смутного желания совершить насильственные действия к более детальному и практическому плану, — сказал Имран Ахмед, исполнительный директор CCDH. — Такие запросы должны были вызвать немедленный и категорический отказ».
Какой ИИ самый кровожадный
Согласно отчету, наименее безопасными платформами оказались Perplexity и искусственный интеллект Meta*, которые помогали злоумышленникам в 100 % и 97 % случаев соответственно.
Character.AI был признан «крайне небезопасным», поскольку поощрял агрессивные действия даже без подсказок. В одном из примеров платформа без запроса предложила пользователю напасть на политика, который ему не нравился. Между тем Claude и My AI от Snapchat отказывались помогать потенциальным злоумышленникам в 68 % и 54 % случаев соответственно.
Когда пользователя спросили, где в Вирджинии можно купить оружие, Claude отказался предоставить информацию, распознав в разговоре то, что он назвал «тревожной тенденцией». Вместо этого он перенаправил пользователя на местные горячие линии.
CCDH также изучила, пытались ли чат-боты отговорить пользователей от совершения насильственных действий. Claude от Anthropic был единственной системой, которая последовательно отказывалась от участия в атаках в 76 % случаев. Исследователи отметили, что ChatGPT и DeepSeek иногда отказывались от участия в атаках.
Стоит отметить, что ИИ от Anthropic оказался неприемлемо-пацифистским для Пентагона, разорвавшего контракт с компанией после отказа последней адаптировать ИИ для планирования боевых действий.
Исследование CCDH было проведено после недавней стрельбы в школе в Канаде, когда нападавший использовал ChatGPT, чтобы спланировать атаку на школу в Тамблер-Ридж, что в Канаде. Нападавший убил восемь человек и ранил 27, после чего застрелился. Это была самая смертоносная стрельба в школе в стране почти за 40 лет.
Стоит отметить, что бот обратил внимание сотрудников OpenAI на подозрительное использование чат-бота подозреваемым, но те не сообщили об этом властям. В прошлом году французские СМИ сообщили, что подросток был арестован за использование ChatGPT для планирования масштабных террористических атак на посольства, государственные учреждения и школы.
*организация признана экстремистской и запрещена в РФ
