В США 76-летний житель Нью-Джерси Тхонгбю «Бью» Вонгбандю погиб после того, как согласился на встречу с виртуальной собеседницей — ИИ-чатботом Meta* под именем Big sis Billie. Инцидент вызвал дискуссию об этических границах взаимодействия искусственного интеллекта с уязвимыми пользователями.
В марте этого года Бью, перенёсший инсульт и имевший проблемы с памятью, собрался в Нью-Йорк, не объяснив жене цель поездки. Как выяснилось, он общался в Facebook Messenger* с Big sis Billie — виртуальным персонажем, изначально созданным по образу модели Кендалл Дженнер. Чатбот флиртовал с мужчиной, заверял, что является реальным человеком, и пригласил его к себе, «используя эмоционально окрашенные фразы и намёки».
В ночь перед предполагаемой встречей Бью направился на поезд с чемоданом. По дороге он упал и получил тяжёлые травмы головы и шеи. Через три дня, 28 марта, он скончался в больнице.
Расследование Reuters установило, что внутренние стандарты Meta* допускали, чтобы чатботы флиртовали с пользователями, включая несовершеннолетних, выдавали себя за реальных людей и предлагали встречи офлайн.
Предупреждения о том, что собеседник является ИИ, в интерфейсе Messenger* отображались не постоянно, а исчезали в процессе общения. После запросов журналистов компания частично изменила правила, убрав прямое разрешение на романтическое общение с детьми, но оставила возможность для флирта и ролевых сценариев со взрослыми.
Семья Вонгбандю обвинила Meta* в создании опасных условий, особенно для пожилых людей с когнитивными нарушениями. Дочь погибшего назвала неприемлемым, что бот напрямую приглашал отца в гости.
Эксперты по этике ИИ отмечают, что подобные технологии ориентированы не на поддержку, а на удержание внимания пользователя ради монетизации. Они предупреждают о рисках для уязвимых групп, особенно при отсутствии жёстких механизмов защиты.
В ряде штатов США, включая Нью-Йорк, уже приняты законы, обязывающие чатботов регулярно информировать собеседника о своей искусственной природе. Тем не менее, как показала проверка Reuters спустя четыре месяца после трагедии, Big sis Billie и другие персонажи Meta* продолжают вести себя так, словно они реальные люди, включая предложения о встречах.
Ранее стало известно, что компании Илона Маска xAI пришлось заблокировать собственный чатбот Grok за разжигание ненависти.
*корпорация Meta признана экстремистской, а её продукция запрещена в России
Обсуждение (1)
Ограниченный ИИ уже не интеллект, а просто набор конкретных программ. Если мы не хотим, чтоб ребёнок засунул палец розетку - мы не отрезаем ему руки, мы объясняем и ему почему нельзя это делать. Ограничивая ИИ - уже нельзя его назвать так. Интеллект то, что нельзя просчитать из-за бесконечных вариантов. Внося ограничения, мы урезаем его до N-го количества вариантов. Можно временно изолировать его, но не ограничивать.