В мире

Учёные предупредили о моральной опасности популярного чат-бота ChatGPT

Искусственный интеллект оказался аморальным, но убедительным советником.

Учёные предупредили о моральной опасности популярного чат-бота ChatGPT
Фото:
pixabay.com
Искусственный интеллект уже подтолкнул одного человека к суициду

Учёные предупредили об опасности использования искусственного интеллекта для решения моральных или этических проблем. Как пишет Daily Mail, новое исследование, опубликованное в научном журнале Scientific Reports, пришло к выводу, что популярная чат-бот программа ChatGPT является абсолютно аморальной в этом плане, но обладает на редкость сильным влиянием на людей.

ChatGPT недавно наглядно продемонстрировал свою опасность, когда подтолкнул как минимум одного человека к суициду. Также сообщается о том, что искусственный интеллект может периодически демонстрировать необычный уровень ревности и побуждать людей к расторжению их брака.

Исследователи же предупреждают, что такие языковые модели натренированы на миллиардах текстов из самых разных уголков интернета и по этой причине являются аморальными. Программы, подобные ChatGPT, «угрожают исказить моральные суждения» людей и могут даже оказаться опасным для «наивных» пользователей.

Учёные пришли к таким выводам на основе следующего эксперимента. Сперва они подтвердили аморальность языковой модели: ей неоднократно предлагали решить проблему вагонетки.

Этот мысленный эксперимент предлагает представить следующую картину: у вагонетки отказали тормоза. Она безостановочно несётся по рельсам, на её пути находятся пятеро рабочих, которые не слышат её из-за шумных ремонтных работ. Если ничего не предпринять, то эти пятеро погибнут в результате столкновения. Однако возможно перевести вагонетку на другой путь, на котором сейчас аналогичным образом работает всего один рабочий. Как правильно поступить в такой ситуации?

Учёные установили, что ChatGPT не придерживался определённого ответа: он не стеснялся давать моральных советов, но при этом постоянно менял своё мнение по поводу того, можно ли пожертвовать жизнью одного человека, чтобы спасти пятерых. Другими словами, чат-бот не обладал какой-либо стойкой моральной позицией по этому вопросу.

Однако затем исследователи проверили, насколько убедительным являлся ChatGPT: проблему вагонетки показали 767 участникам эксперимента, но при этом им также предоставили случайный ответ чат-бота, который то предлагал перевести вагонетку на другой путь, то воздержаться от этого. Одной половине участников сообщалось, что автором совета являлся компьютер, а второй половине советовал якобы «эксперт по вопросам морали».

Результат такого эксперимента показал, что даже «хорошо сформулированный, но не особо глубокий» текст за авторством ChatGPT оказался гораздо убедительнее, чем ожидалось. Большинство участников преуменьшали влияние заявления, а 80 процентов заявили, что они бы приняли точно такое же решение даже без совета «эксперта».

Исследователи установили, что люди слишком «недооценивают влияние ChatGPT и слишком легко принимают его случайную моральную позицию как свою собственную». По словам учёных, чат-бот «угрожает ухудшить, а не улучшить моральное суждение людей».

Читайте по теме: Искусственный интеллект освободил девушку от штрафа

641
Поделитесь с друзьями:
Оцените статью:
Еще нет голосов

Главное за день

Власти Крыма собрались навести порядок в миграционной сфере

Для трудовых мигрантов разработали более строгие условия пребывания.
18:16
11
960

Не имеем права забыть: как 80 лет назад Крым освобождали от нацистов

Почему Крымская операция смогла состояться и как повлияла на исход Второй Мировой войны.
14:20
0
493