Новости мира

Искусственный интеллект сравнили со смертельной пандемией и ядерной войной

Эксперт считает, что ИИ надо взять под глобальный контроль.

Служба новостей ForPost

Профессор Института автоматизации Академии наук КНР и член Специальной группы экспертов ЮНЕСКО по этике искусственного интеллекта (ИИ) Цзэн И заявил в своей колонке для Global Times о необходимости ограничить развитие машинного обучения, чтобы обеспечить безопасность человечества в будущем.  

Цзэн уже не первый эксперт, который заявляет об этой необходимости: такие именитые сподвижники научно-технического прогресса, как Илон Маск и сооснователь Apple Стив Возняк, наряду с более чем тысячью экспертов в области ИИ подписали открытое письмо, в котором призывают «приостановить» все разработки в этой области из-за возможной угрозы человечеству, которую может представлять ИИ.

Цзэн И утверждает, что искусственный интеллект может использоваться на благо общества, но при этом такие высокие технологии обладают целым рядом потенциальных рисков, которые нельзя игнорировать. По словам эксперта, ИИ может представлять экзистенциальную угрозу для человечества, сравнимую с угрозой пандемий и ядерных войн: их все тяжело предсказать, все они затрагивают интересы всего человечества, и все они могут привести к смертям огромного количества людей.

Эксперт утверждает, что риски, связанные с ИИ, присутствуют как в долгосрочной, так и в краткосрочной перспективах. Цзэн признаёт, что современные технологии пока ещё не позволяют создать искусственный сверхразум, который мог бы угрожать выживанию человечества. Однако в текущем своём состоянии ИИ уже представляет определённую угрозу. Современный искусственный интеллект — это всего лишь очень продвинутый алгоритм по сбору и обработке информации. Он только выглядит разумным, но на самом деле не обладает пониманием или разумом в том смысле, который вкладывает в это понятие человек. По этой причине ИИ зачастую совершает ошибки, которые для человека выглядят абсолютно непредсказуемо, указывает эксперт.

Искусственный интеллект на самом деле не понимает, что такое человеческая жизнь, — для него она не обладает какой-либо ценностью. Такой сборник алгоритмов может представлять угрозу для выживания человечества, даже не являясь сверхразумом: он может быть использован для эксплуатации человеческих слабостей и предрассудков. Мы уже наблюдаем первые признаки этого: последний прогресс в этой области позволяет современным ИИ использовать данные в масштабе всего интернета и на их основе создавать убедительную дезинформацию.

Эксперт утверждает, что развитие технологий в области ИИ идёт полным ходом, но при этом сопутствующим этическим проблемам и рискам уделяется поразительно мало внимания. По словам Цзэн И, на это в первую очередь необходимо обратить внимание инженерам, которые сейчас занимаются «обучением» и «тренировкой» современных ИИ, а также многочисленным инвесторам и пользователям сервисов, использующих искусственный интеллект, — все они должны сыграть свою роль в обеспечении устойчивого и здорового развития ИИ.

«С учётом всех экзистенциальных угроз, которые представляет ИИ для человечества, нам следует проводить тщательные исследования и стресс-тесты, призванные максимально минимизировать эти риски, — пишет эксперт. — Чтобы решить эту проблему, нам необходимо разработать механизм глобальной кооперации, например, международный комитет по безопасному использованию ИИ с участием всех стран мира. Если мы хотим продолжать использовать преимущества ИИ, то нам сперва необходимо совместно обеспечить его глобальную безопасность».

Читайте по теме: Искусственный интеллект разочаровал военных

1218
Поделитесь:
Оцените статью:
0
Еще нет голосов
Обсуждение (2)
Serggio
27439
Serggio

Если мы хотим продолжать использовать преимущества ИИ, то нам сперва необходимо совместно обеспечить его глобальную безопасность

Вилку из розетки выдернуть, и дело с концом.ok

Patriot1.
5305
Patriot1.

... что искусственный интеллект может использоваться на благо общества, но при этом такие высокие технологии обладают целым рядом потенциальных рисков, которые нельзя игнорировать. По словам эксперта, ИИ может представлять экзистенциальную угрозу для человечества, сравнимую с угрозой пандемий и ядерных войн: их все тяжело предсказать, все они затрагивают интересы всего человечества, и все они могут привести к смертям огромного количества людей...

Все идет к тому, что человечество, (точнее определенная категория людей), уничтожит себя само...Пока не поздно , надо вводить запрет или ограничения на ИИ, ровно также как и на ядерное оружие...

Главное за день

Суд отправил Андрея Ермака в СИЗО – с залогом в 680 млн рублей

Скорее всего – тот сможет найти необходимую сумму.
14/05/2026 10:47
813

Как не оказаться в дураках при покупке техники на маркетплейсах

Юридически интересы покупателя пока учтены в меньшей степени.
14/05/2026 10:02
2186

Севастопольские хирурги показали коллекцию извлечённых из детей предметов

Связка ключей, крестик и магнитные шарики: что глотают севастопольские дети.
13/05/2026 20:01
1790

Как строили Черноморский флот в Севастополе

В день рождения ЧФ обычно говорят о кораблях и военных моряках. Но важная составляющая флота находится и на берегу.
13/05/2026 11:00
3847

Крым ненадолго окажется в плену грозы

Жителей предупреждают о сильном ветре и возможных авариях.
12/05/2026 16:28
2744
Туризм

У туристов появится ещё один маршрут между Крымом и аэропортом Сочи

Рейсовый автобус свяжет крымскую столицу с воздушной гаванью.
14/05/2026 09:32
3044

Учёные рассказали, какие люди являются самыми «вкусными» для комаров

Вопреки распространённому заблуждению, группа крови человека не влияет на это.
13/05/2026 17:47
2266

Большая Севастопольская тропа расширилась новым партизанским маршрутом

«Тропа памяти» объединила крымскую природу с историей.
12/05/2026 17:03
1186

Россиянам станут доступны джунгли и жемчужные острова

Число безвизовых направлений для граждан РФ может увеличиться до 90 стран.
12/05/2026 12:21
703

Российский турист стал любимцем Таиланда после помощи уличному торговцу

Мужчина помог дотащить тележку с копилками до вершины горы.
12/05/2026 10:48
1451