вт, 06/06/2023 - 09:48

Искусственный интеллект сравнили со смертельной пандемией и ядерной войной

Эксперт считает, что ИИ надо взять под глобальный контроль.

Профессор Института автоматизации Академии наук КНР и член Специальной группы экспертов ЮНЕСКО по этике искусственного интеллекта (ИИ) Цзэн И заявил в своей колонке для Global Times о необходимости ограничить развитие машинного обучения, чтобы обеспечить безопасность человечества в будущем.  

Цзэн уже не первый эксперт, который заявляет об этой необходимости: такие именитые сподвижники научно-технического прогресса, как Илон Маск и сооснователь Apple Стив Возняк, наряду с более чем тысячью экспертов в области ИИ подписали открытое письмо, в котором призывают «приостановить» все разработки в этой области из-за возможной угрозы человечеству, которую может представлять ИИ.

Цзэн И утверждает, что искусственный интеллект может использоваться на благо общества, но при этом такие высокие технологии обладают целым рядом потенциальных рисков, которые нельзя игнорировать. По словам эксперта, ИИ может представлять экзистенциальную угрозу для человечества, сравнимую с угрозой пандемий и ядерных войн: их все тяжело предсказать, все они затрагивают интересы всего человечества, и все они могут привести к смертям огромного количества людей.

Эксперт утверждает, что риски, связанные с ИИ, присутствуют как в долгосрочной, так и в краткосрочной перспективах. Цзэн признаёт, что современные технологии пока ещё не позволяют создать искусственный сверхразум, который мог бы угрожать выживанию человечества. Однако в текущем своём состоянии ИИ уже представляет определённую угрозу. Современный искусственный интеллект — это всего лишь очень продвинутый алгоритм по сбору и обработке информации. Он только выглядит разумным, но на самом деле не обладает пониманием или разумом в том смысле, который вкладывает в это понятие человек. По этой причине ИИ зачастую совершает ошибки, которые для человека выглядят абсолютно непредсказуемо, указывает эксперт.

Искусственный интеллект на самом деле не понимает, что такое человеческая жизнь, — для него она не обладает какой-либо ценностью. Такой сборник алгоритмов может представлять угрозу для выживания человечества, даже не являясь сверхразумом: он может быть использован для эксплуатации человеческих слабостей и предрассудков. Мы уже наблюдаем первые признаки этого: последний прогресс в этой области позволяет современным ИИ использовать данные в масштабе всего интернета и на их основе создавать убедительную дезинформацию.

Эксперт утверждает, что развитие технологий в области ИИ идёт полным ходом, но при этом сопутствующим этическим проблемам и рискам уделяется поразительно мало внимания. По словам Цзэн И, на это в первую очередь необходимо обратить внимание инженерам, которые сейчас занимаются «обучением» и «тренировкой» современных ИИ, а также многочисленным инвесторам и пользователям сервисов, использующих искусственный интеллект, — все они должны сыграть свою роль в обеспечении устойчивого и здорового развития ИИ.

«С учётом всех экзистенциальных угроз, которые представляет ИИ для человечества, нам следует проводить тщательные исследования и стресс-тесты, призванные максимально минимизировать эти риски, — пишет эксперт. — Чтобы решить эту проблему, нам необходимо разработать механизм глобальной кооперации, например, международный комитет по безопасному использованию ИИ с участием всех стран мира. Если мы хотим продолжать использовать преимущества ИИ, то нам сперва необходимо совместно обеспечить его глобальную безопасность».

Читайте по теме: Искусственный интеллект разочаровал военных

Читайте также: