По словам ученых, языковая модель представляет собой математическую систему, анализирующую частотность событий. То есть алгоритмы выбирают не достоверный вариант, а тот, который наиболее правдоподобный и часто встречающийся. Невозможно написать код, который научит искусственный интеллект критически мыслить, сделает его этичным.
Например, в настоящее время технологии искусственного интеллекта применяются для диагностики заболеваний или в управлении беспилотными автомобилями. Однако их ошибки могут привести к неверному назначению лечения, авариям и ущербам, в случае если нейросеть неверно оценила дорожную обстановку.
Ученые для решения проблемы работы с ИИ предлагают междисциплинарный подход. По их словам, проблема когнитивных искажений ИИ — не инженерная, а антропологическая. И решать ее должны не только разработчики, но и философы, социологи, психологи, правоведы.
«Нужно понимать природу стереотипов, а не просто пытаться «обезвредить» данные. Важно не устранить искажения полностью, а научиться их обнаруживать, измерять и ограничивать», — отметили в вузе.
Специалисты отмечают, что для совершенствования нейросетей ключевое значение также имеет прозрачность и верификация. Необходимо проектировать системы так, чтобы решения ИИ можно было проверять — даже если сам процесс остается «черным ящиком».
Поэтому необходимо внедрение процедур аудита, обязательной валидации на контрпримерах и человеческого контроля в критических сферах. Кроме того, важно обучать самих пользователей. Пока люди слепо доверяют нейросетям, любое техническое решение бессмысленно.
«Необходимо формировать критическое мышление не у алгоритмов, а у тех, кто ими пользуется», — добавили в университете.
