Одна из ведущих компаний в области разработки искусственного интеллекта (ИИ) Anthropic отказалась продолжать сотрудничество с Пентагоном. Как пишет Euronews, компания предоставляла военным эксклюзивный доступ к своему популярному чат-боту Claude, который работает на основе больших языковых моделей.
Этот искусственный интеллект используется в засекреченных информационных сетях, ядерных лабораториях, а также он предоставлял разведывательный анализ для министерства обороны. Однако Пентагону теперь придётся пользоваться услугами нового подрядчика: в Anthropic не нашли общий язык с военными.
Министр обороны США Пит Хегсет заявил, что Anthropic отказались предоставить военным «беспрепятственный доступ» к своим технологиям, так как, по словам компании, они могут быть использованы для «массовой слежки» и «разработки автономного оружия». В связи с этим Пентагон разорвал сотрудничество с компанией и начал переход на новую ИИ-систему, который планируется закончить в течение полугода.
Новым подрядчиком министерства обороны стал OpenAI, разработчик чат-бота ChatGPT. Ведомство подписало контракт с компанией всего несколько часов спустя расторжения сделки с Anthropic. Эксперты отмечают, что собранные при помощи Claude данные с большой вероятностью остаются в распоряжении Пентагона и смогут быть использованы новым искусственным интеллектом, который американские военные возьмут на вооружение.
Сообщается, что Claude применялся во время операции по захвату президента Венесуэлы Николаса Мадуро и ликвидации Верховного руководителя Ирана Али Хаменеи. Однако, учитывая то, как часто подобные боты «галлюцинируют» и совершают ошибки, эксперты в области обороны не уверены в том, насколько эффективны такие чат-боты в боевых условиях.
Как рассказала политолог Элке Шварц из Лондонского университет королевы Марии, эффективность чат-ботов в таких условиях тяжело оценить из-за «отсутствия прозрачности».
«В отличие от конкретных боеприпасов или систем физического вооружения, невозможно увидеть, для чего и как именно применяется искусственный интеллект, — заявила она. — Всё происходит в самом интерфейсе программы, то есть вне зоны видимости. Судя по всему, эти системы тестируются в реальных условиях, что вызывает этические опасения. Это ужасная практика, когда речь идёт о человеческих жизнях».
Ранее стало известно, что в работу британских судов начнут массово внедрять чат-бота Copilot от Microsoft.

ОпенАй формально тоже, но там тоже обратили внимание на странную скорость соглашения, за которую было бы сложно очертить моральные границы.