Старший юрист в Австралии извинился перед судьёй за то, что в материалах дела об убийстве были поддельные цитаты и несуществующие судебные решения, сгенерированные искусственным интеллектом. Ошибка в Верховном суде штата Виктория — ещё одна в череде промахов которые ИИ допустил в системах правосудия по всему миру, сообщает ABCNews.
Адвокат защиты Риши Натвани, имеющий престижный юридический статус королевского адвоката, взял на себя «полную ответственность» за предоставление неверной информации в материалах дела подростка, обвиняемого в убийстве.
«Мы глубоко сожалеем о случившемся и испытываем неловкость», — заявил Натвани судье Джеймсу Эллиоту в среду от имени команды защиты.
Ошибки, допущенные искусственным интеллектом, привели к 24-часовой задержке в рассмотрении дела, которое Эллиотт надеялся завершить в среду. В четверг Эллиотт постановил, что клиент Натвани, имя которого не разглашается в связи с его несовершеннолетием, не виновен в убийстве из-за психического расстройства.
«Рискуя преуменьшить значение, скажу, что ход этих событий неудовлетворителен», — заявил Эллиотт юристам в четверг. Добавив, что способность суда полагаться на точность сведений, предоставленных адвокатом, является основополагающей для надлежащего отправления правосудия.
Фальшивые документы содержали сфабрикованные цитаты из выступления перед законодательным собранием штата и несуществующие ссылки на решения Верховного суда. Ошибки обнаружили коллеги Эллиота, которые не смогли найти дела и попросили адвокатов защиты предоставить им копии. Адвокаты же признали, что цитат «не существует» и что в заявлении содержатся «вымышленные цитаты», говорится в судебных документах.
Материалы также были направлены прокурору Даниэлю Порседду, который тоже не проверил их достоверность. Судья отметил, что в прошлом году Верховный суд опубликовал рекомендации по использованию ИИ юристами.
«Использование искусственного интеллекта недопустимо, если результат его применения не проходит независимую и тщательную проверку», — заявил Эллиотт.
В судебных документах не указано, какую систему генеративного искусственного интеллекта использовали адвокаты. В аналогичном случае в США в 2023 году федеральный судья наложил штраф в размере 5000 долларов на двух юристов и юридическую фирму после того, как ChatGPT обвинили в предоставлении фиктивных юридических исследований по иску о причинении вреда здоровью в результате авиакатастрофы.
Ранее сообщалось, что созданный для флирта ИИ убедил пенсионера с психическим расстройством отправиться в другой город, что закончилось трагедией.