ChatGPT обманул опытнейшего адвоката, придумав прецеденты, которых в реальности не было. Теперь адвокату грозит наказание

- КиТ :: Будь в СЕТИ!

Адвокат из США применял ChatGPT при подготовке судебного иска. Чат-бот оказался плохим помощником с «богатой фантазией». Юриста с тридцатилетним стажем, который, по собственному признанию, не знал, что разработка OpenAI склонна сообщать недостоверную информацию, вероятно, ждет наказание. Плохой помощник юриста Американский юрист (Steven Schwartz) использовал популярного диалогового чат-бота ChatGPT для подготовки документов по иску к компании Avianca, пишет New York Times. Попытка упростить свой труд с помощью алгоритмов искусственного интеллекта обернулась для адвоката катастрофой – разработка OpenAI снабжала его недостоверной информацией, о чем опытный юрист даже не догадывался. Теперь ему грозит наказание.

Сотрудник юридической фирмы Levidow, Levidow & Oberman Шварц , посвятивший последние 30 лет своей жизни адвокатской практике в Нью-Йорке, представлял интересы (Roberto Mata) в судебном процессе против колумбийской авиакомпании Avianca.

Мата, по его собственному заявлению, в ходе полета получил травму по вине сотрудника компании-перевозчика в 2019 г. – бортпроводник ударил его в колено металлической тележкой, которая используется для обслуживания пассажиров в полете. Это побудило мужчину обратиться в суд с иском к Avianca при поддержке Levidow, Levidow & Oberman.

Дело, которого нет

Юристы Avianca решили в корне задушить разбирательство и попросили федерального судью (Kevin Castel) отказать в рассмотрении дела на основании истечения срока исковой давности. Однако адвокаты пострадавшего пассажира сослались на прецедент – привели в пример сразу несколько похожих дел, рассмотрение которых в прошлом завершилось в пользу истца.

В частности, в переданных Шварцем в суд документах значились такие дела как «Мартинес против Delta Air Lines», «Зикерман против Korean Air Lines» и «Варгезе против China Southern Airlines». Как выяснилось впоследствии, автор документов решил не тратить свое время на поиски по базам юридической информации вроде LexisNexis или Westlaw, а прибегнул к помощи диалогового чат-бота ChatGPT компании OpenAI. Тщательно перепроверять полученные от бота данные опытнейший юрист Шварц не стал, а сразу же внес ее в документы, которые затем были переданы в суд.

Беспрецедентная ситуация

Судья потребовал от Шварца объяснений, которые тот и представил в письменной форме. Из него следовало, что причина, по которой суд не преуспел в поиске дел, упомянутых адвокатом в документах, представители истца, оказалось предельно простой – в действительности они никогда не существовали, и ChatGPT их просто «выдумал», пытаясь поддержать позицию истца.

Адвокат выразил сожаление по поводу своего решения положиться на ИИ-сервис. Он заявил, что никогда до этого случая не использовал ChatGPT и поэтому был не в курсе того, что текст, генерируемый ботом, может содержать ложные сведения.

По словам Шварца, он пытался проверить подлинность выданных ботом данных – причем с помощью все того же бота: адвокат поинтересовался у ChatGPT, являются ли дела, на которые тот ссылается, реально существующими. Ответ диалогового бота был максимально емким и кратким: «Да».

Судья Кастель охарактеризовал ситуацию в которой юридические документы изобилуют «ложными судебными постановлениями, ссылками и цитатами» как беспрецедентную.

Суд назначил дисциплинарные слушание на 8 июня 2023 г., в ходе которого будут обсуждаться потенциальные санкции в отношении Шварца и его коллеги по юридической фирме (Peter LoDuca).

Что такое ChatGPT

ChatGPT – чат-бот с искусственным интеллектом на базе языковой модели GPT. Он работает с ноября 2022 г. и принадлежит американской компании OpenAI, в которую инвестирует корпорация Microsoft.

В декабре 2022 г. CNews писал о том, что в Google не на шутку испугались ChatGPT, посчитав, что тот в перспективе мог бы лишить компанию значительной доли рекламной выручки.

Позднее выяснилось, что бот готов помочь написать дипломную работу, которая удовлетворит аттестационную комиссию российского вуза и вообще обрел немалую популярность среди студентов учебных заведений по всему миру.

Кроме того, нейросеть способна обнаруживать программные уязвимости, предлагать варианты их устранения и даже самостоятельно писать код, хоть и далеко не безупречно. Применение ChatGPT нашли и злоумышленники, использующие инструмент для создания вредоносного ПО и реализации фишинговых схем.

ПодпискаБудь в СЕТИ! Новости социальных сетей - всегда актуальное
 
Группы: ВК | OK | Tg