Вот мы тут говорили прошлый раз про ИИ, его возможности и риски (конечно гипотетические) для юристов. Опять пугали общественность, так сказать. И нас конечно мягко, но уверенно поругивают за это. Мол против прогресса. И вообще нагнетаем на пустом месте – еще ничего не случилось, а мы уже вопросики каверзные задаем. Ну так вот вам забавная, недлинная и поучительная история про то, когда уже «случилось».
Как-то раз, в августе 2019 года, некий Роберто Мата путешествовал самолетом из Сальвадора в Нью-Йорк. И его там ненароком задело по колену сервировочной тележкой с едой и напитками. Ну, само собой г-н Мата был серьезно ранен, поэтому по прилету домой он нанял адвоката, который подготовил и подал иск к авиакомпании Avianca Inc. В принципе ничего необычного, по крайней мере для США. Но вот дальше начались чудеса юридической практики.
Когда юристы Avianca попросили федерального судью Манхэттена закрыть дело, адвокаты г-на Маты возражали и представили 10-страничный документ, в котором цитировались несколько аналогичных судебных решений. Были дела «Мартинес против Delta Air Lines», «Цихерман против Korean Air Lines» и, конечно же, «Варгезе против China Southern Airlines» с его научным обсуждением федерального закона и «негативным эффектом автоматического приостановления действия срока давности». Была только одна загвоздка: никто – ни юристы авиакомпании, ни даже сам судья – не могли найти эти решения или цитаты, приведенные в представленном брифе.
Как же так? Начали разбираться и выяснилось, что юрист, составивший документ, некий Стивен А. Шварц из фирмы «Levidow, Levidow & Oberman» использовал при подготовке к заседанию «программу искусственного интеллекта для проведения своих юридических исследований. И этот источник показал себя ненадежным». Короче ChatGPT. И тот ему все это ПРИДУМАЛ. С обоснованием и базой.
Надо отдать должное г-н Шварцу. Когда он все это осознал, то сдался на милость суда, заявив о своей ошибке. А куда деваться то. И ведь он стажер какой-нибудь и не мошенник. Реальный адвокат, вроде как занимается юридической практикой в Нью-Йорке в течение трех десятилетий. Объясняя судье П. Кевину Кастелю, он рассказал, что у него не было намерения обмануть суд или авиакомпанию. Просто он никогда прежде не использовал ChatGPT и «поэтому не знал о возможности того, что его содержимое может быть ложным». Он ведь даже попросил программу подтвердить, что эти случаи были реальными. и ЧЖПТ сказало, что «да» и перекрестилось.
В общем не все потеряно для юристов в век высоких технологий.
Следите за новыми постами в telegram, а также на нашем сайте, где мы рассказываем об арбитражной форензике и компьютерной экспертизе.