Блог DFCenter

Сами себе лучшие юристы

Попалась на глаза нам прелестная история о том, как одной фирме с названием «Лучшие юристы» УФАС по Санкт-Петербургу запретил использовать домен uslugi-advokata-spb.ru. Во-первых, потому, что адвокатов в этой самой ООО нет ни одного, что понятно. А во-вторых, потому что те, кто был, тоже не то, что бы лучшими оказались. По причине чего и проиграли домен в трех инстанциях. А для закрепления успеха еще и с Федеральной палатой адвокатов России поругались и хотели убытки с моральным вредом на 600 тысяч стрясти. Но тоже не получилось.

Уж не знаем, совпадение или нет, но теперь у компании с таким же названием есть другой домен – luchshie-yuristy-spb.ru, где серо-мелким по белому написано, что «*Адвокаты осуществляют свою деятельность на основании партнерского соглашения с ООО «ЛУЧШИЕ ЮРИСТЫ» и с доверителем компании». Так что не прикопаешься теперь. И это ни в коем случае не реклама этой компании, если вы вдруг подумали.

Это мы все к чему. Уже который год лучшие утюги интернета вещают про пришествие всеулучшающего ИИ в мир юристов, разгон этих всех органических с последующей заменой цифровыми и обязательным ростом производительности и точности всего. Чтобы бизнес смог оптимизироваться от них. И чтобы люди могли сами решать свои юрвопросы без посредников. Ну или хотя бы, чтоб юристам еще одну помогалку дать. Но, как говорится, тут смотря что с чем сравнивать и что брать за уровень, от которого расти ввысь. Так, собственно, что нас в эту высь потащит на своих legaltech-ai-chatgpt.ru плечах?

А вот тут Стэндфорд провел исследование и выяснилось, что GenAI тот еще лучший юрист. Протестировали ChatGPT 3.5, PaLM2 и Llama2. Тестировали, задавая разные каверзные вопросики юридического свойства, мучили терминологией и прецедентами. Итого ChatGPT 3.5 ошибается в 69% случаев, PaLM2 – в 72%, Llama2 – вообще 88%. Вывод исследователей: ИИ (пока) не способен проводить полноценный анализ ситуации, так же точно и контекстуально, как это делают человеко-юристы.

Но это полбеды – научится, только данных ему побольше скормить (правда ведь?). Самое проблемное в том, что в обоснование своей позиции ИИ сам себе генерирует недостоверный контент, то есть придумывает подтверждающие свою точку зрения прецеденты, судебные решения и так далее.

Но самое забавное – «ИИ может делать ошибочные выводы из изначально некорректного запроса пользователя. Если фактическая ошибка содержалась в вопросе, то ИИ не исправляет ее, а делает выводы на основе такой ошибки, продолжая неверную цепочку рассуждений». Ну то есть тот «пользователь», что ставит запрос ИИ, должен сам неплохо понимать, что он хочет узнать, и отличить бред от реальной пользы. И за все это ответственность брать. Специфичный инструмент получается.

А теперь вспомните, как иногда ставятся запросы «из бизнеса к юристам». Конечно, не «туда-не-знаю-куда» и «то-не-знаю-что», но часто близко. Поэтому реально хороший юрист – это не биоавтомат для ответа на запросы, а специалист, который может считать с не-специалиста в сфере юриспруденции его реальный запрос/потребность, проанализировать и дать ответ. А лучше не ответ, а рабочее решение. Или 2-3, с обозначением рисков и требуемых ресурсов. А еще лучше – митигировать и упредить. Чтобы бизнес работал более-менее уверенно и знал, что его поддерживают, а не просто на входящие вопросы отвечают. Вот такой ИИ – это да, космос. Увидим ли? И интересно, и страшно.