Блог DFCenter

ГаллюцинацИИ и безопасность

Посреди зимы 22-23 ЧатГПТ поглотил лучшие умы прогрессивного человечества. Это вам не какие-то там клабхаусы и нфт. Это инновация уровня самого интернета! Оно уже и диплом написало, и медицинский экзамен сдало, и собеседование в Google прошло. И вся это активность начала пугать тех, кто ранее вроде бы радовался, что вот их то уж точно никакой ИИ не выселит с работы (в отличии от этих ваших бухгалтеров-юристов-дизайнеров, чью работу «легко алгоритмизировать») – айтишников.

СЕО NVIDIA Дженсен Хуанг заявил, что активно развивающаяся область искусственного интеллекта требует правового регулирования и соблюдения социальных норм, чтобы чего не вышло плохого. И эти нормы уже пора бы начать формулировать.

Прабхакар Рагхаван из Google пошел еще дальше. Утверждает, что эта «разновидность ИИ иногда приходит к тому, что мы называем галлюцинациями. Это выражается в том, что машина даёт убедительный, но полностью выдуманный ответ». А поскольку люди в Google серьезные, слова на ветер не бросают, то сразу же подтвердили это примером: выкатили собственного чат-бота Bard, который нагаллюцинировал прямо сразу же в рекламном ролике, дав явно недостоверный ответ на вопрос по астрономии. Астрономы обиделись и акции владеющего Google холдинга Alphabet ушли вниз на 8%.

И пока айтишники разбираются между собой, у кого ИИ адекватнее, смотрят на все это юристы и потирают руки – ведь работы для них будет уйма. Например, компания Getty Images (американское фотоагентство, владеет одним из крупнейших в мире банком изображений в более 200 млн фотографий) подала иски против Stability AI (создатели ИИ Stable Diffusion для генерации изображений). Утверждают, что Stability AI использовала более 12 млн изображений из фотобанка Getty без разрешения и оплаты, собственно на этом и построив свой прибыльный бизнес. А на самом деле это никакой не бизнес, а «наглое нарушение авторских прав в ошеломляющих масштабах».

И надо отдать должное Getty – они уверяют, что затеяли все это не ради только возмещения финансового ущерба, у тем более не для остановки разработки ИИ, а для создания нового правового статус-кво. Как в свое время лейблы договорились с Napster и Spotify.

Какие перспективы? Никто не знает. Тут и «законодательство, касающееся нейросетей для генерации контента, ещё не проработано», и «суд, который выбрала Getty, загружен работой, и на рассмотрение дела могут уйти месяцы».

А пока в Getty борются как могут сами – с осени 2022 года там уже запрещена загрузка и продажа иллюстраций, сгенерированных нейросетями. Но не из-за нелюбви к ним, а по сугубо тривиальным и понятным причинам – из-за опасений в законности контента, созданного ИИ. И такой же запрет ввели и другие фотобанки: Newgrounds, PurplePort и FurAffinity.

Что же так напугало фотографов-дизайнеров? Да то же, что и айтишников. Точнее ту ее часть, которая смотрит на свою работу (и жизнь вообще) чуть шире непосредственных должностных обязанностей.

Дело в том, что прежде чем любой ИИ что-то сам сможет генерировать, его нужно обучить. Вот тот же ChatGPT скушал минимум 300 миллиардов слов, извлеченных из Интернета. Это книги, статьи, веб-сайты и (!) сообщения, включая личную информацию. Получала ли компания OpenAI (авторы ChatGPT) на это согласие и от кого? И вот эти мысли начинают всплывать то там, то тут.

Основные аргументы-вопросы:

1. Пользователей не спросили, может ли OpenAI использовать наши данные. Это явное нарушение конфиденциальности, особенно когда это идентифицирующие данные.

2. Даже если данные общедоступны, их использование может нарушить то, что мы называем контекстуальной целостностью. Он требует, чтобы информация о лицах не раскрывалась вне контекста, в котором она была первоначально получена.

3. Кроме того, OpenAI не предлагает отдельным лицам никаких процедур, позволяющих проверить, хранит ли компания их личную информацию, или запросить ее удаление. Это право гарантировано, например, тем же GDPR.

4. Право на забвение. Особенно важно в тех случаях, когда информация неточна или вводит в заблуждение.

5. Ну и конечно данные, на которых обучался ChatGPT, могут быть защищены авторским правом.

А, еще же «слабая политика конфиденциальности». Причем настолько слабая, что такое само по себе не случается. Посудите сами, примеры отличные. «Адвокат может предложить ChatGPT просмотреть проект соглашения о разводе или программист может попросить проверить фрагмент кода. Соглашение и код, в дополнение к опубликованным эссе, теперь являются частью базы данных ChatGPT. Это означает, что их можно использовать для дальнейшего обучения инструмента и включать в ответы на подсказки других людей».

И это еще не все. OpenAI собирает «IP-адреса пользователей, тип и настройки браузера, а также данные о взаимодействии пользователей с сайтом, включая тип контента, с которым взаимодействуют пользователи, используемые ими функции и действия, которые они предпринимают. Он также собирает информацию о действиях пользователей в Интернете с течением времени и на разных веб-сайтах. Вызывает тревогу то, что OpenAI заявляет, что может передавать личную информацию пользователей без дополнительного извещения третьим сторонам, для достижения своих бизнес-целей». О как.

Ну что. Ждем. Готовимся судиться. А перед, конечно же, этим собрать доказательства.
Следите за новыми постами в telegram, а также на нашем сайте, где мы рассказываем об арбитражной форензике и компьютерной экспертизе.