Блог DFCenter

Советуешь – отвечай

2023-02-20 15:38
Кто же мог подумать, что в наше время очередная диковинная штука в интернете будет использоваться не для научных, образовательных и прочих всеблагих целей, а для банальных увеселений? Иногда путем троллинга и прилюдного тыкания палочкой.

Видимо, как раз из таких идеалистов те, кто в Microsoft отвечает за аналог ChatGPT – Bing. После того, как это самый Bing запутался в датах и показал свой непростой характер, в блоге разработчиков пояснили, что чтобы такое впредь не повторилось, они добавят кнопу «Цензура» – «переключатель, который даст пользователям больше контроля над точностью и креативностью ответа применительно к конкретному запросу».

Но на весь интернет такой переключатель пока не поставишь. Тем более, что сам Отец его – Винтон Серф – что-то не воодушевлен пока чатботами. Выступая на конференции в Калифорнии, Серф заявил, что чатботы с искусственным интеллектом обладают «этическим изъяном», который, как он надеется, люди примут во внимание, прежде чем начнут вкладывать деньги в эту технологию. Потому что «какими бы крышесносными они ни казались», всегда найдутся «люди, которые будут использовать эту технологию и станут преследовать свои эгоистические цели, а не действовать во благо общества».

Благо обществу действительно под вопросом. Не понятно, кто же должен избавлять ботов и разного рода ИИ от всяческого негатива, проводя очистку датасетов для их обучения. Ну и как в свое время в истории с айфонами и детьми или модерацией контента для Фэйсбука, нормализацию датасетов для ИИ глобальные корпорации тоже превратили в очередной способ угнетения людей из бедных стран. Которые за копейки целый рабочий день убирают из датасетов описания издевательств над детьми, зоофилию, описания пыток, инцеста и так далее. Ну и на психике этих работников такое, само собой, сказывается. Делать AI этичным и безопасным – задача архиважная. Но можно ли ее решать таким способом?

С другой стороны – а как по-другому? Иных способов не придумали. Ведь кто-то же должен нести ответственность за контент, который алгоритмы рекомендуют пользователям. Интернет-гиганты и прочие разработчики ИИ очень хотят минимизировать свои риски. А риски такие, что ставят под угрозу, например, доход Google от рекламы в размере $168 млрд.

21 февраля 2023 года Верховный суд США рассмотрит дело «Гонсалес против Google» о расширении ответственности интернет-платформ за публикуемые на них материалы. Суть в том, что семья погибшей в теракте, устроенном одной запрещенной группировкой, гражданки США Ноэми Гонсалес обвиняет Google и Facebook, в том, что эти корпорации позволяют злодеям и убийцам использовать свои платформы для публикации экстремистского контента.

И мало того, что позволяют, так еще и продвигают этот контент, разрабатывая на этом деньги. Ведь «Google разделяет прибыль с экстремистскими группами. Размещая свои ролики на сервисах, таких как YouTube, экстремисты подключают рекламу Google, от которой компания тоже имеет прибыль», – утверждает адвокат семьи.

Все это сейчас происходит наподобие того, как у нас иногда уходят от ответственности информационные посредники. Только, правда, у нас – всего лишь по поводу контрафакта. А вот законодательство США освобождает интернет-платформы от ответственности за любой контент, который публикуют третьи лица (раздел 230 закона «О пристойности в коммуникациях»). Но вот в рекомендациях – это уже другое. Рекомендации уже ИИ самой площадки формирует и предлагает, а не какое-то третье лицо. Так что тут на посредничество ссылаться не верно.

В Google пока отказались комментировать ситуацию. Но после 21 февраля рынок рекламы в США может скорректироваться, как и стоимость акций Alphabet. Да и глобальные правила во всем интернете могут поменяться.
Следите за новыми постами в telegram, а также на нашем сайте, где мы рассказываем об арбитражной форензике и компьютерной экспертизе.