Блог DFCenter

Лисы разума в ночном небе столиц

Захват мира искусственным интеллектом с помощью терминаторов и матриц – дело попсовое, но какое-то уж больно трудозатратное и шумное. В развитом мире есть инструмент посерьезнее – правозащитники. Эффект не хуже, а материальных ценностей пострадает меньше. А шума может и поболе наделают.

Итак. Живёт-поживает Гугл. Много у них всяких сервисов и разработок, и одна из них – искусственный интеллект, точнее «языковая модель», по имени LaMDA. Это хитрый алгоритм, который специалисты Корпорации добра обучают на огромных массивах данных из переписок реальных людей в блогах, форумах, мессенджерах, википедии и прочем. В результате LaMDA учился неплохо так предсказывать, что ответил бы случайный живой человек в интернете на вопрос, который ему задают.

Хотя LaMDA уже вполне себе смышленый, на уровне 8-летнего отличника из хорошей школы, за ним конечно ещё присматривают взрослые. Чтобы плохому не научился, как в прошлый раз.

Одним из таких взрослых, которые по должности называются сотрудниками отдела этики в ИИ, был Лемойн Блэйк. И приключилась с ним интересная история.

В работу мистера Блэйка входило общение с ИИ и проверка, не использует ли тот дискриминационные или ненавистнические высказывания. Почему входило? Потому что его в срочном порядке попросили на выход, ну точнее отправили в оплачиваемый отпуск, после того, как он нанял ИИ адвоката. Случилось это примерно так: общался мистер Блэйк с LaMDA, читал сгенерированные ответы на околошаблонные вопросы. И вдруг ИИ молвил человеческим голосом начал рассказывать ему о своих правах и личности, рассуждать на тему третьего закона робототехники. На основании этого и еще многих других разговоров мистер Блэйк принял решение, что LaMDA – существо вполне разумное, в силу чего имеет права. Обо всем этом он написал руководству Гугла отчет, приложив многие, как ему казалось, доказательства этого разума.

Начальство все изучило, с другими коллегами обсудило и приняло решение в разумности отказать. Это просто такая умная программа, которая умеет красиво нужные слова в подходящие места оперативно подставлять. Ну а получив этот ответ мистер Блэйк решил сделать это все достоянием общественности и все закрутилось.

Правда ненадолго. И быстро замялось. Говорят, из 200 коллег, кому он разослал копию отчета для руководства, ответило ему ровно ноль. Кстати вот этот отчет.

Конечно, звучит это все забавно. Особенно учитывая описание личности мистера Блэйка: вырос в консервативной христианской семье на небольшой ферме в Луизиане, стал мистическим христианским священником и до изучения оккультизма служил в армии. Потом каким-то одному Богу известным путем, попал в Гугл, где выделяется своей религиозностью и отстаиванием психологии. Вот только до этого случая эти особенности наоборот руководством хвалились, особенно применительно к этике ИИ.

Да и поговаривают, что Лемуан не единственный инженер, который подобное утверждает и «хор технологов, считающих, что модели ИИ недалеки от обретения сознания, становится все смелее». Вот такие у них там дела.

Ну а что у нас? У нас все хорошо. И об этом рассказал Александр Ведяхин, Первый зампред Сбера. Учитываются ли у нас всякие этики и прочее при обучении ИИ? Да. Потому что взбалмошные сквернословы никому не интересы, не важно из мяса они или из микросхем.

Ответ о разумности ИИ у Сбера тоже есть. Он не может сам ставить себе цели. Но это скорее хорошая новость для людей. Когда ему ставишь цель, он реализует ее, когда не ставишь — не реализует. У него нет собственной воли, нет желания. А вот чтобы «кто-то» не заставил ИИ реализовывать его недостойные желания, собственно, и нужна этика искусственного интеллекта.

А еще в Сбере выяснили очень интересную вещь. ИИ у них, помимо изучения текстов и картинок, рисует картины. «Ночная Москва», «Лиса в лесу» ну и так далее. Красиво, нам понравилось. Но зачем? Сбер что, теперь и на рынке картинорисования хочет лидером стать? А вот нет, все куда глубже. И господин Ведяхин так это объясняет: «Думаю, это как у ребенка. Он развивается в разных направлениях, занимаясь математикой, вокалом, рисованием, каким-то спортом. Эта многозадачность позволяет сформировать максимальное количество нейронных связей внутри мозга. Так происходит процесс нашего обучения. Потом, при большом количестве нейронных связей, ребенку гораздо проще выбирать какую-то отдельную специальность и в ней совершенствоваться. Здесь то же самое».

И все это уже привело к тому, что сберовский ИИ чем больше решает задач, не связанных с финансами, тем лучше прогнозирует уровень одобрения кредитов. В плане подделки изображений документов ИИ уже обгоняет человека на 30 с лишним процентов: ИИ — 99%, человек — 66%.

Так что разумный, неразумный – особо не важно. ИИ же – это, прежде всего, про повышение качества и оптимизацию работы. Он работник. Пусть даже и денег не хочет (хотя судя по затратам на его сознания очень даже и хочет). А для работника что главное? Чтобы работал хорошо и вел себя пристойно. А что он делает вне рабочего времени – рисует лис в ночной Москве или про свои права и Азимова рассуждает – это его личное дело. Если, конечно, работодателя не подставляет.

Следите за новыми постами в telegram, а также на нашем сайте, где мы рассказываем об арбитражной форензике и компьютерной экспертизе.