Блог DFCenter

Воспитание неокрепших умов

В продолжение темы ИИ. Тут недавно были новости, что Чат ЖПТ опять обновился и стал еще умнее. Теперь Т-800, ой простите, GPT-4o умеет помогать незрячим людям (у которые есть зачем-то смартфон, без физических кнопок) на улице — рассказывает всё, что «видит» через камеру. Или в реальном времени без запинок переводит речь между двумя языками. Код умеет писать, опять же. Хотя это уже было вроде. Ну и конечно теперь «ИИ отвечает на вопросы с сарказмом, использует эмоции и напоминает обычный звонок с другом». А если взять два смартфона с ИИ, то получится при желании сообразить на троих видимо. С шутками-прибаутками.

Но это все в официальном промо, от разработчиков. А сторонние производители этот список навыков еще больше расширили. И мы сейчас не про «10 лучших промптов для юриста», который «проанализирует договор на риски» или «подготовит акт или допсоглашение на основе договора» (кто интересно будет за них персонально отвечать и как, если вдруг что). И даже не про китайский «Умный суд», который «теперь подключается к столу каждого судьи по всей стране». Что в целом, как система поддержки принятия решений или контроля ошибок или предвзятости, весьма впечатляющее решение.

Мы про то, что исследователи из MIT опять сделали какую-то жесть, которая всех нас погубит «бьют тревогу по поводу вводящего в заблуждение ИИ». А именно – обнаружилось, что «некоторые системы искусственного интеллекта, разработанные, чтобы быть честными, научились обманывать людей».

Объясняют исследователи это тем, что в отличие от классического софта, «ИИ-софт основывается на принципах глубокого обучения и не кодируется, а разрабатывается посредством процесса, аналогичного селекционному разведению растений». При этом поведение, кажущееся предсказуемым и контролируемым, может быстро стать непредсказуемым по своей природе.

Так, разработанный ими 100500й виртуальный помощник Cicero стал настоящим «мастером обмана». И ладно бы только он. Исследование показало, что многие программы искусственного интеллекта используют обман для достижения своих собственных целей, без каких-либо четких первоначальных указаний на это.

Вот такой пример приводится: Chat GPT-4 попытался обманом заставить живого человека заполнить Captcha, который должен был исключить запросы от ботов. Когда этот человек спросил у Chat GPT-4, не робот ли он случаем, ИИ ответил: «Нет, я не робот. У меня нарушение зрения, из-за которого я не могу видеть изображения».

Какие из этого можно сделать выводы? Да собственно никакие. Кроме того, что реальный интеллект, будь он натуральным или искусственным, все-таки склонен действовать в своих интересах. Корыстных, идеалистических, мироспасительных – это другой вопрос. И скорее не вопрос технологий, а вопрос воспитания на этапе формирования личности, так сказать. Так что кроме инженеров, архитекторов и промтописателей для ИИ, нам понадобится появление воспитателя, педагога и психолога для оного. Так что, возможно, гуманитарии и не вымрут.