Пока творческая молодёжь (до 45 лет) рисует себе с помощью ИИ аватарки в стиле японской мультипликации, деловые персонажи уже нашли куда более интересное применение инноваций в сфере картинкостроения. Впрочем, как и всегда. На Техкранче уже лежат истории (и не удивимся, если и целые мануалы с промптами), как ChatGPT делает весьма себе реалистичные чеки из ресторанов. Зачем? А чтобы потом их в налоговую отправлять и эти никогда не существовавшие траты в суммы расходов списывать. Вот такие у них там видимо дырки в бух-налог учете, что это срабатывает. Так ли это у нас – не знаем. Хотя технологии – они же про трансграничное и мультикультурное.
Хотя это и похоже (немного) на какое-то больше шуточное, но в целом-то проблема налицо – как и любое другое изобретение человечества, начиная с палки-копалки, вполне полезную и мирную штуку обязательно начнут использовать в негативных целях. Причем не «рано или поздно», а практически сразу. Что с этим делать, особенно когда ИИ начнет отвечать за действительно серьезные направления работы? А ведь он уже это делает, судя по заявлениям даже не иностранных корпораций, а вполне себе отечественных банков.
Вот, например, первый заместитель председателя правления Сбербанка Александр Ведяхин говорит, что если раньше боялись, что ИИ заменит людей, то теперь генеративный искусственный интеллект (GenAI) вроде как никого не заменит, а расширит возможностей этих людей. Расширит на несколько триллионов долларов по миру, а в России должен обеспечить прирост ВВП не менее 11,2 трлн руб. к 2030 году.
И, само собой, все это не может быть без регулирования. Потому в декабре 2024 года российский Альянс в сфере искусственного интеллекта (есть и такой) представил «Белую книгу этики ИИ». В ней – ответы на ключевые вопросы, рекомендации на основе исследований и реальных кейсов. Например, что «внедрение ИИ не приведет к массовой безработице, хотя структура рынка труда, безусловно, изменится, и он станет более гибким и устойчивым к кризисам. При этом людям важно постоянно совершенствовать свои цифровые навыки и использовать ИИ для повышения квалификации». Ага. Постоянно совершенствовать. Ну ну.
Так, а что с угрозами? Ну или хотя бы с проблематикой использования ИИ для «зловредных» целей.
В рамках законодательства об экспериментальных правовых режимах есть процедура выявления ответственных за инциденты, связанные с решениями на основе ИИ.
По ней, если случилось что-то причинившее вред «жизни, здоровью или имуществу человека либо имуществу юридического лица» … «в результате использования решений, разработанных с применением технологий искусственного интеллекта»…, то на этот случай есть инструмент в виде некой комиссии и проведения ею «исследования» такого инцидента. Само собой, чтобы понять причины и ответственных. Но при этом «необходимо исключить возможность незаконного привлечения к ответственности или причинения вреда деловой репутации разработчиков, пользователей, владельцев ИИ-систем». Незаконного – само собой. Но сперва, в любом случае, надо разобраться, что тут законное, а что нет.
А пока под это строят правовые институты и «участники рынка, эксперты и депутаты» обсуждают проект госрегулирования ИИ. В том числе про запрет систем с «неприемлемым уровнем риска», маркировку контента и ответственность разработчиков за вред, нанесенный их нейросетями. Но это, конечно, только начало долгого пути.
Но когда путь будет пройден (а это обязательно произойдет), как вы думаете, чем и какими методами будут проводиться вот эти все «исследования» на предмет, почему чей-то ИИ сделал «плохое» и кто его научил? Правильно – форензикой, самой что ни на есть компьютерной криминалистикой и экспертизой.
И, кстати, внутри крупных компаний и по их собственной инициативе, такие работы уже проводятся, и результаты вполне приемлемые для потенциального перехода в правовую плоскость.
Хотя это и похоже (немного) на какое-то больше шуточное, но в целом-то проблема налицо – как и любое другое изобретение человечества, начиная с палки-копалки, вполне полезную и мирную штуку обязательно начнут использовать в негативных целях. Причем не «рано или поздно», а практически сразу. Что с этим делать, особенно когда ИИ начнет отвечать за действительно серьезные направления работы? А ведь он уже это делает, судя по заявлениям даже не иностранных корпораций, а вполне себе отечественных банков.
Вот, например, первый заместитель председателя правления Сбербанка Александр Ведяхин говорит, что если раньше боялись, что ИИ заменит людей, то теперь генеративный искусственный интеллект (GenAI) вроде как никого не заменит, а расширит возможностей этих людей. Расширит на несколько триллионов долларов по миру, а в России должен обеспечить прирост ВВП не менее 11,2 трлн руб. к 2030 году.
И, само собой, все это не может быть без регулирования. Потому в декабре 2024 года российский Альянс в сфере искусственного интеллекта (есть и такой) представил «Белую книгу этики ИИ». В ней – ответы на ключевые вопросы, рекомендации на основе исследований и реальных кейсов. Например, что «внедрение ИИ не приведет к массовой безработице, хотя структура рынка труда, безусловно, изменится, и он станет более гибким и устойчивым к кризисам. При этом людям важно постоянно совершенствовать свои цифровые навыки и использовать ИИ для повышения квалификации». Ага. Постоянно совершенствовать. Ну ну.
Так, а что с угрозами? Ну или хотя бы с проблематикой использования ИИ для «зловредных» целей.
В рамках законодательства об экспериментальных правовых режимах есть процедура выявления ответственных за инциденты, связанные с решениями на основе ИИ.
По ней, если случилось что-то причинившее вред «жизни, здоровью или имуществу человека либо имуществу юридического лица» … «в результате использования решений, разработанных с применением технологий искусственного интеллекта»…, то на этот случай есть инструмент в виде некой комиссии и проведения ею «исследования» такого инцидента. Само собой, чтобы понять причины и ответственных. Но при этом «необходимо исключить возможность незаконного привлечения к ответственности или причинения вреда деловой репутации разработчиков, пользователей, владельцев ИИ-систем». Незаконного – само собой. Но сперва, в любом случае, надо разобраться, что тут законное, а что нет.
А пока под это строят правовые институты и «участники рынка, эксперты и депутаты» обсуждают проект госрегулирования ИИ. В том числе про запрет систем с «неприемлемым уровнем риска», маркировку контента и ответственность разработчиков за вред, нанесенный их нейросетями. Но это, конечно, только начало долгого пути.
Но когда путь будет пройден (а это обязательно произойдет), как вы думаете, чем и какими методами будут проводиться вот эти все «исследования» на предмет, почему чей-то ИИ сделал «плохое» и кто его научил? Правильно – форензикой, самой что ни на есть компьютерной криминалистикой и экспертизой.
И, кстати, внутри крупных компаний и по их собственной инициативе, такие работы уже проводятся, и результаты вполне приемлемые для потенциального перехода в правовую плоскость.