Деловое обозрение Первый ульяновский журнал для бизнеса и о бизнесе

ИИ на юридическом. Ответственность за ущерб

В 2025 году российский бизнес столкнулся с парадоксом: искусственный интеллект, пророчивший невероятную эффективность, стал источником новых юридических рисков и финансовых потерь. В условиях, когда комплексное регулирование ИИ в России только формируется, компании вынуждены самостоятельно искать ответы на ключевые вопросы: кто ответит за ошибку алгоритма, кому принадлежат права на созданный ИИ контент и как использовать технологии, не нарушая закон.

Фото: freepik

В российском правовом поле ответственность за действия ИИ полностью лежит на компании-пользователе, а не на разработчике алгоритма. Юристы единодушны: слепая вера в «объективность» машины недопустима и опасна. С точки зрения закона ИИ — это лишь инструмент, подобный молотку или автомобилю. Если молоток выскользнул из рук и нанес ущерб, отвечает тот, кто его держал.

Яркой иллюстрацией служат прецеденты из-за рубежа, когда адвокаты представили в суд заключения, сгенерированные ChatGPT и Google Bard, с вымышленными ссылками на дела. Итогом стали крупные штрафы и репутационные потери. Эти случаи доказывают: любой вывод ИИ требует обязательной, финальной верификации специалистом. Окончательное решение и полную ответственность всегда несет человек.

Что касается разработчиков, то в России действует механизм «экспериментальных правовых режимов» («регуляторных песочниц»). В их рамках участники обязаны страховать ответственность за потенциальный вред от применения ИИ. Предлагается, что в случае инцидента в течение 30 дней будет формироваться специальная комиссия для установления причин и виновных.


Суворов Андрей
юрист GSL LAW & CONSULTING

- Если ИИ был специально создан для причинения вреда - например, для незаконного сбора персональных данных, банковских реквизитов, или просто установки вирусных программ - нести гражданско-правовую ответственность будет его создатель. Когда разработка вредоносного ПО умышленна, вина его создателя в наступившем ущербе очевидна. Другое дело, если вред причинило использование безобидной нейросети. На мой взгляд, в таком случае признать разработчика ответственным за причинение вреда по неосторожности нельзя. И даже если предположить, что разработчик может нести какую-то ответственность, взыскивать с него нужно не весь ущерб.

Пример: сотрудник компании попросил нейросеть рассчитать налог к уплате, компания уплатила его по рекомендации ИИ, а потом ФНС выставила доначисление - очевидно, что тут речь идет максимум о неосторожности. А вот за мошенничество или нарушение законодательства о персональных данных, совершенные с использованием ИИ, наказать могут и разработчика, и пользователей. Специальных составов преступлений, совершенных с использованием ИИ, пока нет. Но уже в этом году Минцифры предложило поправки в самые популярные составы УК на эту тему. Представить себе гражданско-правовую, административную или уголовную ответственность для владельца баз данных, на основании которых обучается нейросеть, достаточно сложно. Исключение, если был умысел совершить противоправные действий – это всегда наказуемо.


Ярослав Клейменов
бизнес-юрист, кандидат юридических наук, преподаватель высшей школы:

- Ответственность за действия всегда несет организация или человек, принявший решение или совершивший такое действие. ИИ самостоятельно не принимает решений, если совершены какие-то действия или принято решение, оно всегда санкционированное конкретным лицом, это лицо и понесет ответственность в рамках законодательства (я намеренно не разделяю ответственность на категории, поскольку это актуально независимо от них).

Войти с помощью учетной записи uldelo.ru


Войти с помощью аккаунта в социальных сетях: