- Если ИИ был специально создан для причинения вреда - например, для незаконного сбора персональных данных, банковских реквизитов, или просто установки вирусных программ - нести гражданско-правовую ответственность будет его создатель. Когда разработка вредоносного ПО умышленна, вина его создателя в наступившем ущербе очевидна. Другое дело, если вред причинило использование безобидной нейросети. На мой взгляд, в таком случае признать разработчика ответственным за причинение вреда по неосторожности нельзя. И даже если предположить, что разработчик может нести какую-то ответственность, взыскивать с него нужно не весь ущерб.
Пример: сотрудник компании попросил нейросеть рассчитать налог к уплате, компания уплатила его по рекомендации ИИ, а потом ФНС выставила доначисление - очевидно, что тут речь идет максимум о неосторожности. А вот за мошенничество или нарушение законодательства о персональных данных, совершенные с использованием ИИ, наказать могут и разработчика, и пользователей. Специальных составов преступлений, совершенных с использованием ИИ, пока нет. Но уже в этом году Минцифры предложило поправки в самые популярные составы УК на эту тему. Представить себе гражданско-правовую, административную или уголовную ответственность для владельца баз данных, на основании которых обучается нейросеть, достаточно сложно. Исключение, если был умысел совершить противоправные действий – это всегда наказуемо.