🤖 Кто ответит за дипфейк и вредоносный код? Субсидиарная ответственность ИИ-платформ
Нейросети пишут тексты, рисуют картины, генерируют видео и даже создают компьютерные вирусы. Миллионы людей пользуются этими инструментами ежедневно. Но что происходит, когда кто‑то использует мощную ИИ‑платформу для совершения правонарушения? Создаёт дипфейк с целью опорочить человека, распространяет фейковые новости, генерирует вредоносный код для кибератак. Пострадавший хочет возместить ущерб. Но к кому обращаться? Пользователь часто анонимен или неплатёжеспособен. В этой ситуации возникает закономерный вопрос: можно ли привлечь к ответственности саму ИИ‑платформу, которая предоставила инструмент и получает от этого коммерческую выгоду? Разбираемся, что говорит закон и какие механизмы защиты обсуждаются.
🧠 Что такое ИИ‑платформа и почему она не просто «хостинг»
Согласно российской Национальной стратегии развития искусственного интеллекта, ИИ — это комплекс технологических решений, имитирующих когнитивные функции человека (самообучение, поиск решений без заранее заданного алгоритма) и позволяющих получать результаты, сопоставимые с интеллектуальной деятельностью человека.
ИИ‑платформы (например, сервисы доступа к большим языковым моделям) не просто передают пользователю готовый продукт. Они предоставляют доступ к динамичной, самообучающейся системе, которая генерирует новый контент. По сути, платформа становится оператором сложной информационной инфраструктуры, извлекает из этого коммерческую выгоду и в значительной степени контролирует процесс.
Именно эта роль оператора, а не просто пассивного хранителя, ставит вопрос о её ответственности за то, как пользователи применяют предоставленный инструмент.
📜 Что такое субсидиарная ответственность
Субсидиарная ответственность — это дополнительная, «резервная» ответственность. Она наступает только тогда, когда основной нарушитель не может возместить вред. Если пользователь, который непосредственно совершил противоправные действия, скрылся, неплатежеспособен или его невозможно привлечь, потерпевший может обратиться к субсидиарному ответчику.
Статья 399 Гражданского кодекса РФ устанавливает: требование к субсидиарному ответчику предъявляется только после того, как основной должник отказался удовлетворить требование или не ответил в разумный срок.
В контексте ИИ‑платформ это означает, что платформа могла бы отвечать за вред, причинённый пользователем, если пользователь не в состоянии его возместить. Такой механизм позволяет защитить потерпевшего, не снимая ответственности с самого правонарушителя.
🏢 Какой статус у ИИ‑платформ сейчас
Сегодня большинство ИИ‑платформ, особенно те, которые дают пользователям генерировать и публиковать контент, могут быть отнесены к категории информационных посредников. Статья 1253.1 ГК РФ регулирует ответственность таких лиц за нарушение интеллектуальных прав в интернете.
Кто считается информационным посредником
- Лицо, передающее материал в сети.
- Лицо, предоставляющее возможность размещения материала.
- Лицо, предоставляющее возможность доступа к материалу.
Условия освобождения от ответственности
- Посредник не является инициатором передачи и не определяет получателя.
- Он не изменяет материал (кроме технических изменений).
- Он не знал и не должен был знать о неправомерности использования.
- При получении заявления правообладателя он своевременно принял меры для прекращения нарушения (удалил контент).
Главная проблема: статья 1253.1 ГК РФ распространяется только на нарушение интеллектуальных прав. А вред от использования ИИ может быть гораздо шире: клевета, мошенничество, распространение экстремистских материалов, нарушение чести и достоинства, вред жизни и здоровью. Для таких случаев специального регулирования ответственности информационных посредников нет.
Кроме того, ИИ‑платформа не просто пассивно хранит контент, созданный пользователем. Она предоставляет инструмент, который выступает со‑творцом, генератором. Модель ИИ, её архитектура, данные, на которых она обучалась, — всё это вклад платформы в конечный результат. Поэтому утверждать, что платформа не является «инициатором» и не «изменяет» контент, становится всё сложнее.
⚠️ Другие подходы: источник повышенной опасности
Иногда предлагают признать ИИ‑платформу источником повышенной опасности по аналогии с автомобилями или сложными механизмами. В таком случае ответственность владельца такого источника наступала бы по статье 1079 ГК РФ независимо от вины (строгая ответственность). Владелец освобождался бы от ответственности только при непреодолимой силе или умысле потерпевшего.
Плюсы
- Потерпевший получает гарантию возмещения вреда.
- Платформа стимулируется к максимальной безопасности.
Минусы
- Непонятно, кто считается владельцем: разработчик, оператор платформы или конкретный пользователь в момент использования.
- Категория «источник повышенной опасности» традиционно применялась к материальным объектам, создающим физический риск. Распространение её на информационные системы, причиняющие в основном нематериальный или имущественный вред, требует серьёзного обоснования.
- Строгая ответственность может затормозить развитие инноваций.
🎯 Аргументы в пользу субсидиарной ответственности
Субсидиарная ответственность выглядит более сбалансированным решением. Она не перекладывает всю ответственность на платформу, но создаёт «страховочную сетку» для потерпевших.
| Аргумент | Объяснение |
|---|---|
| Контроль и создание риска | ИИ‑платформа создаёт технологию, контролирует её, определяет архитектуру модели, подбирает данные для обучения, устанавливает правила использования и имеет техническую возможность модерировать контент. Она извлекает коммерческую выгоду. Логично, чтобы часть рисков ложилась на того, кто их создаёт и контролирует. |
| Асимметрия информации и ресурсов | Потерпевший и платформа находятся в неравном положении. Платформа обладает всей информацией о работе системы и данных о пользователе. Потерпевшему часто невозможно установить личность анонимного пользователя. Субсидиарная ответственность стимулирует платформу к эффективной идентификации пользователей и содействию в расследованиях. |
| Стимулирование превентивных мер | Зная, что при неустановлении или неплатёжеспособности пользователя отвечать придётся платформе, операторы будут внедрять разумные технические и организационные меры для фильтрации и модерации генерируемого контента (например, системы распознавания запрещённых материалов, блокировки запросов, генерирующих вредоносный код). |
| Справедливое распределение бремени | Основную ответственность несёт пользователь‑правонарушитель, что соответствует принципу вины. Но если он скрылся или неплатёжеспособен, оставление потерпевшего без возмещения несправедливо. Субсидиарная ответственность платформы, которая является бенефициаром всей экосистемы, помогает восстановить справедливость. |
🧩 Сравнение: как сейчас и как могло бы быть
| Критерий | Текущий статус | Предлагаемая модель субсидиарной ответственности |
|---|---|---|
| Ответственность за нарушение интеллектуальных прав | Есть, ограниченная (ст. 1253.1 ГК РФ), при соблюдении условий | Может быть сохранена или расширена |
| Ответственность за иные деликты (клевета, мошенничество, экстремизм, вред жизни и здоровью) | Прямо не предусмотрена, применяются общие нормы, что затрудняет взыскание | Платформа отвечает субсидиарно, если пользователь не может возместить вред |
| Обязанность платформы | По требованию удалять запрещённый контент (ст. 15.7, 15.1-15.8 ФЗ об информации) | Дополнительно — внедрять технические средства фильтрации, идентифицировать пользователей |
| Основание ответственности | Вина при неисполнении обязанностей (административная, редко гражданская) | Субсидиарная ответственность за вред, причинённый пользователем, при невозможности взыскания с него |
📌 Примеры из жизни (гипотетические, но реалистичные)
📌 Пример 1. Дипфейк с клеветой
Пользователь с помощью ИИ‑платформы создал видео, в котором лицо известного человека говорит порочащие его слова. Видео разошлось в интернете, нанесён серьёзный ущерб репутации. Установить личность пользователя не удалось (он использовал VPN и одноразовую почту). Потерпевший требует возмещения морального вреда. Если бы действовала субсидиарная ответственность, платформа, не сумевшая идентифицировать пользователя, отвечала бы вместо него.
📌 Пример 2. Генерация вредоносного кода
Злоумышленник с помощью ИИ‑платформы, генерирующей программный код, создал программу‑вымогатель, которая атаковала несколько компаний. Ущерб составил миллионы рублей. Пользователь оказался неплатёжеспособным. Платформа, зная, что её инструмент часто используется для создания вредоносного ПО, не внедрила фильтры для блокировки таких запросов. В рамках субсидиарной ответственности платформа могла бы быть привлечена к возмещению ущерба.
📌 Пример 3. Распространение экстремистских материалов
Пользователь с помощью нейросети сгенерировал текст с призывами к экстремистской деятельности и опубликовал его. Роскомнадзор направил платформе требование об удалении. Платформа удалила материал, но не сообщила правоохранительным органам данные пользователя (которые у неё были). В результате пользователь остался безнаказанным. Субсидиарная ответственность стимулировала бы платформу к активному содействию в установлении нарушителя.
🔮 Взгляд в будущее
В России уже введено экспериментальное правовое регулирование в сфере ИИ (Федеральный закон № 123‑ФЗ) в Москве, но вопрос ответственности платформ пока не решён. На международном уровне Европейский Союз готовит Акт об искусственном интеллекте (AI Act), который классифицирует системы ИИ по уровню риска и накладывает на операторов соответствующие обязанности.
В научной среде обсуждаются разные подходы: от признания ИИ‑платформ информационными посредниками с расширенными обязанностями до введения специального регулирования, включающего субсидиарную ответственность.
Главная задача — найти баланс. С одной стороны, нельзя тормозить развитие технологий чрезмерными требованиями и риском огромных убытков для платформ. С другой стороны, нельзя оставлять потерпевших без защиты, когда мощный инструмент используется во вред.
🎯 Что важно запомнить
- Субсидиарная ответственность означает, что ИИ‑платформа отвечает за вред, причинённый пользователем, только если сам пользователь не может его возместить.
- Сейчас такая ответственность прямо не предусмотрена (кроме нарушения интеллектуальных прав, где действуют особые условия для информационных посредников).
- Основные аргументы в пользу введения субсидиарной ответственности: контроль платформы над рисками, асимметрия информации, стимулирование превентивных мер и справедливость.
- Альтернативный подход — признание ИИ‑платформы источником повышенной опасности, но это более жёсткая мера, которая может затормозить инновации.
- В ближайшие годы вероятно появление специального регулирования, которое определит правила ответственности за вред, причинённый с помощью искусственного интеллекта.
Пока законодательство находится в стадии формирования, пользователям и платформам стоит помнить: свобода использования ИИ не означает свободы от ответственности. Технологии развиваются быстро, и правовая система неизбежно будет адаптироваться, чтобы защитить права потерпевших и одновременно не задушить инновации.