Некоторые нейросети, например ChatGPT, по умолчанию сохраняют введенные данные для собственного обучения. Другие (в частности, Dropbox и DeepSeek) могут передавать их третьим лицам — разработчикам, администраторам облачной платформы, подрядчикам и даже госорганам. Любые действия с такими данными считаются обработкой: сбор, хранение, распространение, удаление.Чтобы обрабатывать персональные данные законно, нужно иметь основание, указанное в нормативных документах, или согласие пользователя. Если данные используют в других целях или передают третьим лицам, требуется отдельное согласие или иное законное основание. При этом все данные граждан России должны храниться в стране (ст. 18 закона «О персональных данных»).
Ведущий юрист Юлия Барышева напоминает: ответственной за защиту данных и соблюдение всех норм перед Роскомнадзором всегда остается сама компания вне зависимости от того, какой ИИ она использует. Разработчик ИИ будет нести только договорную ответственность перед компанией.

Можно получить серьезный штраф не только за несоблюдение NDA, но и за нарушение законодательства о персональных данных. И нет большой разницы, используете вы сторонний сервис или собственную разработку, — требования закона распространяются на всех.
Персональные данные — это любая информация, которая позволяет идентифицировать конкретного человека (например, Ф. И. О., телефон, изображение, адрес проживания). По мнению юриста «Рунетлекса» и сообщества «Нейросети | ilovedocs» Екатерины Чевычеловой, просто фамилия, имя и отчество — зачастую слишком малый объем информации, чтобы понять, о ком именно идет речь. Даже в СНГ полных однофамильцев и тезок сотни и тысячи. Но если информация дополнена адресом и телефоном, идентифицировать лицо можно, а значит, это уже персональные данные. С ней соглашается юрист Selecty Владлена Супруненко: использование распространенного имени без связи с конкретной личностью формально не подпадает под закон. Но если Ф. И. О. уникально либо контекст позволяет определить личность (через должность, место работы, события), это признают персональными данными.
Генеральный директор и сооснователь arcsinus Александр Обысов придерживается иного мнения: даже имя без фамилии — это персональная информация, которая требует защиты. Он рассказал, что нейросеть может запомнить информацию и впоследствии воспроизвести ее в других контекстах. «Мы видели подобные случаи. Модели могут выдавать персональные данные из обучающей выборки в ответ на запросы пользователей», — отмечает эксперт. Несмотря на решения судов о том, что отдельные сведения, например электронный адрес и номер телефона, сами по себе не персональные данные (дело № А40-139096/2022), Роскомнадзор продолжает расширительно трактовать этот термин и относить к персональным данным даже cookie-файлы (письмо Роскомнадзора от 26.06.2024 № 08-242780).
Если составить с помощью ИИ объявление или текст с чужими персональными данными, можно нарушить закон. Старший IP/IT-юрист Виктория Ванюшкина отмечает, что это тоже считается обработкой данных. Если компания передает нейросети чужие персональные данные без согласия субъекта, именно она становится оператором и отвечает за нарушение.
В законе нет отдельной ответственности за незаконную обработку персональных данных через ИИ, но действуют общие правила. За такие нарушения компании грозит административная ответственность и даже блокировка сайта. CEO «Нейрорешения» Александра Моисеева объясняет, что такую компанию могут привлечь к административной ответственности по ст. 13.11 КоАП, а в иногда и к уголовной — по ст. 137 УК. Провайдер ИИ-сервиса отвечает только тогда, когда сам определял цели обработки и нарушил закон.

Чтобы не раскрывать ничьи персональные данные, можно использовать технологии NER (named entity recognition) для предварительной анонимизации сведений. Есть системы, которые маскируют Ф. И. О. перед передачей в языковую модель. Такой подход позволяет работать с чувствительными данными, соблюдая требования закона.
Чевычелова предупреждает, что иногда конфиденциальной считают информацию, в отношении которой режим конфиденциальности даже не вводили. Поэтому эксперт рекомендует проводить «облачный» тест: если данные можно без риска загрузить в облако или отправить по почте, значит, их можно ввести и в нейросеть — уровень рисков будет сопоставим.
Юрист Selecty Ольга Колбанова советует четко указывать, что в работе используется искусственный интеллект, прописывать цели и требования. «Именно это будет отвечать принципу прозрачности и должного информирования субъекта, который использует техническую поддержку. Также не стоит забывать о праве субъекта отказаться от использования ИИ», — напоминает она.
Если компания использует нейросеть для обработки таблиц с персональными данными, это тоже создает риски. «Если данные остаются в таблице, ИИ только их анализирует или улучшает, но не сохраняет у себя сами персональные данные, то компании нужно удостовериться, что соблюдаются требования по защите персональных данных. Например, у контролирующего органа могут возникнуть вопросы, если нейросеть будет обрабатывать данные без соблюдения необходимого уровня безопасности или без согласия субъектов данных», — считает ведущий юрист Юлия Барышева.
Управляющий партнер геймифицированной платформы корпоративных коммуникаций «Пряники» Евгения Любко в этой ситуации советует учитывать, где находится нейросеть. Если решение развернуто во внутреннем контуре компании, то ее использование ничем не отличается от программы Excel, в которой ведут исходную таблицу. Если вы собираетесь загрузить такую таблицу в ChatGPT, данные необходимо обезличить, присвоив всем уникальным участникам в таблице свои идентификаторы.
То же касается других инструментов, например если компания внедрила ИИ в работу техподдержки. По словам Чевычеловой, если пользователь описывает техподдержке только проблему, с которой столкнулся, но не указывает данные о себе, его согласие не требуется. ИИ здесь — такой же инструмент, как боты и формы обратной связи. Но если клиент сообщает персональные данные при отправке обращения, его нужно предупредить, куда и с какой целью его данные попадут, как будут использовать. По мнению Любко, в соглашении о персональных данных нужно прямо указать, что запрос может обрабатываться с помощью ИИ — тогда неважно, внутренняя это система или внешняя.
Даже если клиент дал разрешение на обработку персональных данных через ChatGPT или другую нейросеть на иностранных серверах, это может нарушать п. 5 ст. 18 закона «О персональных данных». ФЗ требует, чтобы все данные пользователей сначала сохранялись в России. Только потом их можно передавать за рубеж, и то при соблюдении условий. Так, компания обязана проверить, что страна-получатель обеспечивает достаточную защиту. Перечень таких стран утверждает Роскомнадзор, и нужно уведомлять его о трансграничной передаче, а иногда — получать отдельное разрешение.
За нарушения предусмотрена административная ответственность по ст. 13.11 КоАП. Если компания хранит данные россиян за пределами страны, штраф для должностного лица составит 100 000–200 000 руб., для компании — от 1 до 6 млн руб. При повторных нарушениях штрафы станут выше. Роскомнадзор также вправе заблокировать сайт, что остановит работу онлайн-бизнеса. Возможна и уголовная ответственность по ст. 272.1 УК. «При этом ответственность за все нарушения понесет именно российская компания и ее должностное лицо, а не владелец иностранной нейросети», — объясняет Барышева.
Божор рассказывает, что до последнего времени суды штрафовали за нарушения, связанные с использованием иностранных серверов, в основном крупные зарубежные сервисы — Twitch, Zoom, Discord и другие. Изредка назначали штрафы российским должностным лицам, например директору Центра немецкого языка и российской АНО «Сохнут», но присуждали минимальные суммы — 50 000 и 500 000 руб. Эксперт предполагает, что вскоре практика изменится и Роскомнадзор обратит пристальное внимание на отечественный бизнес.
Адвокат, президент Санкт-Петербургской коллегии адвокатов Intelligence, автор телеграм-канала «Юристы&Нейросети» Андрей Стуколов советует разработать внутренний документ, чтобы регламентировать использование ИИ в компаниях. В нем нужно очертить перечень используемых нейросетей, круг задач, правила работы с персональными и конфиденциальными данными и меры предотвращения юридических рисков. Без этого регламента кратно возрастает вероятность ошибок, утечки данных и репутационных потерь из-за непрозрачных и неструктурированных действий.
Если ваши дизайнеры или другие сотрудники планируют использовать ИИ при работе над заказом, советник практики ИС, IT и телекоммуникаций Рузанна Ахобекова рекомендует письменно согласовать:
- возможность использования ИИ и объем;
- конкретный перечень инструментов. Заказчику стоит знать обо всех программах, которые использует подрядчик, поскольку это может влиять на правовые риски и накладывать определенные ограничения;
- распределение ответственности;
- объем исключительных прав на созданный продукт;
- порядок предоставления материалов заказчика и информации о проекте третьим лицам (в том числе владельцам ИИ-сервисов).
Если искусственный интеллект обрабатывает чужие данные — например, художник загружает в нейросеть свой рисунок для цветокоррекции, — вновь созданным контентом владеет тот, кому принадлежат эти данные. Созданный результат считается производным от исходного, и права на него остаются у автора.
Когда ИИ создает что-то новое, владелец контента — тот, кто организовал его генерацию, если иное не указано в договоре. В тех случаях, когда объект создается силами исключительно ИИ без участия человека, такой контент не охраняется авторским правом (п. 1 ст. 1257 ГК). Такое может случиться, если система в тестовом режиме ежедневно создает случайные абстрактные изображения без команд человека.
При этом нейросеть может нарушить чужие авторские права при генерации контента, например создав его переработкой существующего произведения. Ответственность перед правообладателем в таком случае будет нести пользователь, который разместит контент.

Надо изучить договор между пользователем и провайдером, поскольку от него зависит возможность предъявления регрессного требования к провайдеру ИИ (платформе). Но чаще всего такими договорами предоставляется лишь механизм генерации, а значит, право на подачу регрессного иска отсутствует.
Закон прямо не запрещает создавать дипфейки, например для рекламы или кино, но важно помнить, что использовать образ конкретного человека без его согласия нельзя (ст. 152.1 ГК). Если дипфейк создан для распространения заведомо ложной информации, за это может наступить уголовная ответственность (ст. 207.1 УК). Так, арбитражный суд обязал ответчика выплатить компенсацию за использование дипфейк-видеоролика с Киану Ривзом, исключительное право на который принадлежит истцу (дело № А40-200471/2023). Суд признал дипфейк объектом авторского права, несмотря на использование ИИ, поскольку его создание требовало творческого вклада человека, в этом случае — моушен-дизайнера, который создавал промпт и осуществлял доработку.
В другом деле ответчик пытался избежать ответственности за незаконное использование изображения, ссылаясь на то, что оно якобы сгенерировано с помощью нейросети (дело № А42-3966/2023). Истец доказал, что изображение представляло собой снимок 3D-модели, предъявив видеозапись просмотра файла. Ответчик настаивал, что изображение не считается объектом авторского права, но суд не принял во внимание его позицию. «Я полагаю, что другие ответчики в дальнейшем будут использовать аналогичную позицию в спорах о защите исключительных прав, и пока сложно предсказать, к каким выводам будут приходить российские суды», — считает Божор.
Адвокат Legalflow Expert Оксана Петровская рассказывает, что по законам Великобритании автором созданного нейросетью произведения признается лицо, принявшее необходимые для его создания меры. А в Китае Пекинский интернет-суд признал авторские права на сгенерированное изображение, так как оно соответствовало требованиям оригинальности и отражало интеллектуальный вклад человека.
В США придерживаются более строгой позиции, отрицая возникновение авторского права на произведения, полностью созданные с помощью ИИ. Бюро по авторским правам США разъясняет, что дизайнеры, писатели и художники могут получить авторские права на работы, созданные с использованием ИИ, только при условии достаточного творческого вклада. Так, регулятор отказал в регистрации прав на графический роман Zarya of the Dawn, нарисованный с помощью MidJourney, поскольку создатель промпта не смог доказать свой творческий вклад. Отказ по подобному основанию также получил американец, создавший картину при помощи Creativity Machine. Только в феврале компании Invoke удалось доказать, что человек, работая с ИИ, внес значительные изменения в итоговое изображение, и признать его автором произведения.
Подавляющее большинство споров связаны не с авторскими правами на результат работы нейросетей, а с использованием оригинальных произведений для их обучения. Суды в США склонны занимать сторону разработчиков ИИ-продуктов — в июне было принято два прецедентных решения. В деле Bartz v. Anthropic суд постановил, что технологическая компания Anthropic правомерно использовала для обучения ИИ-модели тексты книг, принадлежащих другим правообладателям, в рамках доктрины добросовестного использования. А в деле Kadrey v. Meta* суд принял аналогичное решение, рассмотрев вопрос использования литературных произведений для тренировки нейросети по спору между правообладателями и технологическим гигантом.
ИИ можно использовать в госзакупках для анализа данных, проверки поставщиков и автоматизации документооборота. Важно следить, чтобы нейросеть не дискриминировала участников и использовала прозрачные алгоритмы. При этом окончательный выбор победителя должен делать человек (ч. 4 ст. 24 ФЗ № 44).

Подсказки со стороны ИИ могут помочь правильно рассчитать НМЦК, определить реальные характеристики объекта закупки, важные для заказчика, и провести оценку поступивших предложений.
Что касается исполнителей, то, по мнению Божора, для них тоже нет ограничений на использование ИИ, если они не нарушают общие нормы российского законодательства. Например, нейросети можно использовать для мониторинга размещаемых закупок, их условий, действий конкурентов и при принятии решения об участии в закупках. Надзорные ведомства тоже думают об использовании ИИ. Так, к концу года ФАС должна запустить ГИС «Антикартель» для выявления картелей на торгах, и эту систему в будущем планируют усовершенствовать за счет ИИ.
Закон разрешает нейросетям помогать в кадровых решениях, но окончательный вердикт должен быть за человеком (ч. 1 ст. 16 закона «О персональных данных»). Если ИИ все же принял решение сам, нужно получить дополнительное письменное согласие лица и дать ему возможность заявить возражение (ч. 2–3 ст. 16 закона «О персональных данных»). Барышева рассказывает, что сейчас во многих крупных организациях первичный отбор резюме проводит ИИ. Но алгоритмы нейросети не должны предопределять решения, которые могут повлечь за собой юридические последствия (прием, увольнение, выговор).

Решение о проведении собеседования с соискателем должно быть принято именно человеком, а не нейросетью. А отказ в приеме на работу нужно подробно обосновать деловыми качествами кандидата, а не ссылкой на ИИ.
В алгоритме ИИ может быть заложена дискриминация против определенных кандидатов. Так, разработанная Amazon нейросеть, которая отбирала соискателей, отдавала предпочтения мужчинам, поскольку обучалась в основном на резюме лиц мужского пола. Когда это выяснилось, искусственный интеллект убрали.
С помощью нейросетей можно мониторить сотрудников (например, для анализа переписки), но они должны быть письменно предупреждены об этом (ст. 74 ТК). Полученные при мониторинге данные нельзя использовать для дискриминации или при увольнении. А за нарушение тайны переписки, телефонных переговоров и почтовых сообщений и вовсе предусмотрена уголовная ответственность (ст. 138 УК).
Юрист юридической фирмы Владислав Губко не рекомендует использовать диктофон с ИИ для записи конфиденциальных разговоров, поскольку степень защищенности обрабатываемой устройством информации зависит от многого.

Политики конфиденциальности у разных компаний различаются кардинально. Одни дают пользователям полный контроль над данными, позволяя запретить обучение на содержании получаемой информации, другие нет, что делает данные открытыми для третьих лиц.
Если диктофон с ИИ передает полученную информацию для обработки и обучения на какой-либо сервер или в иное место хранения, об этом следует предупреждать собеседника, поскольку вы будете не только собирать информацию, но и автоматически ее распространять, используя такой умный диктофон.
В законе нет требований к указанию, что рекламный текст, видео или изображение созданы ИИ. Но старший юрист практики ИС, IT и телекоммуникаций Екатерина Тытюк предупреждает, что такие требования могут фигурировать в тексе лицензионных соглашений ИИ-сервисов. Например, лицензионное соглашение GigaChat запрещает пользователю удалять любые знаки или подписи, сгенерированные сервисом в автоматическом режиме или содержащие указание на то, что контент создан при помощи сервиса. Еще важно помнить общие требования к рекламе: если сгенерированный контент может сделать рекламу недобросовестной и недостоверной, его следует использовать ограниченного.
Использовать нейросети для поиска информации в рамках due diligence можно. Но важно удостовериться, что информация, предложенная нейросетью, получена из достоверных источников с соблюдением законных требований, напоминает Барышева. С ней соглашается юрист Selecty Анаит Варданян, которая советует юристам для оценки рисков обратить внимание на механизм работы ИИ. Собранная нейросетью информация, возможно, не отразит все реальные данные о клиенте, а значит, выводы ИИ нужно проверять и верифицировать.

Если юристы решают использовать нейросети при due diligence, они обязаны тщательно проверять всю полученную через ИИ информацию по достоверным источникам. Также они не должны вводить конфиденциальные или персональные данные клиента.
* Принадлежит Meta Platforms Inc., деятельность которой в России запрещена.
