«Песочницы» для инноваций: экспериментальные правовые режимы
Центральным элементом стимулирования развития ИИ в России стали экспериментальные правовые режимы (ЭПР), или регуляторные «песочницы». Этот механизм позволяет компаниям тестировать инновационные решения в реальных условиях без риска нарушить действующее законодательство.
Правовой основой для «песочниц» служат два ключевых документа:
- Федеральный закон от 31.07.2020 № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в РФ»;
- Федеральный закон от 02.07.2021 № 331-ФЗ «О внесении изменений в отдельные законодательные акты РФ».
К весне 2025 года в России функционирует 14 экспериментальных правовых режимов, каждый из которых установлен отдельным постановлением правительства. Среди них режимы:
- для тестирования беспилотных авиационных систем в Москве, Томской области, Ненецком, Ханты-Мансийском, Чукотском и Ямало-Ненецком автономных округах, Республике Татарстан (Иннополис) и других регионах;
- «Беспилотные логистические коридоры» на трассе М-11 «Нева»;
- «Персональные медицинские помощники» для внедрения ИИ в здравоохранение;
- «Аэрологистика» для развития воздушных перевозок с использованием беспилотников;
- для эксплуатации сельскохозяйственных беспилотных авиационных систем.
Из крупнейших российских компаний, которые активно участвуют в тестировании беспилотного транспорта в рамках ЭПР, выделяются «Сбер», «Яндекс» и КамАЗ.
За 2021–2024 годы в России, по данным Национального портала в сфере искусственного интеллекта, разработали и утвердили 136 национальных стандартов в сфере ИИ, выработали 27 международных стандартов при участии российских специалистов и планируется выпустить еще 40 стандартов. Координатором работы выступает Технический комитет по стандартизации № 164 «Искусственный интеллект», куда входят более 120 профильных компаний и госорганов.
Этика ИИ
Представители Альянса в сфере ИИ разработали Кодекс этики в сфере искусственного интеллекта, который приняли на I Международном форуме «Этика искусственного интеллекта: начало доверия» в 2021 году и с тех пор ежегодно актуализируют.
Ключевые принципы кодекса приоритизируют защиту прав человека при развитии ИИ и персональную ответственность создателя за последствия применения систем ИИ. Еще акцент делается на целевом использовании технологий ИИ там, где они принесут пользу обществу, и о прозрачности в части возможностей и рисков ИИ.
На 2024 год к кодексу присоединились 44 федеральных и 19 региональных органов исполнительной власти, а еще 42 зарубежные организации и сотни российских компаний.
В феврале 2024 года состоялся IV Международный форум «Этика в сфере искусственного интеллекта: окно возможностей», собравший более 1500 участников из России и зарубежных стран. Форум стал площадкой для обсуждения этических аспектов использования генеративных моделей ИИ и определения «красных линий» — границ, которые не следует пересекать при разработке и внедрении интеллектуальных систем.
Ключевые нормативно-правовые акты в сфере ИИ
Нормативно-правовой акт | Основное содержание | Статус | Дата принятия |
Об экспериментальных правовых режимах в сфере цифровых инноваций | Действует | 31 июля 2020 года | |
О внесении изменений в связи с принятием закона об ЭПР | Действует | 2 июля 2021 года | |
Об установлении ЭПР для беспилотного транспорта | Действует | 9 марта 2022 года | |
Об установлении ЭПР по направлению медицинской деятельности | Действует | 9 декабря 2022 года | |
Об установлении ЭПР по эксплуатации беспилотных авиационных систем в Москве | Действует | 23 мая 2024 года |
Что предлагают: понятия, маркировка и классификация
В ближайшее время на законодательном уровне хотят закрепить понятие искусственного интеллекта, самой технологии и систем, пишет РБК. Инициаторы нововведений (пока закон не внесен в Госдуму) предлагают ввести маркировку систем ИИ, при этом требование не распространяется на тех из них, которые используются для автоматизации внутри организаций. Обсуждать маркировку ИИ-системы начали еще в 2022 году, но тогда дискуссии ничем не закончились.
По аналогии с европейским регламентом об ИИ предлагается классифицировать системы ИИ по уровню потенциального риска. Системы с неприемлемым уровнем риска предлагается запретить в России как для эксплуатации, так и для разработки. Для систем со средним риском, согласно проекту, предусмотрена обязательная сертификация и регистрация, а для систем с низким риском — добровольная.
Сейчас программные решения, которым присвоен признак ИИ, отмечают в реестре ПО. По мнению экспертов, новая законодательная инициатива позволит запустить систему учета отечественных решений с ИИ с риск-статусом, чтобы оперативно реагировать на потенциальные утечки данных. Сертификация ИИ-решений с учетом степени риска — это логичный и важный шаг, рассуждает заместитель генерального директора ПравоТех Кирилл Кондратенко. По его мнению, такая инициатива очертит круг добросовестных вендоров и решений, которые требуют дополнительного внимания.

ИИ — это мощная технология, которая, помимо очевидной пользы, несет огромные риски, в первую очередь связанные с утечкой данных. Это недопустимо, особенно если речь идет о госсекторе или чувствительных корпоративных и персональных данных.
По словам Кондратенко, популярный сценарий использования ИИ — интегрировать крупные языковые модели, включая зарубежные, в решения вендоров. Из-за этого механизмы передачи и обезличивания данных часто остаются в серой зоне. В ПравоТех есть ИИ-решения, которые базируются как на открытых данных, например, Картотеки арбитражных данных, так и на внутрикорпоративных дата-сетах. Во втором случае системы имеют опцию работы во внутреннем контуре без доступа в интернет, что сводит риски утечек к нулю, рассказал Кондратенко.