Введение
Искусственный интеллект сегодня — это мощный инструмент, формирующий будущее бизнеса. Системы искусственного интеллекта могут быть внедрены и развернуты в самых разных секторах экономики, при этом технологию уже можно использовать не только чтобы генерировать развлекательный контент или «оживлять» роботов.
На текущий момент во многих странах принимаются акты, законы, регламенты, обеспечивающие безопасное и свободное обращение систем ИИ, связанных с ними продуктов и услуг, в бизнесе и обществе. Но нельзя говорить о существовании единой системы или единого подхода к регулированию ИИ, скорее это точечные меры, направленные на решение отдельных проблем. Например, важный для нормотворчества и отрасли Закон об искусственном интеллекте Европейского союза (Закон ЕС об ИИ) основан на рискориентированном подходе и не регулирует отдельные аспекты, а скорее указывает на зоны, требующие самоконтроля со стороны соответствующих субъектов.
Другим способом саморегуляции отрасли является судебная практика, но она преимущественно сосредоточена вокруг наиболее медийно заметных и финансово значимых споров, по которым на текущий момент отсутствует единообразие. На качество судебных решений и их потенциальную применимость для формирования устойчивых правовых позиций также влияют вопросы, которые ставятся перед судом. Часто из-за новизны темы ключевые для рассмотрения дела аспекты упускаются из поля зрения, что приводит к принятию решений с некоторым «перекосом», которые нельзя в дальнейшем использовать для рассмотрения аналогичных дел.
Консервативный и в текущих условиях разумный подход к регулированию отношений, связанных с ИИ, заключается в применении существующих правовых норм и конструкций. Например, соглашения, регулирующие отношения пользователей и сервисов с использованием ИИ, оформляются в виде смешанных договоров, включающих элементы лицензионных и иных договоров. Но следует отметить, что единая практика в этой области еще не сформировалась. Подход требует серьезного погружения в матчасть и творческого подхода со стороны юристов, а «подсмотреть» лучшие практики просто не у кого.
Таким образом, в точке, в которой мы сейчас находимся, можно выделить три фактора, обуславливающих практическую проблему регулирования ИИ:
- разрозненность и неравномерность формирования новых правовых норм с неясным территориальным действием и субъектным составом;
- отсутствие единых и устоявшихся позиций в судебной практике разных юрисдикций;
- отсутствие четких паттернов применения существующих поименованных правовых конструкций в отношении такой сущности, как искусственный интеллект.
Эти факторы приобретают особую значимость на практике, и компании, занимающиеся созданием и внедрением систем ИИ, должны учитывать стремительно меняющийся правовой ландшафт для обеспечения своей деятельности и митигации правовых рисков.
Таким образом, если юрист выступает на стороне разработчика продуктов на базе ИИ или заказчика, ему необходимо контролировать соблюдение как общепринятых правовых норм, так и узкоспециализированных (и зачастую еще не урегулированных в правовом поле) вопросов, которые обусловлены спецификой ИИ по сравнению с другими программными продуктами.
Отличие ИИ от традиционного программного обеспечения
Классическое и наиболее распространенное понимание искусственного интеллекта определяет его как технологию, которая позволяет компьютерам и машинам имитировать человеческий интеллект и решать поставленные задачи.
Свежепринятый Закон ЕС об ИИ определяет систему искусственного интеллекта как машинную систему, способную функционировать с разной степенью автономности, адаптироваться и на основе полученных входных данных генерировать такие результаты, как прогнозы, контент, рекомендации или решения, которые могут влиять на физическую или виртуальную среду.
Сравним это определение с тем, которое закрепилось в российском правопорядке: «Искусственный интеллект — комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений».
Обратимся к определению программного обеспечения (в ГК — программы для ЭВМ) для того, чтобы выделить квалифицирующие признаки ИИ, отличающие его от более простых программных систем (алгоритмов), предназначенных для автоматизации.
Согласно ст. 1261 ГК: программой для ЭВМ является представленная в объективной форме совокупность данных и команд, предназначенных для функционирования ЭВМ и других компьютерных устройств в целях получения определенного результата, включая подготовительные материалы, полученные в ходе разработки программы для ЭВМ, и порождаемые ею аудиовизуальные отображения.
Термины (в случае их широкого толкования) похожи в том, что и программа для ЭВМ, и системы искусственного интеллекта являются технологическими решениями, предназначенными для функционирования компьютерных устройств. На данном пункте сходные элементы заканчиваются, и можно сказать, что термин «искусственный интеллект» может поглотить термин «программа для ЭВМ» как более сложный и более широкий.
Закон об ИИ ЕС выделяет следующие критерии, отличающие системы ИИ от иных программных продуктов:
- использование вычислительного процесса, методов машинного обучения и логики для обеспечения работоспособности и функциональности;
- способность к подконтрольному и самостоятельному обучению;
- способность делать выводы и генерировать результаты, такие как прогнозы, контент, рекомендации или решения, влияющие на физическую или виртуальную среду, выходящие за рамки базовой обработки данных;
- независимость от действий человека и возможность работать с различными уровнями автономии.
Имитация когнитивных функций человека не находит своего отражения в Законе ЕС об ИИ в качестве критерия, но также может выступать одним из юридически значимых признаков. Одной из доминирующих и широко распространенных проблем в использовании систем ИИ в публичной и частной жизни является нарушение баланса между публичным и частным интересом. Из-за имитации когнитивных способностей человека искусственным интеллектом люди, использующие его осознанно или не информированные об этом, могут быть введены в заблуждение. Это создает широкий простор для осуществления мошеннических действий, люди принимают неверные решения в условиях дефицита объективно проверенной информации, подвергаются манипуляциям.
Таким образом, можно сделать вывод, что упрощенно ИИ — это такой же программный продукт, как и любой другой. В зависимости от юрисдикции к нему будут применяться нормы такие же, как и в отношении ПО: в российском правопорядке это будут нормы для программ для ЭВМ или в отношении патентов в зависимости от того, является ли создаваемое ПО просто текстом или же оно несет в себе значимое решение, которое может признаваться в качестве изобретения или полезной модели.
Практические аспекты создания и использования ИИ в бизнесе
Вместе с тем квалифицирующие признаки искусственного интеллекта создают ряд практических задач, которые целесообразно проработать в компании, осуществляющей разработку и внедрение систем ИИ. Такие практические вопросы непосредственно влияют на специфику программной разработки, создают дополнительные риски, требующие внимания и митигации со стороны юриста, а также осложняют договорную базу.
Поскольку системы ИИ в общем квалифицируются как программное обеспечение, в зависимости от ситуации к ним будут применяться базовые правовые конструкции. То есть, даже если программное обеспечение включает технологии ИИ, оно может быть отчуждено по договору об отчуждении исключительного права на ПО. Но некоторые особенности ИИ могут повлиять на содержание таких договоров, и наша задача — сосредоточиться на этих нюансах.
В рамках статьи ниже будут рассматриваться системы ИИ, которые оказывают существенное влияние на конечный продукт или же которые сами по себе являются продуктом. Например, оборот смартфонов, которые содержат технологии искусственного интеллекта в своем программном обеспечении, не рассматривается в рамках настоящей статьи.
Обучение искусственного интеллекта
Способность систем ИИ к подконтрольному и самостоятельному обучению создает для разработчиков дополнительную задачу — обучение ИИ. С технической точки зрения (упрощенно), обучение заключается в предоставлении нейросети дополнительных данных (датасетов), которые влияют на результат, выдаваемый ИИ. Датасеты выступают на рынке как самостоятельный коммерчески значимый актив, поэтому их квалификация и последующее использование являются отдельным юридическим процессом.
В этом процессе затрагиваются следующие юридические аспекты:
- Юридическая квалификация датасета. Датасет может быть квалифицирован, с юридической точки зрения, в качестве базы данных или иного непоименованного массива информации (объектов). При этом содержание базы данных влияет на юридическую квалификацию и применение правовых норм. Например, датасет, состоящий из фотографий, влечет за собой обязанность по соблюдению авторских прав при его непосредственном использовании. А датасет с рентгеновскими снимками подлежит регулированию законодательством о медицинской деятельности и персональных данных (в зависимости от того, в каком виде — обезличенном или нет — предоставляется информация).
- Использование датасетов для обучения. Законодательство не содержит специальных норм для использования датасетов. Но учитывая, что датасеты, по сути, это массивы информации или отдельных объектов, к ним могут применяться правовые нормы по аналогии. Например, владелец датасета может ограничивать повторное использование датасета или предоставлять эксклюзивное право на его использование для обучения ИИ на определенной территории и с определенным сроком.
- Получение датасетов для обучения. Компании-разработчики могут использовать датасеты из различных источников: приобрести их, создать самостоятельно, получить по лицензии. На практике еще существуют случаи бездоговорного использования датасетов (например, одна клиника передала данные своих больных другой клинике для обучения и развития CRM-системы), но со временем их становится меньше. Приобретение датасета требует правильной юридической квалификации. Например, купля-продажа персональных данных законом напрямую не предусмотрена, но возможна передача данных по поручению или иному договору. Кроме того, упорядоченный массив персональных данных может быть квалифицирован как база данных и передан по договору об отчуждении исключительных прав (при соблюдении норм о получении согласий субъектов).
- Соблюдение законодательных требований при создании датасета. Датасет может включать объекты интеллектуальной собственности (ОИС), персональные данные и медицинские данные (эти категории используются чаще всего). Даже если датасет был приобретен, важно убедиться, что его владелец, передающий права, соблюдал все необходимые требования при его создании. Например, получил согласия авторов или заключил лицензионное соглашение в отношении каждого ОИС, получил необходимые согласия или обезличил по установленной процедуре персональные или иные данные. Использование датасета «с пороком» может привести к юридическим последствиям, как и в случае с объектами, содержащимися в датасете. Примером может быть иск New York Times к OpenAI и Microsoft за использование произведений для обучения нейросетей без согласия авторов и выплаты вознаграждения, а также аналогичные иски.
Способность делать выводы и генерировать результаты
Системы искусственного интеллекта нацелены на получение результатов, которые могут отличаться по значимости и форме. Например, программное обеспечение для колонки Алисы использует множество систем ИИ, большая часть которых обеспечивает внутренние процессы. Но их совокупная работа выдает конечный результат, будь то развлекательный контент или рекомендации. Именно этот результат часто является продуктом, который может предоставляться бесплатно, как в случае с GPT-3.5, или на платной основе, как GPT-4.
Каждый продукт ИИ имеет своего конечного потребителя, и в зависимости от того, кому он предоставляется — физическим лицам, компаниям или государственным структурам, — могут применяться соответствующие требования и нормы об ответственности.
Классический подход, закрепленный в законодательстве многих стран, рассматривает потребителей (физических лиц) как слабую сторону, что влечет за собой дополнительные меры контроля при предоставлении товаров и услуг. В зависимости от юрисдикции к пользователю продукта или услуги, содержащих ИИ, применяются соответствующие нормы потребительского законодательства. Важно отметить, что наличие систем ИИ внутри предоставляемого программного продукта не «черная метка», но практика складывается таким образом, что пользователи как минимум должны быть уведомлены о влиянии таких систем на конечный результат.
Таким образом, если продукты, содержащие ИИ, предоставляются конечному потребителю в «чистом виде» или в составе продукта, необходимо:
- уведомить потребителя о наличии ИИ и возможности ошибок;
- обеспечить безопасность использования продукта;
- прописать в пользовательском соглашении распределение ответственности между разработчиком и пользователем, принимающим решения на основе результатов генерации ИИ.
Например, условия использования ChatGPT включают положения, ограничивающие ответственность и предупреждающие пользователей: «Результат не всегда может быть точным. Вы не должны полагаться на результаты наших сервисов как на единственный источник правдивой или фактической информации или как на замену профессиональных советов».
Стоит отметить, что согласно Закону ЕС об ИИ требования к разработчикам систем ИИ будут применяться также и к компаниям, работающим за пределами ЕС.
В случае прямых коммерческих отношений между создателем или дистрибьютором продуктов, содержащих ИИ, и заказчиком вопрос ответственности становится ключевым.
Независимо от того, представляется ли система ИИ в виде софта (например, медицинское ПО для анализа снимков) или в виде роботизированной системы (робот-хирург), заказчики стремятся максимально защитить себя от возможных негативных последствий использования ИИ. Поэтому в договорах появляются детализированные нормы об ответственности, описывающие возможные негативные ситуации и устанавливающие вид и размер ответственности.
Особое внимание уделяется распределению ответственности в случае, если обучение системы ИИ осуществляется на стороне заказчика или покупателя. Бывают ситуации, когда обучение проводит разработчик на базе данных своего клиента, что также делает результат слабо предсказуемым.
Независимость от действий человека и возможность работать с различными уровнями автономии
Автономность систем ИИ означает, что ряд процессов будут осуществляться без прямого вмешательства человека. ИИ может самостоятельно дообучаться и реагировать в критических ситуациях, не запрашивая обратную связь у человека. Это создает риск неуправляемости и непредсказуемости, что может привести к критичным ошибкам.
Для управления такими рисками законодатели разных стран принимают акты, направленные на обеспечение контроля над разработкой систем ИИ, их безопасностью, а также устанавливают ответственность в случае причинения ущерба. Ранее упомянутый Закон ЕС об ИИ классифицирует системы ИИ по уровню риска и устанавливает обязанности для разработчиков систем ИИ. Большинство обязанностей возлагается на разработчиков систем ИИ с высоким риском, но это относится к разработчикам как из ЕС, так и из третьих стран, если их продукция используется в ЕС.
В России пока таких актов не существует, и основное регулирование разрабатывается в отношении участников экспериментального правового режима. Однако на рассмотрении в Госдуме находятся законопроекты, формирующие правовой ландшафт в отношении вопросов, связанных с искусственным интеллектом, например о страховании ответственности в связи с применением технологий ИИ. Таким образом, нормативно-правовая база начинает формироваться и становится обязательной к соблюдению для компаний, которые разрабатывают и внедряют системы ИИ.
Отдельные вопросы, возникающие при разработке и использовании систем ИИ
Если обратиться к пользовательским и лицензионным соглашениям сервисов, предоставляющих возможность для генерации новых объектов, например графических изображений, музыкальных произведений, то можно обнаружить единую позицию: как правило, компания-разработчик не приобретает права на сгенерированный пользователями контент. Вместе с тем для обеспечения технической донастройки и дообучения алгоритмов такие компании сохраняют за собой право использовать сгенерированные произведения для собственных нужд на условиях безвозмездной простой (неисключительной) лицензии в течение всего срока действия исключительного права.
Споры между компанией-разработчиком и пользователями в отношении прав на объекты, созданные с использованием системы ИИ, пока редки. Следовательно, если компания-разработчик претендует на сохранение исключительных прав за собой, необходимые положения должны быть отражены в условиях использования соответствующего продукта.
Уже сейчас в судебной практике можно наблюдать дела, связанные с разработкой программного обеспечения, включающего системы ИИ, и со взысканием денег за невыполненную или некачественную разработку. Как правило, такие споры возникают между госзаказчиками и подрядчиками, не предоставившими результат в срок или не предоставившими техническую документацию, а значит, суды не рассматривают детально саму разработку систем ИИ и разницу между ожидаемым и полученным результатом.
Количество споров, связанных с проблемами разработки искусственного интеллекта, безусловно, будет расти, а их сложность — увеличиваться по мере развития и внедрения технологий. Соответственно, договоры на разработку систем ИИ, помимо общих положений, уже сейчас должны содержать пункты, отражающие специфику разработки таких систем: детализированное техническое задание, ожидаемый результат, последствия в случае, если после обучения нейросети результат отличается от ожидаемого изначально.
Например, в деле № А40-161176/2023 истец обратился в суд к правообладателю с требованием о взыскании денежных средств в связи с тем, что переданная ему по лицензии программа выполняет лишь одну функцию из заявленных. Как заявлялось правообладателем, в основе работы лежит искусственный интеллект, который обучается на основе ответов клиентов. Но истец доказал в суде, что предоставленная ему версия не обладает указанной функциональностью, и взыскал денежные средства.
Заключение
Искусственный интеллект трансформирует бизнес-среду, открывая новые возможности и создавая уникальные правовые вызовы. В условиях отсутствия единого глобального подхода к регулированию ИИ юристы оказываются на передовой формирования практики, зачастую самостоятельно создавая новые юридические конструкции. Они должны не только глубоко разбираться в технических аспектах ИИ, но и уметь адаптировать существующие правовые нормы к новым реалиям.
Основные задачи юриста в компании, которая занимается созданием и внедрением систем ИИ, включают в себя управление рисками, связанными с использованием и обучением ИИ, контроль над соблюдением прав и требований третьих лиц при обучении нейросетей и обеспечение прозрачности взаимодействий с конечными пользователями.
Важно помнить, что эффективное правовое сопровождение ИИ в бизнесе — это не только вопрос соблюдения текущих законодательных норм, но и проактивная работа по их адаптации и развитию, которая позволит обеспечить стабильное и безопасное использование инновационных технологий в будущем.