Современная практика слияний и поглощений переживает трансформацию под влиянием искусственного интеллекта. По данным исследования VK Predict и Prognosis за 2025 год, 70% респондентов из числа среднего и крупного бизнеса уже применяют ИИ в своей деятельности.
Стремительное развитие ИИ не только становится неотъемлемой частью юридической практики, но и преобразует бизнес-среду. Многие консалтинговые фирмы, в том числе юридические, развивают направление LegalTech, создавая собственные технологические решения. Такой подход позволяет сочетать экспертные знания в области права с пониманием технологических возможностей и ограничений.
В статье рассматриваются два ключевых аспекта применения искусственного интеллекта в сделках M&A:
прикладной аспект — технические возможности и ограничения применения ИИ-решений для проектов M&A;
юридический аспект — изменение подхода к юридической проверке и транзакционной документации.
Прикладной аспект использования ИИ в сделках M&A
Глобальные тренды и российская специфика
Международные исследования демонстрируют впечатляющие темпы внедрения ИИ в проекты M&A. Согласно исследованию Deloitte M&A Generative AI Study 2025 года, 86% компаний уже внедрили генеративный ИИ в свои M&A проекты. Большинство респондентов ожидают увеличения инвестиций в ИИ-инструменты в течение следующих 12 месяцев.
Наиболее активно технологии применяются на ранних этапах сделок: на стратегию и оценку рынка приходится 40% использования, на поиск компаний для приобретения и юридическую проверку — 35%, на оценку стоимости — 32%.
Прослеживается общий тренд на переход от единичных кейсов применения ИИ к созданию сквозных M&A платформ. Типичные сценарии использования: автоматическая генерация первых проектов документов (48%), сопоставление данных (41%), анализ прецедентов и регуляторных решений (39%), аналитика прошлых сделок и рыночных отчетов (35%).
На международном рынке уже представлены специализированные платформы, предлагающие автоматический анализ массивов документов с возможной эффективностью на 70% выше по сравнению с ручной проверкой. Существуют и решения для подготовки транзакционной документации, например генеративная модель, которая умеет в режиме реального времени предлагать правки в текст с объяснениями и даже самостоятельно составлять новые положения на основе запросов пользователя.
Например, при сделке по приобретению блокчейн-платформой Kraken компании NinjaTrader с оборотом $1,5 млрд для проведения проверки использовалась специализированная ИИ-платформа Termina.
В России использование ИИ в M&A сделках еще находится в стадии формирования. По последним данным, 49% юридических департаментов используют искусственный интеллект в своей работе, но только 22% инвестируют в создание внутренних платформ.
Сложившаяся ситуация порождает феномен «теневой ИИ-экономики», когда работники самостоятельно используют внешние модели для повышения личной эффективности, что создает значительные риски для компаний с точки зрения конфиденциальности и безопасности.
Российские компании в основном применяют ИИ для анализа документов, стенографии переговоров и встреч, аналитики данных, реже — для подготовки документов.
Безопасность и конфиденциальность
Вопрос конфиденциальности данных — один из главных сдерживающих факторов для масштабирования ИИ в M&A сделках. Передача конфиденциальной информации, коммерческой тайны или персональных данных в публичные ИИ-модели сопряжена с существенными рисками. Известные инциденты по утечке данных при использовании ИИ-моделей демонстрируют, что даже у крупных мировых вендоров нет абсолютных гарантий безопасности.
Больше половины компаний отметили, что загружают в ИИ-решения свои данные. К ним относится коммерческая информация, например транзакции клиентов, история продаж, сделок и расходов (исследование VK Predict и Prognosis, 2025). При этом 38% работников делятся конфиденциальной рабочей информацией с ИИ без разрешения работодателя (исследование CybSafe и NCA, 2024).
Когда работники компании используют публичные ИИ-инструменты, вводимая ими информация (включая коммерческую тайну и конфиденциальные данные) может сохраняться на серверах поставщика и становиться доступной третьим лицам.
Передача в модель конфиденциальной информации или персональных данных, особенно с использованием иностранных ИИ-решений, ведет к рискам утечки данных, нарушения соглашений о неразглашении и законодательства о персональных данных, включая в части трансграничной передачи.
Попытки обойти это ограничение с помощью анонимизации данных перед отправкой во внешние модели на практике оказываются малоэффективными. Процедура анонимизации не может гарантировать стопроцентный результат и требует значительных трудозатрат на верификацию, что сводит на нет положительный эффект от использования ИИ. В связи с этим наиболее надежным решением становится развертывание собственных моделей внутри защищенного контура компании.
Безопасность ИИ-систем — это отдельный комплекс угроз. С распространением ИИ появляются новые виды киберрисков. Например, так называемые отравления данных и промпт-инъекции, способные манипулировать поведением модели и вызывать утечку информации. Для минимизации этих рисков необходим комплекс мер защиты, включая промпт-фильтры, ограничение доступа модели к критическим сегментам сети, инфраструктурные решения ИБ и постоянное обучение сотрудников кибергигиене.
«Галлюцинации» ИИ
Так называемые галлюцинации — генерация недостоверных или искаженных данных — остаются фундаментальным ограничением генеративных моделей в M&A сделках. Это делает их ненадежными в задачах, требующих точности, проверки фактов и сложного многошагового анализа.
На практике попытки использовать ИИ для консультирования даже в тех областях, где возможно сформулировать для ИИ четкие правила (например, в виде понятной для человека обширной таблицы ответов под разные комбинации вводных), могут давать смешанный результат: на часть вопросов модель отвечает точно, а на другую — выдает ошибки. Аналогичная проблема возникает при вычитке документов, где наряду с полезными замечаниями ИИ может генерировать «фантазии».
В юридической практике это означает, что ИИ полезен прежде всего на технических и вспомогательных этапах: для обзоров документов, перевода, улучшения стилистики, генерации черновиков на основе четких вводных, поиска по смыслу и решения прикладных вопросов (например, составления формул для таблиц). Но доверять ему глубокий юридический анализ или создание транзакционных документов преждевременно, и это может размывать у юристов чувство персональной ответственности за документы и выводы.
Юридический аспект использования ИИ в сделках M&A
Проведение юридической проверки ИИ-активов
Использование ИИ-инструментов приобретаемой компанией порождает комплекс правовых рисков, которые требуют специального анализа во время юридической проверки. Нарушения на любом этапе — от создания модели до использования результатов ее генераций — могут привести к уничтожению модели или данных, на которых она обучалась, блокировке бизнес-процессов, нарушению прав третьих лиц, ответственности компании или менеджмента. В результате компании несут имущественные потери (штрафы, убытки, расходы на консультантов и инфраструктуру) и репутационные потери.
На этапе создания ИИ-модель формируется из различных компонентов, включая обучающие данные (которые могут содержать объекты интеллектуальной собственности, персональные данные), алгоритмы и код.
При проведении юридической проверки существенное значение имеет то, какой ИИ используется и кто его поддерживает — иностранное это или российское решение — и какие источники данных используются для обучения ИИ-модели.
Обучение модели на данных, полученных с нарушением прав третьих лиц, может привести к уничтожению такой модели или соответствующих данных, на которых она обучалась. Международная практика уже знает прецеденты уничтожения ИИ-моделей, обученных на незаконно собранных данных. В 2021 году в рамках урегулирования спора с Федеральной торговой комиссии США компании Everalbum, Inc. было предписано уничтожить алгоритмы и модели, обученные на незаконно собранных фотографиях пользователей. За рубежом активно развивается судебная практика по искам правообладателей к разработчикам ИИ о нарушении авторских прав, как в случае с текущими исками издания The New York Times и медиахолдинга Ziff Davis против OpenAI касательно нарушений авторских прав, несоблюдении Закона об авторском праве в цифровую эпоху (DMCA), незаконном обогащении и размывании товарных знаков.
В российской практике пока нет таких примеров. Но действующее законодательство позволяет предъявлять аналогичные требования, например, на основании нарушений использования охраняемых результатов интеллектуальной собственности, обработки персональных данных или прав субъектов персональных данных при обучении ИИ-модели.
На этапе использования ИИ-модель работает с поступающими в нее данными, такими как промпты, документы или запросы пользователей, которые могут быть конфиденциальными.
При проведении юридической проверки необходимо проверять, насколько работа ИИ с различными категориями данных соответствует требованиям применимого законодательства.
На этапе использования результата работы ИИ интегрируется в бизнес-процессы и генерирует решения и продукты. Помимо прав на ИИ-продукт, необходимо проверять ИИ-комплаенс, а именно — насколько решения, сгенерированные ИИ, обязательны для компании, какая система контроля за ними существует, в каких процессах они используются, насколько их использование соответствует требованиям применимого законодательства. Если ИИ принимает или влияет на решения в области найма, кредитования или медицины, его предвзятость может привести к дискриминации и нарушению прав человека.
Например, в трудовых отношениях применяются инструменты ИИ, которые помогают анализировать резюме соискателей. Такие инструменты могут непреднамеренно унаследовать и усилить предвзятость, присутствующую в обучающих данных, что может привести к дискриминации по защищенным признакам (раса, пол, возраст) и повлечь за собой иски о нарушении прав человека, трудового законодательства, а также нанести значительный репутационный ущерб.
В трудовых отношениях дискриминация запрещена, не допускается отказ по основаниям, не связанным с деловыми качествами работников. В судебной практике рассматривался спор С. Мамедова против «Сбербанка», в котором суд не усмотрел дискриминации, хотя банк использовал в работе специальное программное обеспечение — инструменты автоматизации и роботизации. Суд признал, что программные инструменты использовались для организации и документирования процесса отбора, а не для принятия окончательного кадрового решения и сам отбор на момент обращения истца не был завершен (апелляционное определение Московского городского суда от 23 января 2023 года по делу № 33-801/2023).
Документация по сделке с ИИ-активами
Результаты юридической проверки ИИ-активов напрямую влияют на содержание транзакционной документации, особенно если ИИ играет важную роль в бизнесе приобретаемой компании. В документацию все чаще включаются специальные заверения об обстоятельствах, связанные с использованием ИИ в бизнесе приобретаемой компании. Ключевые заверения об обстоятельствах касаются:
правомерности использования ИИ обучающих данных;
наличия у приобретаемой компании исключительных прав на результаты генераций ИИ;
соблюдения приобретаемой компанией требований по конфиденциальности и иных требований к обработке данных ИИ;
отсутствия дискриминации при принятии решений ИИ-моделью, используемой приобретаемой компанией;
соблюдения приобретаемой компанией требований применимого законодательства при принятии решений используемой ей моделью ИИ.
Для генеративного ИИ, имеющего более высокий риск-профиль, заверения должны быть особенно детализированными. При экспорте приобретаемой компанией ИИ решений за рубеж необходимо также учитывать особенности местного регулирования ИИ.
При этом стоит учитывать, что рассчитать убытки в случае нарушения подобных заверений может оказаться сложно, поэтому стоит заранее предусмотреть более конкретные последствия нарушений, например заранее оцененные убытки, механизм корректировки цены или, альтернативно, специальные положения о возмещения потерь.
Положения о возмещении потерь также рекомендуется включить в части тех рисков в отношении ИИ, которые были выявлены в результате предсделочной проверки, так как в этом случае знание покупателя о подобных рисках не позволит ему в полной мере полагаться на заверения об обстоятельствах и получить возмещение убытков из нарушения заверений.
Если в ИИ-модели есть критичные риски, покупатель может настаивать на специальных предварительных условиях для закрытия сделки, чтобы продавец сам устранил такие риски до продажи компании. Например, уничтожить архивы незаконно полученных данных, используемых для обучения ИИ-модели, принять меры по технической защите данных, с которыми работает ИИ и подобное.
При правовой проверке важно идентифицировать работников, играющих ключевую роль для поддержки ИИ-модели, и в случае ее важности для бизнеса приобретаемой компании предусмотреть в документации по сделке условие о запрете на их переманивание. На будущее также можно разработать условия их удержания (например, участие в долгосрочной программе мотивации). Также необходимо оценить необходимость вовлечения продавца и его команды в функционирование ИИ-модели в переходный период и необходимость соглашения о неконкуренции.
Эффективная интеграция ИИ-систем после сделки также потребует комплексного подхода к ИИ-комплаенсу, сочетающего технические, организационные и юридические меры, а также сохранения ключевых ИИ компетенций и созданию культуры ответственного использования искусственного интеллекта.
Авторы статьи: Анна Максименко, партнер ККМП | Кучер Кулешов Максименко и партнеры ; Максим Кулешов, управляющий партнер и руководитель M&A практики ККМП | Кучер Кулешов Максименко и партнеры ; Елена Полевая, старший юрист ККМП | Кучер Кулешов Максименко и партнеры ; Сергей Полянин, ИТ директор ККМП | Кучер Кулешов Максименко и партнеры ; Кирилл Дьяков, legal operations officer в MWS AI.
