Must-read
31 июля 2024, 19:18

Предугадать поведение маньяка и вычислить дипфейк: как ИИ меняет работу следователей

Цифровая трансформация затрагивает все сферы, включая криминалистику и системы искусственного интеллекта. Уже сейчас ИИ активно используют и продолжают внедрять в работу следователей. Одни нейросети с помощью городских камер распознают лица и ищут преступников, другие — анализируют улики и помогают сузить круг подозреваемых. Канд. юрид. наук и старший преподаватель БФУ имени Канта Михаил Болвачев раскрыл детали этого процесса и вместе с юристами рассказал, какие трудности могут возникнуть при внедрении нейросетей в работу правоохранителей.

Как нейросети внедрились в криминалистику

Концепция систем поддержки принятия решений (СППР) зародилась в конце 1950-х годов в сфере бизнес-аналитики. Тогда ее использовал высший и средний менеджмент для принятия бизнес-решений. Система анализировала большой объем данных, после чего выдавала информацию, повышающую вероятность верного выбора. Как правило, к ней прибегали в условиях неопределенности, недостатка данных или быстроменяющейся ситуации. Позже СППР нашли применение и в криминалистике, а сегодня системы переживают новый этап развития благодаря внедрению нейросети. 

Нейросети позволяют решать диагностические и идентификационные задачи точнее и быстрее, что критически важно при работе с большими объемами данных в современных расследованиях.

Михаил Болвачев, канд. юрид. наук, старший преподаватель БФУ им. Иммануила Канта 

В криминалистике диагностическими задачами считается определение обстоятельств преступления: времени, места и способа его совершения. Так, нейросети могут проанализировать изображения с места преступления и определить, какое оружие или инструмент использовались для его совершения, приводит пример Болвачев. Идентификационные же задачи связаны с установлением конкретных объектов или людей. Здесь искусственный интеллект помогает распознавать лица, сравнивать отпечатки пальцев и анализировать ДНК. 

«При этом с точки зрения уголовного процесса доказательства, полученные с использованием систем ИИ, например результаты сравнения записи видеокамеры с места преступления с фотографией подозреваемого, равноценны иным доказательствам, собранным по делу (ст. 17 УПК)», — подтверждает старший юрист практики технологий, медиа и телекоммуникаций Меллинг, Войтишкин и Партнеры Артем Свистунов.

Зарубежные страны начали использовать ИИ довольно давно для выявления, расследования и пресечения тяжких и особо тяжких преступлений, в том числе давних и совершенных в условиях неочевидности, отмечает старший партнер Criminal Defense Firm Алексей Касаткин. Несколько лет назад жителя Флориды, которого ложно обвинили в непредумышленном убийстве в результате ДТП, наконец оправдали. Но только после того, как технология распознавания лиц, представленная государственным защитникам, была использована для идентификации и поиска ключевого свидетеля на месте смертельной аварии. Последний подтвердил, что мужчина был пассажиром, а не водителем транспортного средства, уничтоженного в инциденте. Этот пример иллюстрирует очевидную пользу возможностей ИИ не только для правоохранителей, но и для стороны защиты, считает адвокат.

В России впервые внедрять искусственный интеллект в работу следователей стали в 2015 году. Спустя три года во время чемпионата мира по футболу успешно протестировали систему распознавания лиц Findface Security. Тогда в нескольких регионах нейронку подключили почти к 500 камерам городского наблюдения, метрополитена, стадионов, фан-зон и передвижных биометрических комплексов. В итоге с помощью системы задержали 98 человек, которые числились в базах правоохранительных органов.

Еще в США полиция давно тестирует систему Predictive Policing. Она прогнозирует вероятность совершения преступлений в определенных районах на основе статистических данных о преступлениях, совершенных в населенном пункте за последние несколько лет, рассказывает юрист практики технологий, медиа и телекоммуникаций Меллинг, Войтишкин и партнеры Валерия Эйстрах.

Не умаляя достоинств оперативных сотрудников, использование возможностей ИИ отечественными правоохранителями — прогрессивный шаг в сторону более эффективной борьбы с преступностью.

Алексей Касаткин, адвокат и старший партнер Criminal Defense Firm

Сегодня похожие ИИ внедряют в Москве в рамках проекта «Безопасный город». Система отслеживает происходящее и прогнозирует возможные угрозы. Скорость и точность нейросетей позволяет обрабатывать огромные массивы данных, включая видеозаписи с камер наблюдения, телефонные разговоры и цифровые следы в интернете, перечисляет Болвачев. Одна из самых распространенных систем криминалистического учета, которая есть в каждом отделе полиции, — база находящихся в розыске лиц.

С 2020 года стали появляться более продвинутые системы для принятия решений. Одна из них — анализатор серийных убийств под названием «Маньяк». Принцип ее работы прост: в специальную таблицу вводят значимые данные с места преступления, характеристики жертвы (пол, возраст), орудие убийства и вид нападения. Искусственный интеллект просчитывает все возможные варианты и выдает наиболее верный. Так следователь может выдвинуть одну из версий и сузить круг подозреваемых. 

В прошлом году в разработку запустили еще две системы: «Клон» и «Конъюнктура». Первая должна будет находить поддельные видео, созданные при помощи ИИ (в том числе дипфейки), а вторая — прогнозировать чрезвычайные ситуации, их последствия и моделировать сценарии реагирования. Сейчас для систем собирают данные, на которых они будут обучаться. Завершить разработку планируют в 2025 году.

Польза от системы «Клон» очевидна: с помощью человеческого ресурса все дипфейки не найти. Но необходимо понимать, насколько нейросети могут ошибаться и обманывать. Как показывает практика отслеживания работы генеративного интеллекта, и то и другое возможно. Соответственно, у работы «Клона» тоже будет погрешность, которую надо учитывать.

Юлия Гуриева, адвокат, управляющий партнер Seven Hills Legal

Продвинутые системы криминалистического учета на основе нейросетей

«Блок» помогает установить способы хищений и других экономических преступлений. 

«Спрут» устанавливает связи субъектов преступления на основе знаний о преступных формированиях, и других экономических криминогенных факторах.

«Маньяк» анализирует серийные убийства и помогает выдвинуть наиболее вероятную версию о типе предполагаемого преступника.

«Сейф» систематизирует информацию о кражах из хранилищ.

«Зеркало» — геоинформационная система, которая оперирует пространственными (фактическими и статистическими) данными. 

«Криминалист» находит потенциальных преступников, группировки, места совершения преступлений, а также предлагает оптимальные решения для правоохранителей.

Перечисленные системы криминалистического учета отечественные. Многие начали разрабатывать еще советские специалисты. При этом импортные системы использовать не получится, поскольку в каждой из стран преступления имеют разную квалификацию, отмечает Болвачев. Например, в России употреблять жевательную резинку не запрещено, а в Сингапуре за нее полагается штраф в 1000 сингапурских долларов (около 65 000 руб.), а за ее ввоз — и вовсе тюремный срок. Поэтому криминалистические системы носят локальный характер. Программное обеспечение тоже российское, поскольку пишется под конкретные цели. Эксперт предполагает, что это делается для безопасности с учетом чувствительности обрабатываемой информации.

Перспективы, технические трудности и вопрос этики

Но внедрить искусственный интеллект в криминалистику не так просто. Одна из главных трудностей — техническая. «Нейросети — это очень большой и громоздкий инструмент с точки зрения производительности, поэтому для профессионального использования необходимы мощные сервера и специальные вычислительные центры», — отмечает Болвачев. Для обучения нейросетей также нужно создавать определенные базы данных. По словам эксперта, этим сейчас занимается МВД. Другая сложность — реализация, то есть вопросы о том, как и где запускать эти системы. Поэтому в ближайшем будущем программы с искусственным интеллектом вряд ли будут запущены и развернуты в каждом регионе, считает Болвачев. 

При этом с подбором сотрудников для работы с нейросетью ситуация обстоит лучше. Болвачев связывает это с более понятным интерфейсом новых систем: «Вы пишете запрос на обычном языке, и система выдает такой же понятный ответ на человеческом, а не на машинном языке. Это гораздо проще, чем работа с традиционными базами данных, где нужно знать, в какие базы заходить и как формулировать запросы».

Внедрение аналитического искусственного интеллекта в криминалистике также поднимает этические вопросы: не станет ли ИИ подменой следователя или криминалиста? Как воспринимать результаты, выданные системой? Кто будет нести ответственность за решения, принятые на основе рекомендаций ИИ?

Системы не заменяют следователя. Их роль — интегрировать криминалистические данные в рабочий процесс. Это оптимизирует расследование, сокращает время на рутину и позволяет сосредоточиться на аналитике. Но окончательное решение всегда принимает человек, а ИИ лишь инструмент.

Михаил Болвачев, канд. юрид. наук, старший преподаватель БФУ им. Иммануила Канта 

Болвачев не исключает и того, что система может начать действовать на основе стереотипов, ведь ИИ ищет закономерности в предоставленной ему информации. Выводы нейросети могут быть логичными, но неверными из-за упущенных элементов. С ним соглашается и Эйстрах. По ее мнению, основное юридическое и этическое препятствие для внедрения ИИ в криминалистике — это риск ошибки алгоритма. Следствие ошибается в силу человеческого фактора, но в единичных случаях. А с ИИ последствия ошибок гораздо серьезнее, и их сложнее найти из-за непрозрачности работы самообучающегося алгоритма.

Один из самых показательных примеров — The Horizon IT scandal. Из-за ошибки бухгалтерского программного обеспечения с 1999 по 2015 год более 3000 операторов британской почты ложно обвинили в мошенничестве. Из них 900 получили реальные тюремные сроки, а других обязали возмещать убытки. В основе обвинения были данные IT-системы, но разработчик настаивал, что технической ошибки быть не может. В итоге суды начали отменять обвинительные приговоры только в 2020 году, отмечает Эйстрах.

Касаткин также опасается, что в погоне за искусственным увеличением показателей раскрываемости правоохранители будут использовать возможности ИИ не по назначению. Ведь письменные материалы уголовных дел нередко фальсифицируют, и чего в таком случае ожидать от искусственного интеллекта, «управляемого» конкретными людьми, — неизвестно.

Внедрение искусственного интеллекта в расследование преступлений требует взвешенного подхода: при очевидных преимуществах автоматизация процессов с использованием ИИ может привести к непоправимым последствиям.

Валерия Эйстрах, юрист практики технологий, медиа и телекоммуникаций Меллинг, Войтишкин и партнеры

По мнению Свистунова, недостаток использования ИИ в криминалистике кроется в том, что система не показывает, на каких основаниях алгоритм пришел к определенному выводу из набора полученных входных данных. Ситуация усугубляется и нерешенной проблемой «галлюцинаций» генеративных моделей, когда ИИ выдает ничем не обоснованные ответы или просто придумывает их. Это сильно снижает степень доверия к результатам. Поэтому эксперт полагает, что пока внедрять нейросети на текущем уровне развития в столь чувствительные области, как юриспруденция, криминалистика, медицина и оборона, невозможно.

Болвачев, напротив, настроен более оптимистично. Эксперт не делает точных прогнозов развития искусственного интеллекта в криминалистике из-за стремительного развития области и поясняет: «Еще пять лет назад мы не могли представить такую резкую эволюцию генеративного искусственного интеллекта». При этом он уверен, что большая часть систем криминалистического учета так или иначе будут использовать элементы или полноценные блоки ИИ. И позже, по мере удешевления технологий, они перейдут и на региональный уровень. Болвачев не исключает, что в итоге под каждый регион создадут свои системы с учетом их нужд. Например, для Калининградской области могут разработать программу для борьбы с незаконными перемещениями товаров через границу или для контроля туристов, интегрировав ИИ в систему «Безопасный город».