Федеральный суд Канады опубликовал резолюцию об использовании нейросетей в работе судей и в судебных разбирательствах. Суд выразил опасения об использовании искусственного интеллекта при подготовке или подаче документов. Стороны, включая адвокатов, будут обязаны включить в такой текст специальную пометку о том, что он подготовлен с использованием ИИ, чтобы предупредить суд и других лиц об этом. Такое требование должно обеспечить честность судебного разбирательства, поддержать доверие общества к системе правосудия и верховенство закона.
Согласно резолюции Федеральный суд обеспокоен использованием нейросетей в делах, где есть этические вопросы, например в миграционных спорах, и риском фальсификации искусственным интеллектом юридической практики. Ведомство просит руководствоваться принципом human in the loop, то есть юрист-человек будет проверять все подготовленные ИИ документы.
Председатель Федерального суда Канады Пол Крэмптон пояснил изданию The Globe and mail, что использование судьями программ типа ChatGPT при подготовке решений вызывает серьезные вопросы. По его мнению, в настоящее время нет достаточного понимания, какие принципы лежат в основе алгоритмов нейросетей. Крэмптон указывает: использование ИИ в делах, касающихся беженцев, воссоединения семей, студенческих виз или виз для квалифицированных рабочих, недопустимо, поскольку юридическую оценку по таким спорам должен давать только человек. При этом нейросети можно и нужно использовать для перевода судебных решений, считает судья. Технологический комитет суда может уже в ближайшее время одобрить применение технологий в этой сфере. После ИИ юрист будет проверять машинный перевод, чтобы избежать ошибок.