Американская ассоциация юристов выпустила этические правила использования ИИ
Американская ассоциация юристов предостерегла от этических нарушений при использовании искусственного интеллекта (ИИ), обратил внимание Reuters.
В первом официальном заключении комитет ассоциации по этике и профессиональной ответственности обратил внимание, что юристы и юридические компании все чаще пользуются инструментами ИИ для проведения юридических исследований, составления и анализа документов и выполнения других задач в судебной и текущей работе. Хотя ИИ может помочь юристам повысить эффективность их работы, но он несет риски, в том числе получения неточных результатов.
Поэтому юристы, использующие технологии ИИ, должны в полной мере учитывать их этические обязательства по защите клиентов, включая обязанности, которые связаны с их компетентностью, обеспечением конфиденциальности клиентов, общением с ними и гонорарами за оказанные услуги. Адвокаты должны стараться предотвращать случайное раскрытие информации о клиентах и принимать решения о том, нужно ли рассказывать доверителям об использовании инструментов ИИ, указывает комитет.
Так, иногда использование ИИ приводит к тому, что адвокаты могут ссылаться на несуществующие дела либо опираться на неточный анализ. Даже непреднамеренное искажение информации в суде может повлечь за собой введение в заблуждение, предупреждает комитет. Поэтому все полученные данные юристы обязаны проверять на точность. И поскольку инструменты ИИ быстро развиваются, ассоциации адвокатов и юристов, вероятно, еще обновят свои рекомендации, добавили в комитете.
В конце 2023 года компания Wolters Kluwer провела исследование проблем и тенденций, влияющих на будущее юридической профессии. Для этого компания опросила 700 юристов из юрфирм и корпоративных юридических отделов США и Европы. Выяснилось, что 73% опрошенных респондентов планируют интегрировать ИИ в свою работу в 2024 году, а на момент опроса технологии уже внедрили 46% юристов. Большинство участников (87%) рассказали, что технологии уже улучшили процесс выполнения текущих задач. А вот мнения о том, считать ли нейросети возможностью либо угрозой, среди юристов разошлись. В более раннем исследовании Wolters Kluwer 2019 года лишь 58% респондентов предсказывали, что ИИ изменит их работу.
ИИ для судей
В мире по-разному разрешают вопрос о допустимости использования ИИ в юридической и, в частности, в судебной работе. Например, в Канаде с осторожностью относятся к этим технологиям. В январе Федеральный суд Канады опубликовал резолюцию об использовании ИИ в работе судей. Там указано, что стороны, включая адвокатов, будут обязаны включать в тексты процессуальных документов специальную пометку о том, что они подготовлены с использованием ИИ. Такое требование должно обеспечить честность судебного разбирательства. Еще суд попросил руководствоваться в вопросе использования ИИ принципом human in the loop. Это значит, что юристы все равно должны проверять все подготовленные ИИ документы. Председатель Федерального суда Канады Пол Крэмптон объяснил: сейчас нет четкого понимания, какие принципы лежат в основе алгоритмов.
В то же время английским судьям разрешили пользоваться ИИ. Для них уже подготовили руководство по использованию технологий, в котором указано, что судья может перепоручить часть текущих задач нейросети. При этом юридический анализ и исследование доказательств обязано проводить лицо, которое принимает решение по делу. Еще в пособии есть перечень признаков, по которым можно установить, что доказательства либо аргументы сторон создал ИИ. Один из них — ссылка на неизвестные ранее либо фиктивные дела по одному и тому же вопросу. Глава Управления гражданского правосудия Англии и Уэльса Джеффри Вос тогда отметил, что ИИ, хотя и несет и новые риски, все же дает новые возможности для системы правосудия.