ПРАВО.ru
Практика
24 мая 2024, 10:29

В Совфеде обсудили регулирование искусственного интеллекта

Сенаторы признали: ИИ может вызвать проблемы, если попадет не в те руки. Применение технологии нуждается в серьезной законодательной корректировке.

В Совете Федерации прошло заседание на тему злоупотреблений с использованием искусственного интеллекта и возможностей противодействия.

«Весьма наболела тема телефонного мошенничества с обманом людей и вымогательством у них денег. Этот процесс поставлен преступниками на продвинутую технологическую основу с использованием искусственного интеллекта, что позволяет делать бесчисленное количество звонков. При этом сгенерированный компьютером голос невозможно отличить от голоса реального человека», — сообщил председатель комиссии Совфеда по информационной политике и взаимодействию со СМИ Алексей Пушков (цитата с сайта верхней палаты парламента).

Сенатор добавил: использование таких технологий может привести к искажению истории и восприятия действительности, созданию ложных информационных полей и нарушению прав человека. Те, кто намерен использовать ИИ в противоправных целях, имеют для этого широкие возможности, заметил Пушков.

«Нам предстоит определить, какие сферы требуют вмешательства законодателей, проконсультироваться с нашими коллегами из правоохранительных органов и структур, занимающихся правозащитной деятельностью. Мы находимся в самом начале пути», — сказал он.

Первый зампредседателя комитета Совета Федерации по конституционному законодательству и госстроительству Ирина Рукавишникова обратила внимание: на основании данных, полученных с помощью искусственного интеллекта, могут быть приняты неверные решения. В качестве примера она привела арест на основании неверного опознания, проведенного ИИ. Ошибку признали после того, как человек провел в заключении десять месяцев.

По мнению члена комитета СФ по конституционному законодательству и госстроительству Артема Шейкина, ИИ — одна из наиболее перспективных технологий, но при этом она остается удобным инструментом для злоупотреблений и манипуляций.

Пушков настаивал, что необходимо эффективное законодательное регулирование сферы применения ИИ. Он призвал изучить опыт других стран. По словам Рукавишниковой, в Евросоюзе используют жесткий подход: централизованный контроль всех стадий разработки и применения генеративных нейросетей с их тестированием перед использованием. В США, Великобритании и Японии, наоборот, контроль минимальный. Лучший вариант для России, как считает сенатор, — нейтральное регулирование с соблюдением баланса между развитием и безопасностью с точечным характером ограничений, как в Китае, передают «Известия».

Рукавишникова предложила разделить на четыре группы сферы, в которых могут применяться нейросети. Первая — с недопустимым риском применения ИИ. Искусственный интеллект не должен ставить окончательные медицинские диагнозы или выносить судебные решения. Вторая — с высоким риском. Речь идет об образовании, инфраструктуре транспорта и подобном. Третья — сферы с ограниченным риском, здесь использование ИИ возможно при условии, что люди будут знать, что взаимодействуют с нейросетью. Четвертая — минимальный риск и свободное использование ИИ, например в видеоиграх, программах для фильтрации спама.

Такой подход пропишут в проекте Цифрового кодекса, который сейчас разрабатывается, добавила сенатор. По ее мнению, еще нужно принять закон о маркировке контента, произведенного с помощью ИИ. За несоблюдение требований должна быть ответственность.