Закон для нейросетей: как в Европе будут регулировать разработку и деятельность искусственного интеллекта
Они выразили надежду, что закон станет глобальным стандартом и для других юрисдикций. Жаркие обсуждения и непростые переговоры длились три дня, иногда по 15 часов кряду. Но по мнению участников дебатов, оно того стоило, сообщил «Коммерсант».
В ближайшие недели законодателям предстоит поработать над техническими деталями и согласовать итоговые формулировки. Сделать предстоит немало, поэтому вступление закона в силу ожидается не ранее 2025 года.
Документ отражает порядок применения различных систем, использующих в своей работе нейросети. Например, будущий закон запретит применение систем удалённой биометрической идентификации (каковой является система распознавания лиц) в общественных местах в режиме реального времени. А полиция будет иметь право использовать предиктивную аналитику для считывания эмоций только в исключительных случаях, к примеру, при угрозе теракта или совершения тяжкого преступления.
Эта мера тут же была встречена критикой. Правозащитников не сильно обрадовала легализация распознавания лиц в реальном времени. По их мнению, пакет положений о биометрическом слежении и профайлинге вряд ли можно назвать успехом.
Известно, что документ будет разграничивать все системы искусственного интеллекта по уровню риска — от низкого до неприемлемого. Закон обяжет разработчиков чат-ботов раскрывать информацию об источниках, которые используются при обучении нейросети. Это могут быть книги, картины, музыка и другие интеллектуальные продукты. Новое правило защитит их создателей от плагиата и нарушения авторских прав. За несоблюдение закона компанию могут оштрафовать на солидную сумму – до 30 миллионов евро или на шесть процентов годовой выручки в денежном эквиваленте.
Как утверждают эксперты, регулирование сферы разработок искусственного интеллекта в Еврозоне – это положительный пример для других государств, которые работают над этим вопросом. Правительствам необязательно копировать всё подряд, но многие правила вполне можно позаимствовать.