ЕС принял первый в мире закон об искусственном интеллекте. Он частично запрещает распознавание лиц и присвоение социального рейтинга

Что будет регулировать закон
В течение полугода страны Европейского союза должны ввести в действие запрет на практики, которые закон прямо обозначает как запрещенные. Среди них — технологии, которые позволяют компаниям манипулировать мнением и решениями пользователя, в том числе из-за его возраста, состояния здоровья или экономической ситуации. Также запрещены продукты, в которых пользователей категоризируют в соответствии с их биометрией, и продукты, которые заявляют о возможности предсказывать поведение людей, в частности вероятность совершения ими преступлений, исходя из их «профайлинга» — то есть компьютерной модели поведения, основанной на их прошлом поведении и других характеристиках. Таким образом, фактически закон запрещает «социальный рейтинг» граждан.
В течение первого полугода действия закона должны быть запрещены для продажи системы, использующие распознавание лиц, которые были созданы с помощью массового скрейпинга фотографий людей в интернете либо с помощью данных камер наблюдения. В число запрещенных попали также технологии, позволяющие распознавать эмоции людей — однако только в общественных местах. К примеру, распознавание эмоций для медицинских целей или из соображений безопасности остается разрешенным.
Если компании, зарегистрированные в ЕС, будут уличены в нарушении закона, им грозит штраф до 35 миллионов евро или до 7% глобального годового оборота.
Под регулирование попадают в первую очередь модели, на обучение которых ушло более 10^25 FLOPs. Таким образом, в эту категорию попадут модели как минимум уровня GPT-3.5 от OpenAI, LLaMA от Meta AI, PaLM и Gemini от Google и многие другие. Разработчики моделей ИИ общего назначения — от европейских стартапов до OpenAI и Google — должны будут предоставлять подробный обзор текстов, изображений, видео и других данных в интернете, которые используются для обучения систем, а также соблюдать законодательство ЕС об авторском праве.
Сгенерированные искусственным интеллектом поддельные изображения, видео или аудио существующих людей, мест или событий должны быть помечены как искусственно созданные. Особому контролю подвергаются самые крупные и мощные модели ИИ, представляющие «системный риск», к которым относятся GPT4 от OpenAI и Gemini от Google. В частности, их будут проверять на предвзятость и уважение основных прав человека.
Закон об искусственном интеллекте изначально задумывался как свод правил для безопасности потребителей, применяющий «риск-ориентированный подход» к продуктам или услугам, использующим искусственный интеллект. Чем более рискованным является приложение ИИ, тем более тщательному контролю оно будет подвергаться. Предполагается, что подавляющее большинство систем искусственного интеллекта будут иметь низкий уровень риска, например, системы рекомендаций по содержанию или спам-фильтры.
К системам с высоким уровнем риска, например, в медицинских устройствах или критически важных объектах инфраструктуры, таких как водопроводные или электрические сети, предъявляются более жесткие требования, например, использование высококачественных данных и предоставление пользователям четкой информации.
В ЕС заявили, что обеспокоены тем, что мощные системы ИИ могут «стать причиной серьезных аварий или быть использованы для далеко идущих кибератак». Они также опасаются, что генеративный ИИ может распространить «вредные предубеждения» во многих приложениях, что повлияет на многих людей.
Компании, предоставляющие такие системы, должны будут оценивать и снижать риски, сообщать о любых серьезных инцидентах, таких как сбои в работе, повлекшие чью-то смерть или серьезный ущерб здоровью или имуществу, принимать меры кибербезопасности, а также раскрывать информацию о том, сколько энергии потребляют их модели.
Исключения для правоохранительных органов
Несмотря на принципиальный запрет для правоохранительных органов в отношении использования систем биометрической идентификации (СБИ), им будет позволено прибегать к соответствующим методам в исчерпывающе перечисленных и узко определенных ситуациях. Так, применение СБИ в режиме реального времени может производиться только при соблюдении строгих мер безопасности, например, только с ограничением по времени или географическому охвату и лишь на основании специального предварительного судебного или административного разрешения. Такое использование может включать, например, целенаправленный поиск безвестно отсутствующих лиц или предотвращение террористических актов. В то же время, использование таких систем постфактум рассматривается как действие, сопряженное с высоким уровнем риска, для осуществления соответствующей деятельности требуется получение судебного постановления в рамках конкретного уголовного дела.
Законодательство в других странах
Принятый Европарламентом закон — первый в мире в своем роде. Однако регулирование систем, которые называют «искусственным интеллектом», обсуждается в разных странах. К примеру, в России председатель комитета Госдумы по информационной политике Александр Хинштейн неоднократно поднимал вопрос о закреплении в законодательстве понятия «дипфейк» (генерации фейковых видео и изображений с помощью нейросетей). В парламенте США в январе 2024 года также начали обсуждать принятие закона, запрещающего генерацию фейковых фото и видео. Если он будет принят, наказание могут получить граждане, которые генерируют искусственные изображения или голоса настоящих людей без их согласия.