Meta не подпишет Кодекс практики ЕС по генеративному ИИ, говорит исполнительный директор

dailyblitz.de 3 часы назад

Meta не подпишет Кодекс практики ЕС по генеративному ИИ, говорит исполнительный директор

Автор Евгения Филимианова via «Времена Эпохи» (выделено нами)

Главный директор по глобальным делам Meta Джоэл Каплан заявил в пятницу, что Американский технологический гигант не подпишет новый добровольный кодекс практики ЕС для ИИ общего назначенияСсылаясь на правовые неопределенности и меры, которые выходят за рамки основного европейского закона об искусственном интеллекте.

Пешеход проходит перед новым логотипом и именем «Мета» на вывеске перед штаб-квартирой Facebook в Менло-Парке, штат Калифорния, 28 октября 2021 года. Джастин Салливан / Getty Images

В заявлении, опубликованном на LinkedIn, Каплан сказал, что компания не будет подписывать Кодекс практики для ИИ общего назначения (GPAI), свод необязательных руководящих принципов, охватывающих прозрачность ИИ, авторское право и безопасность.

Разработанный для разработчиков моделей ИИ общего назначения, код призван помочь им подготовиться и соблюдать Закон об ИИ, который вступает в силу поэтапно, начиная с августа. 2.

"Европа идет по неверному пути в отношении ИИ.- сказал Каплан. «Мы внимательно рассмотрели свод практических правил Европейской комиссии для моделей ИИ общего назначения, и Meta не будет его подписывать. Этот Кодекс вводит ряд правовых неопределенностей для разработчиков моделей, а также меры, которые выходят далеко за рамки Закона об искусственном интеллекте».

ИИ ЕС Закон создает единую систему для всех стран ЕС, разделяя ИИ на четыре уровня риска: неприемлемый, высокий, ограниченный и минимальный. Системы высокого риска, такие как системы критической инфраструктуры или найма, сталкиваются со строгими требованиями, включая проверку безопасности и документацию.

Он охватывает регулирование крупных языковых моделей и базовых моделей, построенных такими компаниями, как Meta’s Llama, OpenAI’s GPT-4, Google DeepMind’s Gemini и Anthropic’s Claude.

Компании, не соблюдающие требования, могут быть оштрафованы на сумму от 7,5 млн евро ($8,7 млн) или 1,5% от оборота.До 35 млн евро ($38,2 млн) или 7% мирового оборота.

Бизнес-голоса обеспокоены

Выпуск Кодекса GPAI несколько раз откладывался до того, как 10 июля Европейская комиссия опубликовала окончательную версию.

В ЕС заявили, что компании, которые добровольно подпишут GPAI, столкнутся с более легким административным бременем и получат большую юридическую определенность по сравнению с доказательством соблюдения другими методами. На прошлой неделе ChatGPT-производитель OpenAI объявил о намерении подписать код.

Каплан указал на неопределенность отрасли в отношении регулирования ИИ в ЕС. Опасения 44 крупнейших компаний Европы, включая Bosch, Siemens, SAP, Lufthansa, Airbus и BNP.

В открытом письме десятки ведущих европейских бизнес-лидеров ранее в этом месяце призвали чиновников ЕС отложить ключевые части Закона об искусственном интеллекте на два года, предупредив, что нынешние правила слишком сложны и рискуют подорвать конкурентоспособность Европы в области искусственного интеллекта.

Закон об искусственном интеллекте, призванный налагать новые обязательства как на системы ИИ с высоким риском, так и на модели ИИ общего назначения, начиная с 2025 и 2026 годов, может задушить инновации, если они будут реализованы слишком быстро.

«Мы разделяем опасения, высказанные этими предприятиями, что этот чрезмерный охват затормозит разработку и развертывание пограничных моделей ИИ в Европе и заставит европейские компании, желающие построить бизнес на них», - сказал Каплан.

Новые руководящие принципы

Объявление Meta появилось в тот же день, когда Европейская комиссия опубликовала новые руководящие принципы, объясняющие, как компании с ИИ общего назначения должны соблюдать закон ЕС об ИИ.

В руководящих принципах перечислены несколько ключевых требований, включая написание четкой технической документации, объяснение того, какие данные использовались для обучения моделей, установление политики авторского права и защиту систем ИИ от неправильного использования или взлома.

Для самых современных моделей ИИ, которые могут представлять угрозу общественной безопасности, правам человека или обществу, разработчикам также необходимо будет провести тесты безопасности, снизить потенциальный вред и сообщить о серьезных инцидентах регулирующим органам ЕС.

«Предоставляя юридическую уверенность в сфере обязательств по Закону об искусственном интеллекте для поставщиков ИИ общего назначения, мы помогаем субъектам ИИ, от стартапов до крупных разработчиков, уверенно внедрять инновации, обеспечивая при этом безопасность, прозрачность и соответствие их моделей европейским ценностям», — заявила исполнительный вице-президент ЕС по технологическому суверенитету, безопасности и демократии Хенна Вирккунен.

Для поддержки инноваций компании, вносящие значительные изменения в существующие модели, должны будут только документировать изменения и новые данные обучения, а не предоставлять полную документацию всей модели.

По словам официальных лиц, этот подход предназначен для того, чтобы большинство разработчиков могли использовать существующие модели без чрезмерного регулирования.

Тайлер Дерден
Sat, 07/19/2025 - 09:20

Читать всю статью