Американские ИИ-компании открылись для противодействия Китаю
Автор: Кэтрин Янг, The Epoch Times (выделено нами),
5 августа OpenAI выпустила две языковые модели с открытым весом, первый релиз компании с GPT-2 в 2019 году.

Модели с открытым весом делают свои параметры обучения или веса общедоступными, но, как правило, не предоставляют доступ к исходному коду или наборам данных. Модели с открытым исходным кодом обычно включают доступ к исходному коду, весам и методологиям.
С общедоступными весами разработчики могут анализировать и настраивать модель для конкретных задач, не требуя оригинальных данных обучения.
Весы для новых моделей gpt-oss-120b и gpt-oss-20b могут быть бесплатно загружены разработчиками для точной настройки и развертывания в их собственных средах.
"Эти открытые модели также снижают барьеры для развивающихся рынков, секторов с ограниченными ресурсами и небольших организаций, которым может не хватать бюджета или гибкости для принятия запатентованных моделей.Об этом OpenAI заявил 5 августа. Широкий доступ к этим способным моделям с открытым весом, созданным в США, помогает расширить демократические рельсы ИИ. "
6 августа Amazon объявила, что модели OpenAI с открытым весом теперь доступны на рынке генеративного ИИ Bedrock в Amazon Web Services. Это первый раз, когда модель OpenAI была предложена на Bedrock, - говорится в заявлении Amazon.
В мае Meta объявила о сотрудничестве с Red Hat для продвижения ИИ с открытым исходным кодом для предприятий.
Американские компании по искусственному интеллекту и администрация Трампа были в широком согласии относительно необходимости того, чтобы Соединенные Штаты доминировали в пространстве ИИ, что требует широкого внедрения американского стека ИИ, включая аппаратное обеспечение, модели, программное обеспечение, приложения и стандарты.
23 июля Белый дом обнародовал свой план действий в области ИИ, который включает в себя устранение барьеров для компаний для ускорения инноваций и создания инфраструктуры, а также использование дипломатии для установления стандартов ИИ на международном уровне.
Китайские компании ИИ в настоящее время доминируют в открытом пространстве. Сенаторы-республиканцы недавно подписали письмо с просьбой к Министерству торговли изучить риски безопасности данных и потенциальные бэкдоры в китайских моделях с открытым исходным кодом, таких как DeepSeek.
Основатель Huawei Рен Чжэнфэй заявил китайским государственным СМИ в июне, что разработка ИИ в Китае будет включать «тысячи и тысячи программ с открытым исходным кодом». Китайские государственные СМИ Global Times 7 августа опубликовали редакционную статью, в которой высказали мнение, что усилия США по сдерживанию стратегии Китая в области искусственного интеллекта потерпят неудачу, поскольку «Китай принял подход с открытым исходным кодом» для удовлетворения своих огромных потребностей.
Начиная с 2000-х годов китайский коммунистический режим создал альянсы с открытым исходным кодом и направил свой технологический сектор на вступление в сообщество с открытым исходным кодом с целью снижения зависимости от американского проприетарного программного обеспечения.
Со временем Китай перешел от потребителя к вкладчику. Согласно отчету GitHub за 2024 год, Китай был третьим по величине поставщиком программного обеспечения с открытым исходным кодом на платформе. Несмотря на то, что он все еще далек от лидерства в области ИИ во всем мире, он сохраняет сильное присутствие в программном обеспечении с открытым исходным кодом ИИ.
Среди опасений по поводу китайских моделей ИИ — сбор данных, в том числе для целей шпионажа, и отсутствие гарантий, которые могли бы обеспечить распространение вредоносных программ или генерацию вредоносного контента.

OpenAI отмечает, что после выпуска модели с открытым весом "противники могут быть в состоянии доработать модель в злонамеренных целях. "
Чтобы противостоять этому, он настроил две новые модели «на специализированных данных по биологии и кибербезопасности, создав версию для каждого домена, специфичную для каждого домена», и протестировал модели, чтобы увидеть, будут ли они продолжать работать в ограждениях безопасности.
"Эти процессы знаменуют собой значительный прогресс в области безопасности открытых моделей.- заявил OpenAI. Компания также приглашает третьих лиц найти и сообщить о новых проблемах безопасности в своих моделях, чтобы получить приз в размере 500 000 долларов.
Программное обеспечение для проверки безопасности
Крис Гоголь (Chris Gogoel), вице-президент и генеральный директор компании Quokka, занимающейся безопасностью мобильных приложений, говорит, что распространение приложений ИИ, особенно приложений-помощников, увеличило риски безопасности для пользователей в геометрической прогрессии.
Раньше пользователи полагались на разные приложения для разных функций, сегментируя собранные данные и предоставленные разрешения, но приложения ИИ, как правило, являются приложениями «всего», сказал Гоголь.
По его словам, этот повышенный сбор данных приводит к более неотъемлемому риску. Собранные данные также могут быть более чувствительными, потому что пользователи могут кормить приложения длинными пассажами или инструкциями, раскрывающими глубокие мысли, намерения и обоснования, а не просто иметь доступ к исходным файлам.
С большим количеством собранных данных приложения могут быть более крупными целями потенциального нарушения для извлечения данных по сети или с устройства. Более высокий риск заключается в том, что эти приложения поступают из источников, которые не были доказаны как безопасные. OpenAI принял подход, который ценит безопасность, но есть много других непроверенных приложений ИИ, которые были загружены миллионы раз.
" "Что эти приложения делают с нашими данными? Это очень серьезный вопрос,Гоголь добавил.
«Проверка того, что происходит с этими данными, и куда они идут, как они защищены, становится еще более важной, потому что если эти данные используются неправильно, случайно или намеренно, у вас есть серьезная, серьезная проблема», — сказал он.
Gogoel отмечает, что заявления разработчика о том, какие данные собирает приложение, могут быть не такими, как приложение.
Иногда разработчик может не знать, что это так, поскольку они часто пытаются запрыгнуть на тренды и запустить приложения вовремя, чтобы подняться в рейтинге, что приводит к ошибкам, таким как не использование надлежащего шифрования. Они могут не инвестировать в безопасность, возможно, используя программное обеспечение с открытым исходным кодом, которое содержит недостатки. Магазины приложений в настоящее время не требуют проверки деклараций разработчика, и Gogoel выступает за переход к методу проверки.
Одно плохое приложение может испортить кучу, - сказал он.
Quokka, которая начала работать с Пентагоном вокруг своего основания в 2011 году, предоставляет услуги мобильной проверки федеральному правительству и другим клиентам, что привело фирму к изучению TikTok и ByteDance в 2018 году.
Было установлено, что TikTok не только запрашивал широкие разрешения, но и подключался к другим приложениям на устройстве пользователя для получения разрешений, которые пользователь явно не давал. Таким образом, данные, собранные доверенными приложениями для законных целей, могут по-прежнему представлять угрозу безопасности, если они вступают в контакт с непроверенными приложениями.
«Мы не должны оглядываться назад после того, как что-то взорвалось, и огонь уже бушует, так сказать, и есть десятки миллионов пользователей. Мы пытаемся в своей работе обеспечить возможность проверки на каждом шагу, - сказал Гоголь. «Проверяйте, как только что-то попадает в магазин, как только что-то попадает на ваше устройство, как только выходит этот совершенно новый сервис... Он делает то, что говорит на жестянке, и ничего больше. "
Тайлер Дерден
Сат, 08/09/2025 - 22:10