Ранний инвестор OpenAI: пугающая причина, по которой США должны выиграть гонку ИИ против Китая
Венчурный капиталист Винод Хосла выступил с серьезным предупреждением, заявив, что Соединенные Штаты участвуют в гонке искусственного интеллекта «сделай или умри» против Китая, и призрак всемирной коммунистической идеологии надвигается, если Америка колеблется. Хосла предупредил, что Неспособность возглавить ИИ может позволить авторитарному режиму Китая навязать свое репрессивное видение во всем мире.
«Есть еще один вид риска, о котором я беспокоюсь еще больше», — сказал Хосла в интервью X Марио Навфаль. «Китай может использовать ИИ в кибервойне или физической войне на поле боя, но я беспокоюсь о том, что еще больше Экономическая мощь, которую ИИ даст нации, которая быстро движется и побеждает в гонке"
EXCLUSIVE: OPENAI’S EARLIEST INVESTOR — THE REAL AI THREAT ISN’T WAR
Забудьте о ракетах. Самое мощное оружие, которым Китай может обладать с помощью ИИ, — это влияние.
«К 2030 году легко представить Китай, предлагающий бесплатных врачей, бесплатных репетиторов, использующих услуги на основе искусственного интеллекта. https://t.co/RnuW2yyI52 pic.twitter.com/OABuiQc1Da
— Mario Nawfal (@MarioNawfal) 22 апреля 2025 г.
"Если у вас есть экономическая мощь, я думаю, что к 2030 году тривиально легко представить Китай, предоставляющий бесплатных врачей всей планете. Бесплатные репетиторы для каждого ребенка на планете и использование, по сути, бесплатных товаров и услуг для распространения своей политической философии. "
Хосла, который стал соучредителем Sun Microsystems, а затем одним из первых спонсоров OpenAI через свою венчурную компанию Khosla Ventures, пошел еще дальше, обладая мощным ИИ, потенциально смертельной угрозой для мира.
«Самый большой риск — ИИ в руках китайцев или любые плохие руки. Чем мощнее предприятие, тем больше риск- сказал индийско-американский технолог. Если кто-то использовал ядерное оружие, это поддается проверке. При использовании ИИ может быть не поддающимся проверке. "
@vkhosla: Самый большой риск — ИИ в руках китайцев. "
"" Если кто-то использовал ядерное оружие, это поддается проверке. При использовании ИИ может быть невозможно проверить.pic.twitter.com/z1azm2xsgo
— Josh Caplan (@joshdcaplan) 23 апреля 2025 г.
Президент Дональд Трамп сделал ключевым приоритетом для США доминировать над ИИ.
В январе Трамп подписал указ под названием «Устранение барьеров для американского лидерства в области искусственного интеллекта», направленный на укрепление доминирования США в ИИ, отменив то, что его администрация сочла ограничительной политикой от указа президента Джо Байдена об искусственном интеллекте 2023 года. Распоряжение Трампа отменило рамки Байдена, в которых подчеркивались надзор, смягчение рисков и справедливость, включая требования к компаниям делиться результатами тестов безопасности с правительством и рассматривать потенциал ИИ для дискриминации.
Вместо этого Директива Трампа отдает приоритет дерегулированию, призывая к тому, чтобы системы ИИ были свободны от «идеологических предубеждений или сконструированных социальных программ» для стимулирования инноваций, экономической конкурентоспособности и национальной безопасности. Он предписывает 180-дневный план действий ИИ, возглавляемый ключевыми советниками, такими как ИИ и крипто-царь Дэвид Сакс, для оптимизации политики и устранения бюрократических препятствий.
Трамп продвигал совместное предприятие OpenAI, Oracle и SoftBank стоимостью 500 миллиардов долларов, которое он назвал «крупнейшим инфраструктурным проектом ИИ в истории». Инициатива направлена на создание общенациональной сети центров обработки данных в Соединенных Штатах.
"Китай — конкурент, а другие — конкуренты. Мы хотим, чтобы это было в нашей стране.Трамп сказал на заявлении Белого дома, к которому присоединились Сэм Альтман из OpenAI, сын Масаёси из SoftBank и Ларри Эллисон из Oracle.
«Мы должны построить этот материал», — добавил президент. «Они должны производить много электроэнергии, и мы дадим им возможность очень легко производить ее на своих собственных заводах. "
Тайлер Дерден
Свадьба, 23.04.2025 - 23:00