«Крестный отец ИИ» предупреждает о сверхразумности Машины могут заменить человечество

dailyblitz.de 3 недели назад

«Крестный отец ИИ» предупреждает о сверхразумности Машины могут заменить человечество

Автор Tom Ozimek via Эпохальные времена,

Джеффри Хинтон (Geoffrey Hinton), ученый-компьютерщик, названный «Крестным отцом ИИ», в очередной раз забил тревогу, что та самая технология, которую он помог воплотить в жизнь, может означать конец человечества, каким мы его знаем.

В интервью, опубликованном 18 августа в рамках предстоящего фильма «Создавая Бога», Хинтон выступил с одним из своих самых суровых предупреждений. Он сказал, что человечество рискует быть отодвинутым на второй план и в конечном итоге замененным машинами, которые намного умнее нас.

«Большинство людей не в состоянии понять идею вещей, более интеллектуальных, чем мы», — сказал Хинтон, лауреат Нобелевской премии по физике и бывший руководитель Google.

«Они всегда думают: как мы будем использовать эту штуку? Они не думают, ну, как это будет использовать нас? "

Хинтон сказал, что он «довольно уверен», что искусственный интеллект приведет к массовой безработице, указывая на ранние примеры технологических гигантов, таких как Microsoft, заменяющих младших программистов ИИ. Но большая опасность, по его словам, выходит далеко за рамки рабочего места.

«Риск, о котором я предупреждал больше всего, — это риск того, что мы разработаем ИИ, который намного умнее нас, и он просто возьмет верх», — сказал Хинтон.

«Нам это больше не понадобится. "

Единственная серебряная подкладка, пошутил он, это то, что «она нас не съест, потому что она будет сделана из кремния». "

От прорывов к сожалениям

77-летний Хинтон провел десятилетия, внедряя глубокое обучение, архитектуру нейронных сетей, которая лежит в основе современных систем искусственного интеллекта. Его прорывы в 1980-х годах, особенно изобретение машины Больцмана, которая могла научиться распознавать закономерности в данных, помогли открыть двери для распознавания изображений и современного машинного обучения.

Эта работа принесла ему Нобелевскую премию по физике 2024 года, присужденную «за фундаментальные открытия и изобретения, которые позволяют машинному обучению с искусственными нейронными сетями». "

Королевская Шведская академия наук отметила, что раннее использование Хинтоном статистической физики обеспечило концептуальный скачок, который сделал сегодняшнюю революцию ИИ возможной.

Но Хинтон с тех пор стал одним из самых яростных критиков этой области, предупреждая, что ее быстрое развитие опережает способность общества обеспечивать ее безопасность. В 2023 году он уволился с должности в Google, чтобы свободно говорить о рисках, не вмешиваясь в компанию.

В своей Нобелевской лекции Хинтон признал потенциальные преимущества ИИ, такие как повышение производительности и новые методы лечения, которые могут стать «замечательным прогрессом для всего человечества». Однако он также предупредил, что создание цифровых существ, более интеллектуальных, чем люди, представляет собой «экзистенциальную угрозу». "

«Хотелось бы, чтобы я тоже думал о безопасности». Об этом он заявил во время недавней конференции Ai4 в Лас-Вегасе. Он добавил, что теперь сожалеет, что сосредоточился исключительно на том, чтобы заставить ИИ работать, а не предвидеть его риски.

Учить ИИ заботиться

По оценкам Хинтона, существует 10-20-процентная вероятность того, что ИИ может уничтожить человечество. В июньском эпизоде подкаста «Дневник генерального директора» он сказал, что инженеры, стоящие за сегодняшними системами ИИ, не полностью понимают технологию и в целом попадают в два лагеря: один, который верит в антиутопическое будущее, где люди смещены, а другой, отвергая такие страхи, как научная фантастика.

Я думаю, что обе эти позиции являются крайними. Хинтон сказал.

«Я часто говорю о 10-20-процентном шансе уничтожить нас. Но это просто интуиция, основанная на идее, что мы все еще делаем их, и мы довольно изобретательны. И есть надежда, что если достаточно умные люди проведут достаточно исследований с достаточным количеством ресурсов, мы придумаем способ их создания, чтобы они никогда не хотели причинить нам вред. "

На конференции в Лас-Вегасе Хинтон предложил новую идею о том, как смягчить опасность: вместо того, чтобы пытаться заставить системы ИИ подчиняться, исследователи должны разработать их с «материнскими инстинктами», чтобы они хотели защитить людей, даже когда они становятся умнее.

«Правильная модель — это единственная модель, в которой более умная вещь контролируется менее умной вещью, а мать контролируется ее ребенком». Об этом Хинтон заявил на конференции.

«Они будут намного умнее нас», — предупредил Хинтон, добавив, что «единственный хороший результат» — если они заботятся о человечестве так, как мать относится к своему ребенку.

«Если он не станет моим родителем, он заменит меня. "

Тайлер Дерден
Мон, 08/25/2025 - 10:20

Читать всю статью