Рикардс: Суперинтеллект никогда не появится
Автор Джеймс Рикардс via DailyReckoning.com,
Читатели знают как минимум две вещи об искусственном интеллекте (ИИ).
Во-первых, безумие искусственного интеллекта в течение последних трех лет приводило к росту фондового рынка, даже при случайных сокращениях на этом пути.
Во-вторых, ИИ — это революционная технология, которая изменит мир и потенциально устранит множество рабочих мест, включая рабочие места, требующие обучения и технических навыков.
Оба пункта верны с многочисленными оговорками. ИИ ведет фондовый рынок к рекордным максимумам, но на рынке есть внешний вид суперпузыря. Крушение может произойти в любое время и привести к падению рынка на 50% и более.
Это не повод сокращать основные фондовые индексы сегодня. Пузырь может длиться дольше, чем кто-либо ожидает. Если вы сократите индексы, вы можете потерять много денег, ошибаясь. Но желательно облегчить распределение акций и увеличить ваше распределение наличными, чтобы избежать худшего ущерба, когда произойдет крах.
Во-вторых, ИИ сделает некоторые рабочие места устаревшими или легко заменяемыми. Конечно, как и любая новая технология, она создаст новые рабочие места, требующие разных навыков. Учителя не устареют. Они перейдут от преподавания основ математики и чтения, которые ИИ делает довольно хорошо, к обучению критическому мышлению и рассуждению, которые компьютеры делают плохо или не делают вообще. Изменения будут повсеместными, но они все равно будут изменениями, а не хаосом.
Ограничения
Искусственный интеллект является мощной силой, но его гораздо меньше, чем кажется на первый взгляд. ИИ может столкнуться с материальными ограничениями с точки зрения вычислительной мощности, учебных наборов и выработки электроэнергии. Полупроводниковые чипы становятся быстрее, а новые уже в пути. Но эти чипы потребляют огромное количество энергии, особенно при установке в огромных массивах в новых центрах обработки данных ИИ. Сторонники обращаются к атомным электростанциям, в том числе к малым модульным реакторам для обеспечения энергетических потребностей ИИ. Этот спрос нелинейный, что означает, что для достижения небольших успехов в обработке выходных данных необходимы экспоненциально более крупные источники энергии. ИИ быстро приближается к практическим пределам своей способности достигать большей производительности.
Это почти ненасытный спрос на энергию означает, что гонка ИИ действительно является энергетической гонкой. Это может сделать США и Россию двумя доминирующими игроками, поскольку Китай зависит от России в энергетике, а Европа зависит от США и России. Санкции против российского энергетического экспорта могут помочь России в гонке ИИ, поскольку природный газ может храниться и использоваться в России для поддержки ИИ и майнинга криптовалют. Это закон непреднамеренных последствий для близоруких европейцев и бедных ресурсами китайцев.
ИИ не хватает здравого смысла
Еще одним ограничением на ИИ, которое мало известно, является закон сохранения информации в поиске. Этот закон подкреплен строгими математическими доказательствами. Это говорит о том, что ИИ не может найти новую информацию. Он может находить вещи быстрее и создавать связи, которые люди могут найти почти невозможными. Это ценно. Но ИИ не может найти ничего нового. Он может только искать и находить информацию, которая уже есть для принятия. Новые знания приходят от людей в виде творчества, искусства, письма и оригинальной работы. Компьютеры не могут выполнять творческие задачи. Это должно дать людям некоторое утешение, что они никогда не устареют.
Еще одной проблемой в ИИ является разбавление и деградация обучающих наборов, поскольку содержание обучающих наборов состоит из вывода ИИ из предыдущей обработки. ИИ склонен к ошибкам, галлюцинациям (лучше называемым конфабуляциями) и выводам, которые на самом деле не имеют под собой оснований. Это достаточно плохо. Но когда этот вывод входит в обучающий набор (в основном на каждую страницу в Интернете), качество обучающего набора ухудшается, а будущий вывод ухудшается синхронно. Хорошего решения для этого нет, кроме тщательного лечения. Если вам нужно быть экспертом по предметам для курирования учебных наборов, а затем оценивать результаты, это значительно снижает роль ИИ.
Компьютерам также не хватает эмпатии, сочувствия и здравого смысла. Они обрабатываются, но на самом деле они не думают, как люди. На самом деле, ИИ вообще не думает, это просто математика. В одном из недавних экспериментов компьютер с искусственным интеллектом был введен в соревнование с группой детей от 3 до 7 лет. Задача состояла в том, чтобы нарисовать круг с инструментами под рукой. Эти инструменты были линейкой, чайником и третьим нерелевантным объектом, таким как печь. Компьютер рассуждал, что правитель — это чертёжный инструмент, похожий на компас, и пытался нарисовать круг с правителем. Это провалилось. Дети увидели, что дно чайника представляет собой круг, и просто проследили за ним, чтобы нарисовать идеальные круги. Система ИИ использует ассоциативную логику. Дети использовали здравый смысл. Дети победили. Этот результат не изменится в будущих соревнованиях, потому что здравый смысл (технически абдуктивная логика) не может быть запрограммирован.
Высоколетающие компании ИИ быстро обнаруживают, что их системы могут быть превзойдены более новыми системами, которые просто используют большой выход ИИ в качестве базового набора обучения. Это ярлык к высокой производительности при небольшой части стоимости. Истеблишмент ИИ-компаний, таких как Microsoft и Google, называет это кражей IP, но это не хуже, чем те гиганты, которые используют существующий IP (включая мои книги, кстати) без уплаты роялти. Это может быть формой пиратства, но это легко сделать и почти невозможно остановить. Это не означает конец ИИ. Это означает конец прогнозов сверхвысокой прибыли для ИИ. Возврат сотен миллиардов долларов, потраченных гигантами ИИ, может быть скудным.
Сэм Альтман: Инноватор или продавец?
Самой известной фигурой в мире ИИ является Сэм Альтман. Он возглавляет OpenAI, который несколько лет назад запустил приложение ChatGPT. ИИ начался в 1950-х годах, казалось, ударился о стену с точки зрения развития в 1980-х годах (период, известный как Зима ИИ), был в значительной степени спящим в 1990-х и начале 2000-х годов, а затем внезапно ожил снова в последние десять лет. ChatGPT был самым загружаемым приложением в истории за первые несколько месяцев и имеет сотни миллионов пользователей сегодня.
Альтман был вытеснен советом OpenAI в прошлом году, потому что компания была задумана как некоммерческая организация, которая разрабатывала ИИ на благо человечества. Альтман хотел превратить его в коммерческую организацию в качестве прелюдии к многосотмиллиардному IPO. Когда топ-инженеры пригрозили уйти и последовать за Альтманом на новое предприятие, совет директоров быстро изменил курс и вернул Альтмана обратно в компанию, хотя точная юридическая структура остается предметом обсуждения.
Между тем, Альтман на полной скорости опередил свои заявления о суперинтеллекте (также известный как продвинутый общий интеллект (AGI) с ключевым словом «общий», что означает, что система может мыслить как люди, только лучше). Один из способов понять суперинтеллект — это метафора, что люди будут относиться к компьютеру так же, как обезьяны к людям. Мы будем считаться умными, но не умнее наших мастеров. Альтман сказал, что «в некотором смысле ChatGPT уже более мощный, чем любой человек, который когда-либо жил». Он также сказал, что ожидает, что машины искусственного интеллекта «сделают реальную когнитивную работу» к 2025 году и создадут «новые идеи» к 2026 году.
Это все ерунда по нескольким причинам. Первое, как отмечалось выше, заключается в том, что учебные наборы (материалы, изучаемые крупными языковыми моделями) загрязняются выходом предыдущих моделей ИИ, так что машины становятся глупее, а не умнее. Закон сохранения информации в поиске, который я также описал выше. Этот закон (поддерживаемый прикладной математикой) гласит, что компьютеры могут находить информацию быстрее, чем люди, но они не могут найти никакой информации, которая уже не существует. Другими словами, машины на самом деле не мыслят и не являются творческими. Они соединяют точки быстрее, чем мы.
В новой статье от Apple делается вывод: «Благодаря обширным экспериментам над различными головоломками мы показываем, что пограничные LRM [модели с большими рассуждениями] сталкиваются с полным коллапсом точности за пределами определенных сложностей. Кроме того, они демонстрируют нелогичный предел масштабирования: их усилия по рассуждению увеличиваются с сложностью проблемы до точки, а затем снижаются, несмотря на достаточный бюджет токенов». Это и другие свидетельства указывают на то, что ИИ достигает пределов логики, которые вычислительная мощность грубой силы не может преодолеть.
Наконец, ни один разработчик никогда не был в состоянии кодировать абдуктивную логику; действительно здравый смысл или инстинкт. Это один из самых мощных инструментов рассуждения, которыми обладают люди. Короче говоря, суперинтеллект никогда не придет. Все больше и больше Альтман выглядит просто еще одним продавцом из Силиконовой долины, который не сильно за ним стоит.
Тайлер Дерден
Солнце, 07/06/2025 - 10:30