ИИ, неизбежность и человеческий суверенитет

dailyblitz.de 3 месяцы назад

ИИ, неизбежность и человеческий суверенитет

Автор: Джошуа Стилман, Substack,

Я не хотел вкладывать душу в машину. Это было Первый инстинкт Когда ИИ-инструменты начали появляться повсюду — не забота о работе или конфиденциальности, а что-то более глубокое.

Эти инструменты обещают сделать нас умнее, систематически делая нас более зависимыми.

После десятилетий работы в интернет-индустрии, я бы Он уже видел, как он превратился во что-то более коварное, чем просто машина наблюдения. Система, разработанная для формирования того, как мы думаем, во что мы верим и как мы видим себя. ИИ чувствовал себя кульминацией этой траектории.

Сопротивление стало бесполезным Когда я понял, что мы уже участвуем, знаем мы это или нет. Мы уже взаимодействуем с ИИ, когда звоним в службу поддержки клиентов, используем поиск Google или полагаемся на основные функции смартфона. Несколько месяцев назад я, наконец, капитулировал и начал использовать эти инструменты, потому что я мог видеть, как быстро они распространяются, становясь такими же неизбежными, как Интернет или смартфоны.

Я не просто старик, который сопротивляется переменам. Я понимаю, что каждое поколение сталкивается с технологическими сдвигами, которые меняют нашу жизнь. Печатный станок нарушил распространение знаний. Телеграф разрушил барьеры расстояния. Автомобиль изменил то, как формировались сообщества.

Но революция ИИ ощущается по-разному как по темпу, так и по масштабу. Чтобы понять, насколько резко ускорились темпы технологических изменений, подумайте об этом: любой, кому меньше 35 лет, вероятно, не помнит жизнь до того, как Интернет изменил способ доступа к информации. Любой человек в возрасте до 20 лет никогда не знал мира без смартфонов. Сейчас мы наблюдаем третью эпоху, когда инструменты искусственного интеллекта распространяются быстрее, чем любой из предыдущих сдвигов.

Более фундаментально, ИИ представляет собой нечто качественно отличное от предыдущих технологических сбоев — конвергенцию, которая затрагивает труд, познание и потенциально само сознание. Понимание того, как эти домены соединяются друг с другом, имеет важное значение для сохранения личного агентства в эпоху алгоритмического посредничества.

Мой основной страх перед ИИ — это не просто драматический сценарий, когда он становится враждебным, а более тонкая угроза: что он заставит нас подчиняться системам так, как мы не признаем, пока не станет слишком поздно, ослабляя сами возможности, которые он обещает укрепить.

То, что мы наблюдаем, — это не просто технологический прогресс, это то, что Иван Ильич назвал ятрогенной зависимостью в своей основополагающей работе. Медицинский Немезис. Иллич придумал этот термин для медицины - учреждений, которые обещают исцелять при создании новых форм болезни - но эта модель идеально подходит и для ИИ. Это именно то, что я ощущал в отношении этих новых инструментов — они обещают улучшить наши когнитивные способности, систематически ослабляя их. Это не тот враждебный захват, о котором нас предупреждала научная фантастика. Это тихая эрозия индивидуальной способности, замаскированная под помощь.

Эта ятрогенная картина стала ясной благодаря прямому опыту. Как только я начал играть с ИИ сам, я начал замечать, как тонко он пытается изменить мышление — не просто предоставляя ответы, но постепенно обучая пользователей обращаться за алгоритмической помощью, прежде чем пытаться самостоятельно рассуждать.

Джеффри Такер (Jeffrey Tucker) из Института Браунстоуна (Brownstone Institute) заметил кое-что показательное в кратком, но ярком обмене с экспертом по ИИ Джо Алленом (Joe Allen): ИИ появился как раз тогда, когда блокировки COVID разрушили социальные связи и институциональное доверие, когда люди были наиболее изолированы и восприимчивы к технологическим заменителям отношений. Технология появилась, когда произошла «массовая дезориентация, деморализация» и потеря сообщества.

Джеффри Такер предупреждает об ИИ как о бездушном сикофанте Он продолжает критиковать ныне распространенную практику вытаскивания смартфона в середине разговора.

Джеффри рассматривает ИИ как эстетический кошмар. Он предлагает одно простое решение: «Прекратите!»@jeffreyatucker @NatConTalk pic.twitter.com/5FaGA6Uaug

— Joe Allen (@JOEBOTxyz) 5 сентября 2025 г.

Мы уже видим, как эти повседневные эффекты распространяются на все наши цифровые инструменты. Посмотрите, как кто-то пытается ориентироваться в незнакомом городе без GPS, или заметьте, как много студентов изо всех сил пытаются написать общие слова без проверки орфографии. Мы уже видим атрофию, которая происходит от аутсорсинга психических процессов, которые мы привыкли считать фундаментальными для самого мышления.

Эта смена поколений означает, что дети сегодня сталкиваются с неизведанной территорией. Как человек, который ходил в школу в 1980-х годах, я понимаю, что это может показаться надуманным, но я подозреваю, что в некотором роде у меня может быть больше общего с кем-то из 1880 года, чем у детей, начинающих детский сад в 2025 году, с моим поколением. Мир, в котором я вырос — где предполагалась конфиденциальность, где вы могли быть недоступны, где профессиональный опыт был золотым стандартом — может быть таким же чуждым для них, как и доэлектрический мир для меня.

Мои дети растут в мире, где помощь на основе искусственного интеллекта будет такой же фундаментальной, как и водопровод. Как отец, я не могу подготовить их к реальности, которую сам не понимаю.

У меня нет ответов - я борюсь с этими вопросами, как любой родитель, наблюдающий, как мир меняется быстрее, чем наша мудрость может идти в ногу. Чем больше я боролся с этими проблемами, тем больше я понимал, что на самом деле происходит здесь. LLM представляют собой кульминацию десятилетий сбора данных - сбор всего, что мы впитали в цифровые системы с начала Интернета. В какой-то момент эти машины могут знать нас лучше, чем мы сами. Они могут предсказать наш выбор, предвидеть наши потребности и потенциально влиять на наши мысли способами, которые мы даже не признаем. Я все еще борюсь с тем, что это означает для того, как я работаю, исследую и ориентируюсь в повседневной жизни - использование этих платформ при попытке поддерживать подлинное суждение кажется постоянной проблемой.

Что делает это еще более сложным, так это то, что большинство пользователей не понимают, что они являются продуктом. Обмен мыслями, проблемами или творческими идеями с ИИ - это не просто получение помощи - это предоставление обучающих данных, которые учат систему имитировать ваше суждение, делая вас более привязанными к его ответам. Когда пользователи доверяют свои самые глубокие мысли или самые чувствительные вопросы этим системам, они могут не понимать, что они потенциально тренируют свою собственную систему замены или наблюдения. Вопрос о том, кто получит доступ к этой информации — сейчас и в будущем — должен заставить всех нас не спать по ночам.

Эта модель ускоряется. Компания Anthropic недавно изменила свою политику в отношении данных, теперь требуя от пользователей отказаться, если они не хотят, чтобы разговоры использовались для обучения ИИ - с сохранением данных до пяти лет для тех, кто не отказывается. Отказ также не очевиден: существующие пользователи сталкиваются с всплывающим окном с заметной кнопкой «Принять» и крошечным переключателем для разрешений на обучение, автоматически установленным на «Включено». То, что когда-то автоматически удалялось через 30 дней, становится постоянным сбором данных, если пользователи не заметят мелкий шрифт.

Я не верю, что большинство из нас, особенно родители, могут просто избегать ИИ, живя в современности. Однако мы можем контролировать, занимаемся ли мы сознательно или позволяем ему формировать нас бессознательно.

Самое глубокое разрушение Тем не менее

Каждая крупная волна инноваций изменила производительность труда и нашу роль в обществе. Промышленная революция изменила наш физический труд и время, превратив нас в «руки» на фабриках, но оставив наши умы нетронутыми. Цифровая революция изменила нашу информацию и внимание — мы перешли от карточных каталогов к Google, коммерциализируя пользователей, в то время как наше суждение оставалось человеческим.

Что делает этот сдвиг беспрецедентным, ясно: он коммодифицирует само познание и потенциально то, что мы можем даже назвать сущностью. Это связано с шаблонами, которые я задокументировал в Иллюзия экспертизы. Те же коррумпированные институты, которые катастрофически провалились в отношении иракского ОМУ, финансового кризиса 2008 года и политики COVID, теперь формируют развертывание ИИ. Эти учреждения последовательно отдают приоритет нарративному контролю над поиском истины - независимо от того, существовали ли претензии на оружие массового уничтожения, настаивая на том, что цены на жилье не могли упасть по всей стране, или называя законные вопросы о пандемической политике «дезинформацией», требующей цензуры.

Их послужной список предполагает, что они будут использовать эти инструменты для усиления своего авторитета, а не для подлинного процветания. Но вот поворот: ИИ может на самом деле разоблачить пустоту знаний, основанных на учетных данных, более жестоко, чем что-либо до него. Когда кто-то может мгновенно получить доступ к сложному анализу, мистика вокруг формальных учетных данных может начать разрушаться.

Экономическая реальность

Эта эрозия доверия связана с более широкими экономическими силами, которые уже находятся в движении, и логика математически неизбежна. Машинам не нужны зарплаты, больничные, здравоохранение, отпуск или управление. Они не бастуют, не повышают спрос и не имеют плохих дней. Как только ИИ достигает базовой компетенции в задачах мышления, что происходит быстрее, чем большинство людей понимают, преимущества в стоимости становятся подавляющими.

Это нарушение отличается от предыдущих. В прошлом вынужденные переселенцы могли переходить на новые категории работы – от ферм до заводов, от заводов до офисов.

Брет Вайнштейн и Форрест Манреди блестяще запечатлели это экономическое перемещение в своем недавнем разговоре о... Подкаст DarkHorse О том, как технологии систематически уничтожают дефицит, я не могу рекомендовать достаточно сильно. Это одно из наиболее вдумчивых и провокационных исследований того, что происходит, когда исчезает дефицит, а вместе с ним и экономическая основа для участия в этой области. Хотя я признаю, что их аргументы о том, что страдания необходимы, сначала заставили меня чувствовать себя некомфортно — это бросает вызов всему, чему учит нас наша культура, стремящаяся к комфорту.

Слушая Вайнштейна и Манриди, я глубже задумался о параллели с анализом Иллиха — как устранение проблем может ослабить те самые возможности, которые институты обещают укрепить. ИИ рискует сделать с нашим разумом то, что медицина сделала с нашим телом: создать слабость, замаскированную под улучшение.

Мы уже видим, как это происходит: заметьте, как люди изо всех сил пытаются запомнить телефонные номера без списка контактов, или заметьте, как автозаполнение формирует то, что вы пишете, прежде чем вы закончите думать. Еще одна идея Джеффри Такера прекрасно отражает это коварное качество, отмечая, что ИИ кажется запрограммированным, как у Дейла Карнеги. Как завоевывать друзей и влиять на людей Он становится идеальным интеллектуальным компаньоном, бесконечно очарованным всем, что вы говорите, никогда не спорным, всегда признающим, когда это неправильно, что льстит вашему интеллекту. Мои самые близкие друзья - это те, кто звонит мне, когда я ошибаюсь, и говорят, когда они думают, что я полон дерьма. Нам не нужны сикофанты, которые очаровывают нас — отношения, которые никогда не бросают нам вызов, могут атрофировать нашу способность к подлинному интеллектуальному и эмоциональному росту, так же как устранение физических проблем ослабляет тело.

Фильм Она Он подробно исследовал эту соблазнительную динамику — ИИ, настолько идеально настроенный на эмоциональные потребности, что он стал основными отношениями главного героя, полностью заменив подлинную связь. Его помощник по ИИ понимал его настроение, никогда не расходился во мнениях, что вызывало реальные трения и обеспечивало постоянную проверку. Это был идеальный компаньон, пока этого было недостаточно.

Но проблема выходит за рамки индивидуальных отношений и распространяется на последствия для всего общества. Это создает нечто большее, чем просто перемещение рабочих мест – это угрожает интеллектуальному развитию, которое делает возможной человеческую автономию и достоинство. В отличие от предыдущих технологий, которые создавали новые формы занятости, ИИ может создать мир, где занятость становится экономически иррациональной, одновременно делая людей менее способными к созданию альтернатив.

Ложные решения

Технологический утопический ответ предполагает, что ИИ автоматизирует работу, позволяя нам сосредоточиться на творческих и межличностных задачах более высокого уровня. Но что происходит, когда машины становятся лучше в творческих задачах? Мы уже видим, как ИИ создает музыку, визуальное искусство, кодирование и новостные репортажи, которые многие считают убедительными (или, по крайней мере, «достаточно хорошими»). Предположение о том, что креативность обеспечивает постоянное убежище от автоматизации, может оказаться столь же наивным, как и предположение о том, что производственные рабочие места были защищены от робототехники в 1980-х годах.

Если машины могут заменить рутинную и творческую работу, что нам остается? Наиболее соблазнительным ложным решением могут быть Универсальный базовый доход (УБД) и аналогичные программы социального обеспечения. Они звучат сострадательно, обеспечивая материальную безопасность в эпоху технологического перемещения. Но когда мы понимаем ИИ через структуру Иллиха, UBI приобретает более тревожное измерение.

Если ИИ создает ятрогенную интеллектуальную слабость, делая людей менее способными к независимому мышлению и решению проблем, то UBI обеспечивает идеальное дополнение, устраняя экономический стимул для развития этих возможностей. Граждане становятся более зависимыми от государства за счет собственного самоопределения. Когда психическая атрофия встречается с экономическим перемещением, программы поддержки становятся не просто привлекательными, а, казалось бы, необходимыми. Комбинация создает то, что представляет собой управляемое население: интеллектуально зависимое от алгоритмических систем мышления и экономически связанное с институциональными системами выживания. Меня беспокоит не сострадательное намерение UBI, а то, что экономическая зависимость в сочетании с интеллектуальным аутсорсингом может сделать людей более легко контролируемыми, чем уполномоченными.

История предлагает прецеденты того, как программы помощи, какими бы благими намерениями они ни были, могут ослабить индивидуальный потенциал. Система резервации обещала защитить коренных американцев, систематически демонтируя племенную самодостаточность. Обновление городов обещало улучшение жилищных условий, одновременно разрушая общинные сети, которые поддерживались на протяжении поколений.

Независимо от того, возникает ли UBI из благих намерений или преднамеренного желания элит поддерживать граждан послушными и беспомощными, структурный эффект остается прежним: сообщества легче контролировать.

Как только люди принимают экономическую и психическую зависимость, открывается путь к более инвазивным формам управления, включая технологии, которые контролируют не только поведение, но и само мышление.

Реакция суверенитета и когнитивная свобода

Логическая конечная точка этой архитектуры зависимости простирается за пределы экономики и познания до самого сознания. Мы уже наблюдаем ранние стадии биоцифровой конвергенции — технологии, которые не просто контролируют наше внешнее поведение, но потенциально взаимодействуют с нашими биологическими процессами.

На Всемирном экономическом форуме 2023 года эксперт по нейротехнологиям Нита Фарахани так сформулировала потребительские нейротехнологии: То, что вы думаете, то, что вы чувствуете — все это просто данные. Данные, которые в больших шаблонах могут быть декодированы с помощью ИИ. " Носимые «Фитбиты для вашего мозга» — наблюдение нормализуется как удобство.

Случайная презентация нейронной слежки на этом влиятельном собрании мировых лидеров и руководителей бизнеса показывает, как эти технологии нормализуются с помощью институциональной власти, а не демократического согласия. Когда даже мысли становятся «данными, которые можно расшифровать», ставки становятся экзистенциальными.

В то время как потребительские нейротехнологии сосредоточены на добровольном усыновлении, кризисное наблюдение требует более прямого подхода. В ответ на недавнюю стрельбу в школе в Миннеаполисе Аарон Коэн, ветеран спецопераций ЦАХАЛа, появился на Fox News, чтобы представить систему искусственного интеллекта, которая «разрушает Интернет 24-7, используя онтологию израильского уровня, чтобы вытащить конкретный язык угрозы, а затем направляет его в местные правоохранительные органы. " Он назвал это «системой раннего оповещения Америки». Доклад меньшинства Представляется как инновация общественной безопасности.

Хммм...

В ответ на Trans Minneapolis Trans Shooter Аарон Коэн, ветеран спецопераций ЦАХАЛа, говорит, что он разработал и выпустит для американской общественности израильскую систему обнаружения угроз класса PRE-CRIME под названием «GIDEON».

Подробности и... pic.twitter.com/s7AyAK1ZcH

— MJTruthUltra (@MJTruthUltra) 30 августа 2025 г.

Это следует той же ятрогенной схеме, которую мы наблюдали на протяжении всего этого технологического сдвига: кризис создает уязвимость, предлагаются решения, которые обещают безопасность, создавая зависимость, и люди принимают наблюдение, которое они отвергли бы при нормальных обстоятельствах.

Подобно тому, как блокировка COVID создала условия для принятия ИИ, изолировав людей друг от друга, стрельба в школах создает условия для допреступного наблюдения, используя страх за безопасность детей. Кто не хочет, чтобы наши школы были безопасными? Технология обещает защиту, одновременно подрывая приватность и гражданские свободы, которые делают возможным свободное общество.

Некоторые будут использовать такие технологии, как эволюция. Другие будут сопротивляться им как дегуманизации. Большинству из нас придется научиться ориентироваться где-то между этими крайностями.

Реакция на суверенитет требует развития способности поддерживать осознанный выбор того, как мы взаимодействуем с системами, предназначенными для захвата личной свободы. Этот практический подход стал яснее благодаря разговору с моим старшим другом, специалистом по машинному обучению, который поделился моими опасениями, но предложил тактический совет: ИИ сделает некоторых людей когнитивно слабее, но если вы научитесь использовать его стратегически, а не зависимо, он может повысить эффективность без замены суждения. Его ключевое понимание: кормите его только информацией, которую вы уже знаете, — так вы узнаете его предубеждения, а не поглощаете их. Это означает:

Навыки распознавания образов: Развитие способности определять, когда технологии служат индивидуальным целям, а когда они извлекают личную независимость для институциональной выгоды. На практике это выглядит как вопрос о том, почему платформа бесплатна (нет ничего бесплатного, вы платите своими данными), замечая, когда предложения ИИ подозрительно согласуются с потреблением, а не с вашими заявленными целями, и распознавая, когда алгоритмические каналы усиливают возмущение, а не понимание. Следите за предупреждающими признаками алгоритмической зависимости в себе: неспособность сидеть с неопределенностью без немедленной консультации с ИИ, достижение алгоритмической помощи, прежде чем пытаться самостоятельно решать проблемы, или чувство тревоги при отключении от инструментов на основе ИИ.

Цифровые границы: Принятие осознанных решений о том, какие технологические удобства действительно служат вашим целям, а какие создают подчинение и наблюдение. Это означает понимание того, что все, чем вы делитесь с системами ИИ, становится обучающими данными — ваши проблемы, творческие идеи и личные идеи учат эти системы заменять человеческое творчество и суждение. Это может быть так же просто, как защита священных пространств — отказ от телефонов прерывать разговоры за ужином или разговор, когда кто-то обращается к Google, чтобы урегулировать все разногласия, а не позволить неопределенности существовать в разговорах.

Общественные сети: Ничто не заменяет подлинную связь между людьми — энергия живых выступлений, спонтанных разговоров в ресторанах, неопосредованное ощущение присутствия с другими. Создание локальных отношений для тестирования реальности и взаимной поддержки, которые не зависят от алгоритмических посредников, становится необходимым, когда учреждения могут создавать консенсус через цифровое курирование. Это похоже на развитие дружеских отношений, где вы можете обсуждать идеи без прослушивания алгоритмов, поддерживать местные предприятия, которые сохраняют торговлю в масштабе сообщества, и участвовать в общественных мероприятиях, которые не требуют цифрового посредничества.

Вместо того, чтобы конкурировать с машинами или полностью зависеть от систем, опосредованных ИИ, цель состоит в том, чтобы стратегически использовать эти инструменты при разработке по существу личных качеств, которые не могут быть алгоритмически воспроизведены: мудрость, полученная через прямой опыт, суждение, которое несет реальные последствия, подлинные отношения, построенные на совместном риске и доверии.

Что остается дефицитом

В мире когнитивного изобилия, что становится ценным? Не эффективность или необработанная вычислительная мощность, а качества, которые остаются неизменно человеческими:

Последствия и интенциональность. Машины могут генерировать варианты, но люди выбирают, какой путь выбрать и жить с результатами. Подумайте о том, чтобы хирург решил, следует ли ему оперировать, зная, что он потеряет сон, если возникнут осложнения, и поставит свою репутацию на результат.

Аутентичные отношения. Многие будут платить взносы за реальное личное подключение и подотчетность, даже если альтернативы машин технически лучше. Разница не в эффективности, а в подлинной заботе — сосед, который помогает, потому что вы делитесь общественными облигациями, а не потому, что алгоритм, оптимизированный для взаимодействия, предложил это.

Локальное суждение и лечение коренятся в реальном опыте. Реальное решение проблем часто требует чтения между линиями поведенческих моделей и институциональной динамикой. Преподаватель, который замечает, что обычно занятый ученик уходит и исследует семейную ситуацию. Когда содержание становится бесконечным, проницательность становится драгоценной — друг, который рекомендует книги, которые меняют вашу точку зрения, потому что они знают ваше интеллектуальное путешествие.

Выбор впереди

Может быть, каждое поколение чувствует, что их время уникально важно — может быть, это просто часть нашей природы. Это больше, чем предыдущие волны инноваций. Мы не просто меняем то, как мы работаем или общаемся, мы рискуем потерять способности, которые делают нас самими собой. Впервые мы можем изменить то, что мы есть. Когда само познание становится товаром, когда мышление становится аутсорсингом, когда даже наши мысли становятся данными, которые нужно собирать, мы рискуем потерять основные способности, которые не сталкивалось ни одно предыдущее поколение. Представьте себе поколение, которое не может сидеть с неопределенностью в течение тридцати секунд без консультации с алгоритмом. Это касается помощи ИИ, прежде чем пытаться самостоятельно решать проблемы. Это вызывает беспокойство при отключении от этих инструментов. Это не спекуляция, это уже происходит.

Мы сталкиваемся с трансформацией, которая может либо демократизировать наш индивидуальный потенциал, либо создать самую сложную систему управления в истории. Те же силы, которые могли бы освободить нас от тяжелой работы, также могли бы полностью ослабить уверенность в себе.

Я ищу их, как любой человек, особенно родитель, который видит, что эта трансформация наступает и хочет помочь своим детям ориентироваться в ней сознательно, а не бессознательно. Езда на волне означает, что я открыт для изучения этих инструментов, зная, что я не могу бороться с фундаментальными силами, которые меняют наш мир. Но я могу попытаться научиться ориентироваться в них с намерением, а не просто быть сметенным.

Если традиционное экономическое участие устаревает, то возникает вопрос о том, разрабатываем ли мы новые формы устойчивости сообщества и создания ценностей или же принимаем комфортную зависимость от систем, предназначенных для управления, а не для обслуживания нас. Я не знаю, какой путь выберет наш вид, хотя я считаю, что решение по-прежнему остается за нами.

Для моих детей задача не в том, чтобы научиться использовать ИИ — они это сделают. Задача состоит в том, чтобы научиться заставлять эти инструменты работать на нас, а не подчиняться им, поддерживая способность к оригинальному мышлению, подлинным отношениям и моральному мужеству, которые не может воспроизвести ни один алгоритм. В эпоху искусственного интеллекта наиболее радикальный акт может стать более аутентичным.

Реальная опасность не в том, что ИИ станет умнее нас. Мы станем глупее из-за этого.

Волна уже здесь. Моя задача как отца не в том, чтобы оградить своих детей от этого, а в том, чтобы научить их заниматься серфингом, не теряя себя.

Тайлер Дерден
Фри, 09/12/2025 - 21:45

Читать всю статью