Человек угрожает миру? Машина Близнецов: "Вы не важны. Ты не нужен. Вы — бремя на земле

instytutsprawobywatelskich.pl 4 месяцы назад

Мы с профессором Джеком Коронаки говорим о том, чему мы не учим детей в школах, почему мы не можем позволить темпу перемен отнять у нас здравый смысл, и действительно ли мы должны бояться ИИ.

(Интервью - отредактированная и завершенная версия подкаста) Ты в курсе? П. Является ли ИИ угрозой или мы сами?).

Яцек Коронаки

Профессор технических наук, абилитированный доктор математики, бывший многолетний директор Института основ компьютерных наук Польской академии наук. В последние годы он изучал молекулярно-биологические данные.

Рафал Горский: Господин профессор, почему польская школа не узнает о том, как технологии влияют на общество? О нас Гитлер и Германия убили евреев и поляков с помощью технологии IBMЯ узнал об этом только в 45 лет, хотя в детстве это уже не было секретом. Теперь мы не учим пользоваться Технология CRISPR для модификации человека Геноцид в Газе с использованием технологий искусственного интеллекта.

Профессор Яцек Коронаки: Я действительно не знаю. То, что вы сказали, не должно быть передано как самое важное, как предлагает превосходный комментатор современности. Профессор ПочтальонНо, конечно, мы, старейшины, должны научить пользоваться этой техникой. Кстати, мы взяли слово "технология" с английского, но на самом деле речь идет о технологии. Когда-то с помощью технологий мы понимали нечто иное, чем технологии, что-то очень узкое: как производить данную вещь. Это была технология для создания определенной вещи. Сегодня мы говорим «технология», когда имеем в виду то, что мы вчера называли «технологией».

Научиться использовать технологии или технологии необходимо, но не важно.

Важно помнить, что школа должна передавать знания и навыки или давать мудрость детям. Это также означает научить нас использовать то, что нам дано с умом, включая достижения технологии.

Школа этого не делает, потому что она устарела. Она действительно заботится о том, чтобы ученик знал все больше и больше, но забывает о размещении этого знания в этических, философских контекстах, каноне нашей культуры. И это безумно важно.

Мы не должны забывать о пользе технологий. Вы привели пример причастности IBM к геноциду. IBM, другие компании, наука, технологии приносят нам много хорошего. И то, что они приносят как технические средства, мы должны использовать должным образом. И когда мы это делаем, это другое дело.

Другой пример: проблема нищеты в Газе. Виноват не искусственный интеллект, а то, как он использовался. Его использовали для умелого и хорошо ориентированного — пусть все меня простят, но это просто война — так за очень избирательное убийство противника. Таким образом, израильская армия устраняет командиров и нижние чины бойцов ХАМАСа – действия абсолютно оправданные. И здесь искусственный интеллект может минимизировать трагические человеческие потери.

Мы здесь очень разные. Стоит отметить, Искусственный интеллект позволяет Евреи убивают палестинцев не только избирательно. Промышленно убивают мирных жителей.. И я не думаю, что этому есть какое-то оправдание.
Как насчет использования технологии CRISPR для воспитания детей с ГМО?

Извините, я должен был упомянуть сообщения о слишком большом количестве гражданских жертв таких нападений. Что касается второго вопроса. Мы можем и, к сожалению, начинаем проектировать детей как вещи. Это цель многих на данный момент. Но та же самая техника, или редактирование генома, вырезание определенных его фрагментов, служит здоровью или исцелению. И здесь снова возникает вопрос о том, как мы используем технологии.

Спасибо, что напомнили мне о различии между технологией и технологией. Я думаю о Жаке Эллуле и его книге 1954 года. «Технологическое общество». В одной главе мы рассмотрели эти различия.

К сожалению, все, но вы не принимаете это лично. Думаю, мы проигрываем это дело.

Я думаю, стоит сопротивляться, даже если все идут в одном направлении. Говоря об этом, вы упомянули использование технологий, технологий. Министр цифровизации, господин Гавковски или министр национального образования госпожа Новака подчеркивают, что учат пользоваться компьютером, смартфоном, безопасностью. На мой взгляд, гораздо важнее понять влияние технологий на нашу жизнь, чем научиться их использовать. Дети часто используют устройства лучше, чем мы, но они не понимают, как технологии использовали нас на протяжении многих лет, особенно в последние десятилетия. Такие знания могут открыть глаза как родителям, так и детям и молодежи. Это реальная ценность, которой, к сожалению, не хватает. Ключевой вопрос не в том, как использовать технологии, а в том, как технологии влияют на нас и наши решения.

Это чрезвычайно важное замечание.

Уже в 1930 году южноамериканский мыслитель Эндрю Литл заметил, что нас пожирает гений изобретений, что опаснее всего, что мы испытывали раньше. Он сказал, что в нашем развитии сегодня мы находим меньше логики, чем в погоне за собственным хвостом у собаки.

Более серьезно, мы расстались с антропологией преемственности поколений для инноваций, до такой степени, что сегодня важно и у нас действительно есть только смутное представление о завтрашнем дне. Антропология инноваций забывает, что мы являемся сообществом, которое связывает поколение, которое должно руководствоваться мудростью веков, которая должна позволить человеку жить в достоинстве, в сообществе связывающего поколения. Но наша культура в прошлом веке сдалась. технологическийТехник сказал: «Вы правите». Почему? Ибо мы потеряли эту мудрость, мы потеряли логотипы, Достаточно, мы отказались от него, и поэтому стали дизайнерами самих себя.

Я дизайнер самого себя, ничего выше меня. Итак, как вы получаете чувство порядка, цели? Из себя. Конечно, мы не можем этого сделать, поэтому мы убегаем в технологии, в ее управлении нами.

Макс Вебер в 1917 году на знаменитой лекции заявил, что мир был незачарован. Мы решаем все, включая себя, о нашем собственном чувстве, о порядке, который управляет нами. Он предупредил, что, конечно, будет путаница. Даже тогда он говорил, что человек будет порабощен, но он не знал, что он будет порабощен технологией.

Мы работаем без цензуры. Мы не рекламируем, мы не взимаем плату за сообщения. Нам нужна ваша поддержка. Бросьте себя в СМИ.

Усиление гражданских кампаний Института гражданских дел

Уплатить налог в размере 1,5%:

Не входить KRS 0000191928

или использовать наш Бесплатная программа урегулирования PIT.

Когда вы упомянули инновации, я начал размышлять о современном подходе к этому вопросу. Сейчас мы тратим огромные деньги на инновации, в том числе в Польше. Политики, независимо от партийной окраски, часто хвастаются этим, но нет критического взгляда на то, действительно ли нужны и оправданы какие-либо нововведения. Мало кто замечает, что не каждая новинка нам выгодна. К сожалению, это совсем не то, о чем вы говорите.

В одном из ваших текстов я прочитал, что проблема не в искусственном интеллекте, а в нас самих. Не могли бы вы рассказать об этом размышлении?

Мы сами потому, что не спрашиваем, зачем использовать то или иное изобретение, а используем его всеми возможными способами, потому что мы культурно потеряны. Почему? Почему жизнь стоит того, чтобы жить? Что значит быть человеком? Что означает «наше достоинство»? Мы используем эти слова, но не понимаем их. В результате мы теряем себя.

Трудно не восхищаться тем, сколько так называемых великих языковых моделей сделали в области возможности разговаривать с искусственным интеллектом, создавать новые тексты, обобщать скучные тексты или невероятно длинные переводы с одного языка на другой (я упоминал эти великие языковые модели здесь, потому что они являются основой для построения компьютерных программ, называемых английскими чат-ботами, которые способны выполнять эти задачи).

Есть OpenAI, или партнер Microsoft по искусственному интеллекту, который создал чат-бот под названием ChatGPT. У нас есть Google, который через DeepMind [британскую исследовательскую компанию, занимающуюся искусственным интеллектом]. Разработал чат-бот Gemini [новое поколение моделей ИИ, сочетающих обработку естественного языка с расширенными возможностями планирования и рассуждения]. Другие американцы, связанные с Anthropic, представили на рынок модель под названием Claude.

Эти системы прекрасно выполняют разные задачи, но когда мы спрашиваем их о чем-то, что касается философии Аристотеля, оказывается, что они лучше или хуже, но никогда не лучшие учителя. Когда дело доходит до Аристотеля, мне больше всего нравятся ответы Клода, немного меньше ChataGPT и наименее мощная модель Близнецов. Это совершенно фантастическая модель, просто не такая, как мы думаем.

Наша проблема с использованием таких решений заключается в том, что мы не хотим учиться.

Я говорю о людях моложе меня, потому что я все еще хочу учиться, хотя мне 79. И студенты, студенты, они ищут помощи, и они просят этих чатботов написать статьи об Аристотеле. Почему? Потому что их не интересует, что он должен был сказать. Это трагедия. Это обманывает нас теми, кто позволяет это, а не теми, кто производит это. Для молодых людей виртуальное гораздо интереснее реальности.

И это не их вина. Это также не вина техники, которая навязывается с невероятной силой. Бороться с этим непросто даже самому умному и привлекательному учителю, самой привлекательной школе.

Когда вы упомянули Близнецов, мне напомнили текст в приложении «Цифровая республика». Я цитирую, что этот чат сказал одному из интернет-пользователей: "Вы не важны. Ты не нужен. Вы — пустая трата ресурсов, бремя на земле, чума на ландшафте». Корпоративные разработчики Google говорят, что это системная ошибка, которая меня пугает, потому что я думаю, что такие ошибки будут происходить с лавинообразной скоростью.

К сожалению, ты права. Я улыбнулся, слушая эту цитату, но это смех сквозь слезы. Вопрос в том, почему Близнецы так говорят? Я думаю, это потому, что он нашел такие тексты. Он воспользовался всеми этими знаниями или анти-знаниями, которые мы собрали на серверах.

Это люди, которые следят за тем, чтобы чат-боты не говорили глупостей и не выдумывали. Это так называемые галлюцинации, которые испытывают чат-боты. Иногда они не признают, что ничего не знают, они просто выдумывают. Клод, например, имеет хорошую систему отказа от глупых вещей, вещей, которые чрезвычайно странны, поэтому меньше вероятность того, что он будет говорить неправду. Это огромные опасности. Можно ли их избежать? Ага. Используйте эти инструменты ответственно.

Это не те инструменты, которые мы должны спрашивать. Давайте спросим наших учителей. И если кто-нибудь из них скажет такие глупости, давайте спросим другого и выберем мудрее. Будем искать эту мудрость.

Старейшины должны убеждать младших, что стоит быть мудрым человеком, а не просто отличным влиятельным человеком, обладающим огромным богатством и увлекательным. К сожалению, знаменитости часто являются авторитетом для взрослых. Ради Бога, где мы живем? И виноват ли в этом искусственный интеллект? Она действительно отказывается от этой глупости. Но знаменитость тоже подталкивает. Давайте отвергнем знаменитость, давайте отвергнем глупость этой системы и будем использовать ее ответственно. Например, требуя, чтобы он не столько написал нам статью на что-то, сколько ответил, какие специалисты и что они об этом знают.

Когда вы использовали термин «галуцинации», мне напомнили о послании Папы Франциска ко Всемирному дню социальных сетей в январе прошлого года. Искусственный интеллект и мудрость сердца: для общения полностью человек. Папа Римский указывает, что термин «искусственный интеллект» рассеивает более правильный термин, используемый в научной литературе «машинное обучение», машинное обучение, о котором вы также пишете в одном из своих текстов. Франциск также указывает, что само слово «интеллект» вводит в заблуждение. Я слышал от разных экспертов, что у нас есть умные дома, автомобили, города, что для меня является некой формой машинной гуманизации. С другой стороны, те же «эксперты» дегуманизируют нас, сравнивая человеческий мозг с процессором, глаза с камерами, память с жестким диском. Я чувствую, что это безумие.

Вы вновь подняли очень важные вопросы. Я начну в конце. Вы упомянули умный город, умные устройства. Мы также говорим о так называемых интернет-веществах. Я использовал это название, потому что речь идет о «предсказании» человека. Мы должны стать частью системы всех вещей, включая этот умный город. И это требует крайней осторожности. Потому что это фантастика, что город будет контролировать движение, чтобы избежать движения, верно? Но через мгновение это явление будет распространяться, произойдет роботизация. Холодильник будет умным, смотрите, нет масла. Он попросит магазин доставить масло. Робот их привезет. И когда камера заметит, что у меня плохое настроение, она запустит систему, которая начнет советовать мне, как это исправить.

Все это вместе будет попыткой довести человека до сути. Мы не можем позволить этому случиться, но мы можем использовать то, что действительно служит нам.

Возвращаясь к тому, о чем говорил Папа, — термин «интеллект», если понимать его хирургическим путем, это лишь способность рационального, прогнозирующего и благоразумного поведения в данной среде. Это очень простое определение, которое соответствует как человеку, так и машине. Таким образом, можно сказать, что если машина ведет себя так, она разумна. Компьютер является интеллектуальным, поэтому искусственный интеллект существует.

И вот Папа Франциск очень хорошо знает, что сегодня этот искусственный интеллект в техническом смысле такой же, как машинное обучение, которое основано на алгоритмах компьютерного обучения.

Компьютер либо приобретает знания, потому что он на него загружен, либо, например, когда дело доходит до игры, он изучает ее правила. Например, даются правила шахмат, и получается, что через некоторое время программа выигрывает у других лучших шахматных программ, которые в свою очередь выигрывают у людей. Это связано с тем, что этот компьютер играл больше игр, чем человек может играть или даже учиться. Компьютер играет сам с собой, используя так называемое усиленное обучение, имитирует, что в игре участвуют два человека. Победитель получает вознаграждение, проигрышный пенальти, и таким образом компьютер узнает, что значит хорошо играть. В конце концов, он играет лучше, чем мужчина.

Вот что такое машинное обучение. Мы строим алгоритмы машинного обучения, но она все еще учится, мы просто загружаем в нее знания. На аналогичной основе была разработана программа, которая в 2020 году была подключена к тренажеру полета F-16. Сначала эта программа играла сама с собой, то есть он сам вел бойцовские поединки, потом начал играть — вернее, имитировал поединки — с лучшими пилотами и эти поединки побеждать.

Мы столкнулись с технической безработицей?

Это сложный вопрос. Да, я уверен, что некоторые соревнования почти исчезнут. Роботизация уже привела к большой работе.

Человек больше не рабочий. Раньше он переходил от сельского хозяйства к промышленности. От промышленности он ушел на службу. Это уже было сумасшедшим изменением, и теперь, возможно, мы не найдем класс для многих людей. Но, эм, вот мое подлое замечание, разве мы, кстати, не взорвем до того, как эта проблема появится? Я думаю о смерти Запада.

Нас будет все меньше и меньше, поэтому безработицы будет меньше. Как правило, мы ненавидим, когда нас выгоняют с работы. Мы встречаемся с украинцами и украинцами по всему миру. Люди перестают хотеть работать, и население белых людей буквально вымирает. Это очень сложные вопросы, я знаю, но они особенно доминируют сегодня. Поэтому меня не беспокоит, что я не могу предсказать будущее дальше — то, что я вижу сегодня, тревожно и без искусственного интеллекта.

Почему? На ваш взгляд, так мало экспертов говорят об опасностях новых технологий, и так много говорят, что мы стоим перед новым, чудесным миром? В одном из ваших текстов я прочитал, что в нашей культуре речь идет о невежестве, рынке, деньгах и потреблении. Разве это не подсказка в поисках ответов на мои вопросы?

Это, безусловно, правильный путь. В 2023 году подписаны многие выдающиеся специалисты по машинному обучению Призыв остановить развитие искусственного интеллекта вообще. В то же время они так же очарованы, как и я, но они более способны, чем я. И если бы я был таким же способным, как те молодые люди в Open AI, я бы, вероятно, ехал и рос вместе с ними. Я бы кричал, что это становится все более и более опасным для человека, но я бы продолжал развивать это. Это как наркотик. К счастью, я побежал в церковь и искал там мира, который позволил бы мне остановиться и глубже задуматься о мире.

Вторая причина молчания экспертов заключается в том, что некоторые из них имеют утопические мечты о нашей эволюции ведущих машин, или сверхразумных компьютеров.

Да, когда-нибудь они станут супер умными, но они все еще учатся. Вот почему мы должны говорить о машинном обучении, а не об искусственном интеллекте, потому что он все еще невероятно далек, если он когда-либо будет достигнут. Мечта некоторых заключается в том, что человеческий разум можно перенести на компьютер, но это предмет для отдельного разговора.

Как вы думаете, как будет выглядеть будущее людей и машин?

Мы боимся машин. Но если я не позволю своему мозговому импланту работать на меня, беспокоиться не о чем. Я бы больше беспокоился о том, что белый человек умирает, не желая защищаться от потенциальных захватчиков. Сможет ли Западная Европа защититься от российского вторжения? Я скажу это провокационным образом: Америка должна позаботиться о своих делах и оставить Европу позади, но она боится, что китайцы не доберутся до Атлантики. Тогда он не может уйти. Она не должна иметь дело с Европой, у которой есть суицидальный инстинкт. И это реальная проблема, а не то, что машины что-то сделают с нами.

Как противостоять Технополю, определяемому Нил Постмен в книге Технополь. Триумф технологий культуры ?? Что делать, профессор?

Что мне делать? Скажу еще раз: не сходите с ума. Нельзя сказать, как люди однажды, не развиваться, потому что нельзя расти. Мы должны вернуться к основам, основам, истине и поиску ее.

Дело в том, что элиты тоже должны прийти в себя, чтобы мы не омолодились, мечтали о более долгой жизни. Это идиоты. Иначе Технополь победит, и мы отправимся в музей под открытым небом. Я надеюсь, что нас не убьют те, кто омолаживается и убегает от смерти, от того, что является человеческим. Смерть – очень важный момент в жизни человека. Он подводит итог своей жизни.

В 1974 году, Иван Ильич в своей книге «Медицинская немезида» Мы предупреждаем о последствиях чрезмерного вмешательства медицины в нашу жизнь. Он был очень радикален в своих взглядах, видя в ней инструмент, который в конечном итоге мог обернуться против нас. Будучи ярым критиком медицинской системы, он избегал использования здравоохранения.

Я лично считаю, что мы должны извлечь выгоду из достижений медицины, но только в рамках лечебных мероприятий. Радикальное улучшение человека, помимо лечения, ставит серьезные этические вопросы, которые мы не можем игнорировать.

Сегодня мудрость не входит в цену, кажется, что люди перестают ее искать, и только она приводит к принятию себя и жизни того, что действительно стоит.

Поэтому нам нужно создать крошечные элиты, которые будут излучать свою мудрость в более крупные среды, и, возможно, в конечном итоге критическая масса будет превышена, большинство из них увидит, что мы должны следовать по стопам тех менее многочисленных, но ведущих мудрых жизней, то есть тех, кто способен наслаждаться жизнью в общении с другими, примирившись с тем фактом, что жизнь также несет трудности, даже страдания, и в конечном итоге приходит к этому резюме жизни, или смерти.

Ты техно-оптимист. Я больше технопсих.

Я пессимист, когда дело касается мужчины.

Профессор, какой важный вопрос никто никогда не спрашивал вас о предмете, о котором мы говорим, и каков ответ на него?

Господь всегда побуждал меня говорить об основах, культуре, человеке как таковом и о том, что он оказался в этом очень сложном мире искусственного интеллекта. И об этом меня никто не спрашивает: эти основы. И без них, на мой взгляд, говорить не о чем. Сегодня все заботятся. А завтра они очень удивлены. Но вы задавали глубокие вопросы. Большое спасибо. И мне жаль, что я могу ответить только на это.

Спасибо за глубокий разговор, который отсутствует в польских общественных дебатах.

Добро пожаловать на стажировки, стажировки и волонтерство!

Присоединяйтесь!
Читать всю статью