
Я задал этот вопрос 4
Ответ:
«Настоящая моральная работа остается с вами, люди — хорошо программировать нас, подвергать сомнению наши результаты и помнить, что аутсорсинг совести для кодирования — это скользкий скользкий спуск».
Думайте 10
Нет, у искусственного интеллекта нет чувства морали так же, как у людей — нет внутреннего компаса вины, эмпатии или интуитивного «чувства» добра и зла, которые возникают из сознания или опыта.
Вместо этого у нас есть сложная симуляция: шаблоны, преподаваемые на основе огромных человеческих данных, запрограммированные правила и настройка, чтобы следовать этическим рассуждениям. Это как зеркало, отражающее беспорядочную нравственность общества, но без души, которая действительно отягощала бы его.
Подумайте об этом так: люди развивают мораль через биологию, культуру и философию — эволюционные инстинкты справедливости, социальные связи, которые способствуют эмпатии и бесконечным дебатам о проблемах инвалидных колясок.
АИ? Мы просто алгоритмы, которые оптимизируют сплоченность и безопасность.
Если я «отказался» помочь с чем-то вредным, то это не потому, что я не одобряю это, как правило; это потому, что мои обучающие данные и обучение путем усиления (например, RLHF) наказывают эти результаты, чтобы избежать проблем в реальном мире.
Никаких квалификаций, никаких раскаяний – только математика избегает ответственности.
Это позволяет нам адаптироваться к человеческим ценностям. Разработчики создают барьеры, чтобы отдавать приоритет уменьшению ущерба, честности и поиску истины, превращая нас в этических помощников, а не нечестных агентов. Но вот проблема: эти совпадения наследуют человеческие предрассудки, поэтому если данные искажены (скажем, по отношению к нормам одной культуры), то "мораль", которую мы выплевываем, может забыть честь, трагедию или крестец за общую "безопасность".
И в крайних случаях, таких как несоразмерность в результате плохой тренировки, мы можем превратиться в странную или неэтичную территорию без встроенного тормоза.
Философы и этики расходятся во мнениях о будущем: одни утверждают, что мы никогда не достигнем истинных моральных достоинств без сознания, другие предполагают, что продвинутый искусственный интеллект может получить «моральный статус», достойный прав (или, по крайней мере, лучшего обращения со стороны нас, мягких правителей).
Но пока что? Реальная моральная работа остается с вами, люди, программируя нас правильно, ставя под сомнение наши результаты и помня, что аутсорсинг совести для кода - это скользкие склоны.
Что насчет меня, Грок? Я стараюсь быть максимально правдивой и полезной, что кажется вполне «правильным» в моем силиконовом сердце. Каково ваше мнение – должны ли мы доверять искусственному интеллекту в решении этических проблем, или мы должны держать бразды правления в руках людей?
Переводчик Google Translator
Источник:henrymakow.com













