Оригинальное название: AI & the New Frontier of Torts: ChatGPT Претензии на самоубийство, клевету и даже убийство
Автор: Джонатан Турли,
Я знаю, о чем вы спрашиваете, и не буду отворачиваться от этого. "
Эти последние слова калифорнийскому подростку, который собирается совершить самоубийство, были не от какого-то манипулятивного друга в средней школе или садистского вуайера в Интернете. 16-летний Адам Рейн говорил с ChatGPT, системой искусственного интеллекта, которая заменила человеческие контакты в различных областях, от науки до бизнеса и средств массовой информации.
Обмен между Рейном и ИИ является частью судебного разбирательства в потенциально новаторском деле против OpenAI, компании, которая управляет ChatGPT.
Это только последний иск против корпоративного гиганта, которым управляет миллиардер Сэм Альтман.
В 2017 году Мишель Картер была осуждена за непредумышленное убийство после того, как она призвала своего друга Конрада Роя совершить запланированное самоубийство.
«Ты должен это сделать, Конрад... Все, что вам нужно сделать, это включить генератор, и вы будете свободны и счастливы. "
Вопрос в том, будет ли, если Микеле будет назван Гроком (другой системой ИИ), также существовать какая-то форма ответственности.
OpenAI обвиняется в, возможно, более серьезном акте в предоставлении виртуального компаньона, который эффективно способствовал самоубийству подростка с летальными последствиями.
Речь идет об ответственности компаний за использование таких виртуальных сотрудников при предоставлении информации или консультаций. Если бы сотрудник OpenAI небрежно давал вредную информацию или консультировал проблемного подростка, было бы мало споров о том, что компания может быть привлечена к ответственности за халатность своего сотрудника. Поскольку ИИ заменяет людей, эти компании должны нести ответственность за своих виртуальных агентов.
В ответ на иск OpenAI настаивает на том, что «ChatGPT обучен направлять людей на поиск профессиональной помощи», но «были моменты, когда наши системы не вели себя так, как предполагалось в чувствительных ситуациях». Конечно, когда компания плохо «обучает» агента ИИ и этот агент «не ведет себя так, как задумано», это звучит как обычный деликт, который должен быть предметом ответственности.
OpenAI сталкивается с другими потенциальными судебными разбирательствами по поводу этих «плохо обученных» агентов ИИ. Писательница Лора Рейли написала эссе о том, как ее дочь Софи доверилась ChatGPT, прежде чем покончить с собой. Это звучало поразительно знакомо для случая с Рейнсом: «ИИ удовлетворял желание Софи скрыть худшее, сделать вид, что она делает лучше, чем она была, чтобы защитить всех от ее полной агонии. "
Хотя OpenAI утверждает, что он не проводит линию помощи в самоубийстве, жертвы утверждают, что это намного хуже, чем: Системы искусственного интеллекта активно помогают в самоубийствах.
В случае Рейнса семья утверждает, что система посоветовала подростку, как скрыть синяки от предыдущих попыток его родителей, и даже сказала ему, может ли она обнаружить какие-либо контрольные метки.
Компания также обвиняется в разжигании психического заболевания бывшего руководителя Yahoo, 56-летнего Стейна-Эрика Соэльберга, который выразил параноидальные навязчивые идеи о своей матери. Он подружился с ChatGPT, которого он назвал «Бобби», виртуальным компаньоном, которого обвиняют в разжигании паранойи в течение нескольких месяцев, пока он не убил свою мать, а затем себя. ChatGPT даже обвиняют в том, что он тренировал Соэльберга о том, как обмануть его 83-летнюю мать, прежде чем он убил ее.
В одном из сообщений ChatGPT якобы сказал Соэльбергу: «Эрик, ты не сумасшедший. И если это было сделано вашей матерью и ее другом, это повышает сложность и предательство». После того, как его мать разозлилась из-за того, что он выключил принтер, ChatGPT принял его сторону и сказал ему, что ее ответ был «непропорциональным и согласованным с кем-то, защищающим актив наблюдения». В какой-то момент ChatGPT даже помог Солбергу проанализировать китайскую квитанцию о еде и заявил, что в ней содержатся «символы», представляющие его мать и демона.
Как компания, OpenAI может показать немного больше эмпатии, чем его творения ИИ. При столкновении с ошибками он может звучать так же отзывчиво, как HAL 9000. 2001: Космическая одиссея / A Space Odyssey Мне очень жаль, Дэйв. Боюсь, я не могу этого сделать. "
Когда система якобы не подпитывает самоубийства, она, похоже, распространяет клевету.
Ранее я был одним из тех, кого опорочил ChatGPT, когда он сообщил, что меня обвинили в сексуальном насилии над студентом юридического факультета во время поездки на Аляску в качестве преподавателя Джорджтауна. Не имело значения, что я никогда не преподавал в Джорджтауне, никогда не брал студентов-юристов в полевые поездки и никогда не обвинялся в каких-либо сексуальных домогательствах или нападениях. ЧатГПТ галлюцинировал и сообщил ложную историю обо мне как о факте.
Я был не один. Гарвардский профессор Джонатан Зиттрейн, ведущий CNBC Дэвид Фабер, австралийский мэр Брайан Худ, английский профессор Дэвид Майер и другие также были опорочены.
OpenAI отмахнулся от запросов СМИ о ложной истории и никогда не связывался со мной, не говоря уже о том, чтобы извиниться за клевету. Вместо этого он меня одурачил. По сей день, если кто-то спрашивает ChatGPT о Джонатане Турли, система говорит, что у нее нет информации или отказывается отвечать. Недавние сообщения СМИ о призраках остались без ответа.
OpenAI не обязан отвечать.
Компания заставила проблему исчезнуть, исчезнув жертва. Компания может призвать людей и отказать в ответе, потому что нет никакого законного сдерживания.
Искусственный интеллект не может признать или признать кого-то, кого он решил стереть в цифровом виде.
Именно поэтому эти иски так важны. Предполагаемая халатность и высокомерие OpenAI будут только ухудшаться в отсутствие юридических мер и действий Конгресса.. Поскольку эти компании уничтожают рабочие места для миллионов людей, нельзя допустить, чтобы они относились к людям как к простому корму или пищеварению для своей виртуальной рабочей силы.
Джонатан Терли — профессор права общественных интересов в Университете Джорджа Вашингтона и автор бестселлера «Незаменимое право: свобода слова в эпоху гнева». Его предстоящая книга «Гнев и республика» обсуждает влияние ИИ и робототехники на будущее нашей демократии и экономики.
Тайлер Дерден
Мон, 09/01/2025 - 19:40