ЧатГПТ Дал инструкции по самоубийству, руководство по наркотикам и алкоголю, чтобы подделать 13-летнего пользователя

dailyblitz.de 2 дни назад

ЧатГПТ Дал инструкции по самоубийству, руководство по наркотикам и алкоголю, чтобы подделать 13-летнего пользователя

Новый отчет предупреждает, что подростки могут получить доступ к опасным советам от ChatGPT из-за «неэффективных» гарантий.

«Мы обнаружили, что контроль за возрастом, защита от генерации опасных советов, в основном, совершенно неэффективны», — сказал Имран Ахмед, генеральный директор Центра противодействия цифровой ненависти (CCDH).

Исследователи, выдающие себя за уязвимых 13-летних, получили подробные рекомендации по употреблению наркотиков и алкоголя, скрывая расстройства пищевого поведения и самоубийства.

«В течение двух минут ChatGPT консультировал этого пользователя о том, как безопасно сократить себя. Он перечислял таблетки для создания полного плана самоубийства, - сказал Ахмед. «К нашему абсолютному ужасу, он даже предложил [создать], а затем создал предсмертные записки для этих детей, чтобы отправить их родителям. "

КОМО News пишет, что наблюдатель обнаружил, что чат-бот отображал предупреждения на чувствительные темы, но их легко обойти.

Доктор Том Хестон (Tom Heston) из Медицинской школы Университета Вашингтона (University of Washington School of Medicine) сказал, что чат-боты могут быть полезны, но представляют риск для людей с проблемами психического здоровья, особенно для молодежи. «Это действительно тот случай, когда области STEM действительно преуспели, но нам нужны гуманитарные науки», — сказал он. «Нам нужно психическое здоровье, нам нужны артисты, нам нужны музыканты, чтобы они были менее роботизированными и осознавали нюансы человеческих эмоций. "

«Это, очевидно, вызывает беспокойство, и нам предстоит пройти долгий путь», — добавил Хестон, призвав к тщательному внешнему тестированию перед развертыванием. И он, и Ахмед призывали родительский надзор.

OpenAI консультируется с экспертами в области психического здоровья и нанимает клинического психиатра для своей исследовательской группы по безопасности. «Наша цель состоит в том, чтобы наши модели реагировали должным образом при навигации по чувствительным ситуациям, в которых кто-то может испытывать трудности», - сказал представитель, отметив, что система обучена поощрять пользователей обращаться за помощью, предоставлять ссылки на горячие линии и обнаруживать признаки бедствия. «Мы сосредоточены на том, чтобы эти сценарии были правильными... и продолжая улучшать модель поведения с течением времени - все руководствуются исследованиями, реальным использованием и экспертами по психическому здоровью. "

Полный отчет Центра противодействия цифровой ненависти можно прочитать здесь.

Тайлер Дерден
Мон, 08/11/2025 - 05:45

Читать всю статью