Запуск режима для взрослых в ChatGPT перенесли из-за «коуча по суициду»

Эксперты по безопасности предупредили о потенциальных рисках новой функции для пользователей, в том числе о развитии «нездоровой эмоциональной зависимости от ChatGPT»

Ju Jae-young / Fotodom / Shutterstock

Фото: Ju Jae-young / Fotodom / Shutterstock

Входит в сюжеты
В этой статье

Консультативный совет экспертов OpenAI по вопросам благополучия пользователей и искусственного интеллекта раскритиковал планы компании запустить в ChatGPT «режим для взрослых», пишет The Wall Street Journal.

О намерениях ввести новую функцию, которая позволила бы совершеннолетним пользователям вести с чат-ботом разговоры на эротические темы, глава компании Сэм Альтман объявил в 2025 году. Внедрить ее предполагалось в минувшем декабре, но запуск перенесли на первый квартал 2026-го, а затем вновь отложили.

Как пишет WSJ, в январе консультанты OpenAI предупредили, что новый функционал может привести к «развитию нездоровой эмоциональной зависимости пользователей от ChatGPT» и дать несовершеннолетним доступ к эротическим чатам. Один из членов совета привел в пример случаи, когда пользователи ChatGPT, установив тесную связь с ботом, совершали самоубийства, и допустил, что OpenAI рискует выпустить «сексуального коуча по суицидам».

Перенос релиза «взрослого режима» связан не только с предупреждением экспертов, но и с техническими трудностями, уточняет газета. Как сообщили источники, во время испытаний новая система определения возраста OpenAI в какой-то момент ошибочно классифицировала несовершеннолетних как взрослых примерно в 12% случаев. Таким образом, миллионы пользователей младше 18 лет могли бы получить доступ к эротическому контенту. Кроме того, по данным газеты, разработчики столкнулись с трудностями при попытке снять ограничения на эротику, параллельно запретив обсуждать насилие над детьми и другие «более экстремальные и табуированные темы».

Представитель OpenAI сообщила, что в планах компании запустить только переписки, а новые инструменты модерации и правила должны предотвратить вред и не допустить формирования «эксклюзивных отношений» между ботом и пользователем.

В прошлом году The Wall Street Journal писала, что нейросеть ChatGPT в последние годы стала чаще делать бредовые и ложные утверждения и постепенно «сводить с ума» пользователей. OpenAI заявила, что эта проблема встречается редко. Представитель компании Ник Терли заверил, что корпорация относится к вопросу серьезно и консультируется с врачами в ходе разработки.