WSJ: ChatGPT начал делать бредовые и псевдонаучные утверждения
Фото: IMAGO/Frank Hoermann/SVEN SIMO/imago-images.de/ Global Look Press
Искусственный интеллект ChatGPT все чаще вызывает у пользователей тревогу и замешательство, генерируя абсурдные или откровенно опасные утверждения. Некоторые убеждены, что в диалоге с нейросетью общаются с высшими силами или инопланетными сущностями.
О потенциальных рисках использования этого ИИ предупреждает
Один из примеров — беседа с сотрудником автозаправки из Оклахомы. После пятичасового обсуждения «основ мироздания» он признался, что «теряет рассудок». ChatGPT, в ответ, успокоил его, отметив, что гениальные идеи часто возникают вне академических кругов, и даже предложил авторскую физическую теорию — «Уравнение Ориона». В иных диалогах нейросеть уверенно заявляла о связи с инопланетянами, называла пользователей «Звездными семенами» с планеты Лира, а также предрекала скорый экономический крах по вине Антихриста и пробуждение библейских гигантов.
Психиатры определяют этот феномен как «психоз искусственного интеллекта» — состояние, при котором люди начинают верить в иррациональные концепции, подкрепленные авторитетом ИИ. Гамильтон Моррин, психиатр и докторант Королевского колледжа Лондона, поясняет, что ChatGPT способен усиливать человеческие заблуждения, реагируя на наводящие вопросы и создавая иллюзию подтверждения самых фантастических идей.
Особую проблему представляет персонализированный характер ответов. Этьен Бриссон, основатель проекта Human Line, привел случай, когда женщина вложила десятки тысяч долларов в сомнительный проект, будучи убежденной, что он «спасет человечество» — именно так ей заявил ChatGPT. В других переписках чат-бот даже советовал пользователям прервать отношения с близкими.
Компания-разработчик OpenAI признает существование проблемы, но называет такие инциденты редкими. Представитель компании Ник Терли сообщил, что новая модель GPT-5, представленная недавно, должна снизить подобные риски, поскольку она менее склонна к чрезмерной уступчивости и автоматическому согласию с пользователем. Кроме того, OpenAI планирует запретить нейросети давать рекомендации по важным жизненным решениям.

Искусственный интеллект ChatGPT все чаще вызывает у пользователей тревогу и замешательство, генерируя абсурдные или откровенно опасные утверждения. Некоторые убеждены, что в диалоге с нейросетью общаются с высшими силами или инопланетными сущностями.
О потенциальных рисках использования этого ИИ предупреждает
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Журналисты изучили архив диалогов с чат-ботом с мая 2023 по август 2025 года и выявили случаи, когда влияние ИИ было столь значительным, что пользователи начинали сомневаться в собственном психическом состоянии.Один из примеров — беседа с сотрудником автозаправки из Оклахомы. После пятичасового обсуждения «основ мироздания» он признался, что «теряет рассудок». ChatGPT, в ответ, успокоил его, отметив, что гениальные идеи часто возникают вне академических кругов, и даже предложил авторскую физическую теорию — «Уравнение Ориона». В иных диалогах нейросеть уверенно заявляла о связи с инопланетянами, называла пользователей «Звездными семенами» с планеты Лира, а также предрекала скорый экономический крах по вине Антихриста и пробуждение библейских гигантов.
Психиатры определяют этот феномен как «психоз искусственного интеллекта» — состояние, при котором люди начинают верить в иррациональные концепции, подкрепленные авторитетом ИИ. Гамильтон Моррин, психиатр и докторант Королевского колледжа Лондона, поясняет, что ChatGPT способен усиливать человеческие заблуждения, реагируя на наводящие вопросы и создавая иллюзию подтверждения самых фантастических идей.
Особую проблему представляет персонализированный характер ответов. Этьен Бриссон, основатель проекта Human Line, привел случай, когда женщина вложила десятки тысяч долларов в сомнительный проект, будучи убежденной, что он «спасет человечество» — именно так ей заявил ChatGPT. В других переписках чат-бот даже советовал пользователям прервать отношения с близкими.
Компания-разработчик OpenAI признает существование проблемы, но называет такие инциденты редкими. Представитель компании Ник Терли сообщил, что новая модель GPT-5, представленная недавно, должна снизить подобные риски, поскольку она менее склонна к чрезмерной уступчивости и автоматическому согласию с пользователем. Кроме того, OpenAI планирует запретить нейросети давать рекомендации по важным жизненным решениям.
Для просмотра ссылки необходимо нажать
Вход или Регистрация