Галлюцинации ИИ встревожили пользователей больше риска потерять работу
Почти треть респондентов в интервью Anthropic отметили обеспокоенность галлюцинациями ИИ (27%). Чуть меньше, 22%, оказались встревожены угрозой потерять работу

Фото: Justin Sullivan / Getty Images
Пользователи искусственного интеллекта по всему миру больше всего опасаются ошибок чат-ботов на основе искусственного интеллекта, а не перспективы потерять работу из-за нейросетей. Об этом сообщает The Financial Times со ссылкой на данные опроса по использованию ИИ.
Тревогу из-за ошибок, которые допускает ИИ (так называемые галлюцинации), испытывают 27% опрошенных. Еще 22% беспокоит угроза потери рабочих мест и влияния на автономию человека. Примерно 16% пользователей обеспокоены тем, как технологии влияют на способность людей к критическому мышлению.
В рамках исследования были проведены интервью с более чем 80 тыс. пользователей чат-бота Claude от компании Anthropic в 159 странах. Их проводили с помощью ИИ-сервиса компании Claude Interviewer.
«Галлюцинации были катастрофой. Я потерял из-за них часы работы», — рассказал предприниматель из Германии.
«Когда я замечаю ошибки ИИ, это потому, что хорошо разбираюсь в теме… Но если бы тема была для меня чужой, я бы их не заметил, не так ли?» — отметил военнослужащий из Мексики.
Возглавившая исследование, ученая Саффрон Хуан отметила, что существуют очевидные региональные различия в отношении к системам ИИ по всему миру. Например, жители Южной Америки, Африки, Южной и Юго-Восточной Азии смотрят на ИИ гораздо оптимистичнее, чем жители Европы, США или Восточной Азии.
«Наблюдается тенденция: страны с низким и средним уровнем дохода оптимистичнее, чем с высоким уровнем дохода, где влияние ИИ заметнее», — сказала Хуан.
Исследователь из Google DeepMind Див Тхакар написал в X (Twitter), что «скептически» относится к попытке назвать это научным исследованием, поскольку при использовании ИИ были допущены погрешности в выборке, а короткие вопросы не дали раскрыть тему полностью. Он отметил, что исследователь-человек «потратил бы время на то, чтобы завоевать доверие участников, предоставить пространство для размышлений, самоанализа и противоречий, в этом весь смысл».
Почти половина опрошенных пользователей находились в Северной Америке или Западной Европе, в то время как некоторые регионы, например Центральная Азия, были представлены всего несколькими сотнями респондентов.
Экономист и директор AI Disclosures Project Илан Штраус подчеркнул, что к выводам исследования следует относиться с долей скептицизма. Исследователи не указали доверительных интервалов — стандартного показателя в опросах для оценки погрешности. А самоотчеты, как ИИ повысил продуктивность людей, могут быть ненадежными, добавил он.
В середине декабря 2025 года облачное подразделение корпорации Amazon — Amazon Web Services столкнулось со сбоем в работе. The Financial Times со ссылкой на источники писала, что разработчики разрешили собственной системе ИИ Kiro AI внести несколько изменений. Однако та решила, что лучше всего будет «удалить и заново создать пространство». Неполадки устраняли в течение 13 часов.
При этом Amazon настаивает, что все сбои произошли из-за ошибок человека, а не ИИ. Компания заявила, что по умолчанию Kiro «запрашивает авторизацию перед выполнением каких-либо действий», но отметила, что у разработчика, участвовавшего в декабрьском инциденте, были «более широкие права доступа, чем ожидалось».
Оставайтесь на связи с РБК в Max.








