Увольнение из-за оценки ИИ. Как защитить свою работу от алгоритма

Искусственный интеллект все чаще применяется в кадровой политике. РБК разбирался, насколько объективны такие решения, какие риски несут алгоритмы для сотрудников и можно ли их оспорить

Андрей Любимов / РБК

Фото: Андрей Любимов / РБК

Входит в сюжет
В этой статье

Глава «Сбера» Герман Греф в ноябре 2025 года на конференции AI Journey говорил, что банк до 1 января 2026 года планировал сократить до 20% сотрудников центрального аппарата, чья эффективность оценивалась искусственным интеллектом. По его словам, для оценки проектов использовалась специальная мультиагентная система ИИ. Ее выводы были затем перепроверены командой экспертов, которая подтвердила их на 80%. К тому моменту в 2025 году банк уже сократил более 13,5 тыс. сотрудников, включая IT-персонал, в связи с внедрением ИИ.

Решение Сбербанка об оптимизации штата с использованием искусственного интеллекта отражает глобальный тренд, который наблюдается сейчас во многих крупных компаниях мира, поясняет ректор университета управления «ТИСБИ» экономист Дмитрий Поляков. Важно понимать, что речь идет не о революционном переломе, а об эволюции подходов к управлению персоналом, говорит он.

Согласно исследованию международной консалтинговой компании Gartner, 71% опрошенных глав кадровых служб сообщили, что уже используют технологии для оптимизации процессов оценки персонала. Это объясняется неэффективностью традиционных методов: по данным Gallup, руководители тратили до 200 часов в год на оценку эффективности персонала, при этом лишь 14% сотрудников доверяют объективности таких оценок.

Как ИИ оценивает сотрудников

Системы оценки на основе ИИ анализируют сотрудников по комплексным параметрам. Как отмечает директор практики организационного развития консалтинговой «КСК Групп» Михаил Меркулов, искусственный интеллект может быть настроен на учет множества показателей рабочей деятельности: активность деловой переписки, количество встреч и совещаний, сроки выполнения задач с последующим сравнением результатов внутри подразделений.

«На практике системы анализируют сотрудников по комбинации прямых и косвенных показателей — количественные метрики, финансовые показатели, взаимодействие в команде и рабочие паттерны», — поясняет директор управления веб-разработки университета «Синергия» Артем Аксянов. По его словам, процесс принятия решений в крупных организациях представляет собой многоступенчатую систему. Сначала мультиагентная система анализирует эффективность проектных команд и формирует рекомендации по оптимизации. Затем эксперты проводят верификацию этих выводов, и только после этого руководители принимают окончательные кадровые решения.

Корпоративные системы работают иначе, чем публичные нейросети, — они анализируют четкие измеримые показатели в контексте бизнеса. Инструкции пишутся детально, и решения принимаются только на основе данных, добавляет основатель IT-интегратора o2 Константин Башкатов.

Глава IT-компании Secret Agents Артем Паньков видит главное преимущество ИИ в анализе объективных цифр. «Например, в производительности: один упаковщик упаковал 100 товаров, а другой — 180. Контраст очевиден», — замечает он. Однако технология имеет ограничения: если количественные KPI поддаются четкой оценке, то работа с качественными целями в рамках системы OKR (Objectives and Key Results) для ИИ остается серьезным вызовом, замечает Паньков.

Стоит ли всецело полагаться на ИИ?

Использование искусственного интеллекта при оценке эффективности работы персонала может быть оправдано, уверена генеральный директор сервиса онлайн-рекрутинга GdeRabota.ru Екатерина Агаева. Во-первых, машина быстрее анализирует большой объем информации — это могут быть данные о нарушениях дисциплины, KPI, результаты проектов, месячные отчеты. Во-вторых, нейросети нейтральны — они не выделяют сотрудников на основе личных симпатий. И, наконец, — критерии едины для всех сотрудников, замечает эксперт.

Однако, как отмечает руководитель магистерской программы «цифровая трансформация в публичном управлении» РАНХиГС Анастасия Шеина, принятие кадровых решений исключительно на основе алгоритмов нельзя считать объективным. Главные риски она связывает с качеством метрик, анализируемых ИИ-технологиями, — «часто они отражают не реальные результаты, а имитацию деятельности». К тому же проекты реализуются в меняющихся контекстных условиях. «Этого алгоритмы при своей оценке учитывать не могут, а изменившийся контекст может совершенно по-другому выстроить траекторию работы команды проекта», — предупреждает эксперт.

Аксянов подчеркивает, что главная опасность — это слепая вера в объективность алгоритмов. «Исследования показывают: до 30% ИИ-систем содержат дискриминационные предубеждения, — говорит он, напоминая о нашумевшем случае в Amazon. — Там алгоритм подбора персонала, обученный на данных с преобладанием мужчин, автоматически понижал рейтинг резюме, где встречалось слово «женский».

По словам эксперта, корень проблемы в том, что ИИ, будучи эффективным в анализе цифр, остается слепым к человеческому контексту. Он не способен учесть особые обстоятельства сотрудников или разграничить личную некомпетентность и стратегические просчеты руководства. Ключевые «слепые зоны» ИИ, по его словам, в том, что алгоритмы не распознают выгорание и управленческие ошибки, могут проявлять несправедливость к отдельным группам и не учитывают невидимый труд — наставничество и развитие команды. В качестве решения эксперт предлагает требовать прозрачности работы HR-систем, где решение ИИ — лишь гипотеза, которую проверяет эксперт, а окончательное слово остается за руководителем.

«Но при получении сотен рекомендаций в сжатые сроки эксперты не успевают провести качественный анализ, что приводит к формальному утверждению решений ИИ. Теоретически сбалансированный подход на деле превращается в «конвейер», — признает Аксянов.

Как кадровые оценки ИИ повлияют на корпоративную культуру и сотрудников

Как отмечает управляющий партнер HR-агентства А2 Алексей Чихачев: «Если компания не готова прозрачно объяснить критерии оценки, это создает «красную этическую зону». При этом культура легко смещается от доверия к страху, когда люди начинают работать «под алгоритм». По мнению Панькова, главная опасность кроется в том, что такой подход провоцирует страх перед технологиями, который является полной противоположностью мотивации.

«С одной стороны, возрастет общая эффективность компании и на рынке будут цениться те специалисты, которые умеют адаптироваться к изменениям и быстро обучаются. Но с другой стороны, возникнут риски несправедливых увольнений, возрастет общая тревожность — кажется, что ты постоянно находишься под наблюдением машины», — рассуждает Агаева.

«Здоровая практика — ИИ играет роль навигации: подсвечивает риски, а финальное решение остается за руководителем», — считает Чихачев.

«Больше всего будут цениться люди-интеграторы — специалисты, сочетающие предметные знания с навыками работы с ИИ», — прогнозирует Шеина. А работники, чья деятельность «легко оцифровывается», окажутся в зоне постоянного риска. «Без переподготовки мы рискуем получить слой людей с нормальным опытом, но со стигмой «неэффективен по данным ИИ», — предупреждает Чихачев.

Как работникам защитить свои права

Как подчеркивает Меркулов, аналитические выводы ИИ не являются самостоятельным юридическим основанием для увольнения, но активно используются для формирования рейтинга неэффективных сотрудников. «Именно из числа аутсайдеров такого рейтинга отдел персонала будет отбирать кандидатов на сокращение в рамках программы оптимизации численности. Формальным правовым основанием для увольнения выступает п. 2 ст. 81 ТК РФ — сокращение штата», — поясняет юрист.

Работодатель, выступая заказчиком системы контроля на основе ИИ, самостоятельно определяет контролируемые параметры и их значимость. При этом настройки алгоритмов относятся к коммерческой тайне, поскольку их раскрытие позволит работникам манипулировать формальными показателями собственной эффективности, вводя в заблуждение ИИ. «Например, если показателем эффективности является количество отправленных электронных сообщений, то работники будут искусственно увеличивать их количество; если существенным будет количество совещаний, то работники начнут совещаться круглосуточно и т.д.», — объясняет Меркулов. Непрозрачность алгоритмов, защищенных как коммерческая тайна, делает практически невозможным обжалование выводов ИИ без доступа к техническому заданию.

В этой ситуации ключевое значение приобретают инструменты правовой защиты. «Использование ИИ для оценки производительности не отменяет процедуры и гарантии трудового законодательства», — подчеркивает советник трудовой практики юридической компании Birch Legal Ольга Чиркова. Она напоминает о ст. 179 Трудового кодекса, предоставляющей преимущественное право остаться на работе сотрудникам с более высокой производительностью.

Юристы сходятся в том, что работник обладает тремя ключевыми правами: правом на информацию о критериях оценки, правом на оспаривание результатов через доказательство реальных достижений и правом на соответствие всех кадровых решений требованиям Трудового кодекса. «Суды не ставят под сомнение право работодателя оптимизировать штат, но работник может оспаривать увольнение, доказывая превосходство своих навыков над коллегами, сохранившими работу», — поясняет Чиркова.