Можно ли загружать рабочие документы в нейросети: риски и ограничения

С помощью нейросетей анализируют документы, пишут письма и обрабатывают данные. Но передача рабочих материалов в публичные ИИ-сервисы грозит утечкой конфиденциальной информации, нарушением NDA и проблемами с законом. Рассказываем, как безопасно использовать нейросети в компании: какие документы нельзя загружать — и что делать, чтобы избежать рисков

Leon Neal / Getty Images

Фото: Leon Neal / Getty Images

Входит в сюжет
В этой статье

Этот материал входит в раздел «РБК Образование», где мы рассказываем, как развивать навыки, принимать взвешенные решения и двигаться по карьере осознанно.

Школа управления РБК — новый образовательный проект медиахолдинга, ориентированный на развитие руководителей. Встречаемся каждый четверг в 19:00 на онлайн-событиях, где вместе решаем сложные управленческие задачи.

Расписание и темы можно посмотреть здесь.

Почему вопрос безопасности данных в нейросетях стал критичным для работы

ИИ стал ежедневным инструментом для миллионов сотрудников. Исследование ГК «Солар» показало, что с 2025 года объем конфиденциальной информации российских компаний в публичных нейросетях вырос в 30 раз из-за того, что сотрудники загружают туда рабочие документы.

Риски растут, потому что большинство компаний не контролируют ситуацию: около 60% российских организаций не ввели четкие правила работы с ИИ. Пока руководство не видит проблемы, сотрудники без злого умысла создают утечки — финансовые отчеты, юридические бумаги и базы клиентов попадают на внешние серверы, откуда их уже не вернуть.

Какие рабочие данные нельзя загружать в нейросети

Можно ли загружать документы в нейросеть? Без предварительной обработки нельзя загружать в нейросети документы, содержащие персональные данные и коммерческую тайну.

Персональные данные

Персональные данные включают информацию, позволяющую идентифицировать человека: ФИО, адреса, паспортные данные, ИНН, контакты клиентов и сотрудников. Загружать документы с персональными данными в публичные ИИ-сервисы нельзя без прямого согласия самих людей, чьи данные там есть. Компании рискуют штрафами, если сотрудники передают такие файлы без разрешения.

Коммерческая тайна

К коммерческой тайне относятся сведения о финансовых показателях, бизнес-стратегии, технологических решениях, ценах и партнерских условиях, которые компания ввела в режим охраны. Например, инженеры Samsung весной 2023 года случайно загрузили в ChatGPT внутренний исходный код — после этого инцидента компания полностью запретила сотрудникам использовать публичные ИИ-сервисы на рабочих устройствах.

Документы, защищенные NDA

Загружать NDA-документы в ChatGPT и другие публичные нейросети нельзя из-за нарушения соглашения о неразглашении. NDA запрещает не только копирование документа, но и передачу его содержания посторонним — включая публичные ИИ-сервисы вроде ChatGPT.

Внутренние документы компании

Внутренние регламенты, переписка, протоколы совещаний, данные о структуре организации и персонале — все это служебная информация, которая не предназначена для выхода за пределы компании. Даже если документ формально не относится к коммерческой тайне, его публикация через внешний сервис создает репутационные и правовые риски.

Как нейросети обрабатывают загруженные данные

Нейросети используют загруженные данные по-разному в зависимости от сервиса и его настроек, но общий принцип один: все, что вы вводите, уходит на серверы разработчика.

Хранение и обучение

По умолчанию публичные версии ChatGPT и аналогичных сервисов сохраняют запросы пользователей, в том числе загруженные файлы, изображения и тексты. OpenAI прямо указывает в политике конфиденциальности, что использует данные для «развития и улучшения услуг, а также для проведения исследований». Пользователь может отключить использование своих данных для обучения.

Передача данных третьим лицам

Некоторые ИИ-сервисы могут передавать данные разработчикам облачных платформ, подрядчикам и государственным органам. Пользователи в большинстве случаев не имеют возможности отследить путь своих данных или гарантированно удалить их с серверов.

Корпоративные сервисы

В корпоративных версиях ChatGPT и других ИИ-сервисов конфиденциальность данных обеспечена лучше. Например, ChatGPT Enterprise не использует бизнес-данные для обучения моделей и шифрует все разговоры как при передаче, так и при хранении. Но даже при использовании корпоративного тарифа надо проверить условия обработки данных и их соответствие требованиям российского законодательства о локализации данных.

Вступайте в сообщество Школы управления РБК в Telegram или MAX, чтобы общаться с руководителями из разных сфер, выстраивать нетворкинг и получать советы экспертов.

Какие реальные риски возникают при загрузке документов

Риски использования нейросетей в работе охватывают несколько уровней: технический, правовой и репутационный.

  • Публичные нейросети учатся на загруженных данных, и это создает бизнес-риски. Если кто-то задаст похожий вопрос, ИИ может выдать фрагменты вашего документа — финансовые детали, клиентские имена или стратегии. Компания теряет контроль, а конкуренты получают преимущество.
  • Уязвимость данных при взломе. Данные, загруженные в ИИ-сервис, хранятся на внешних серверах. Если их взломают, конфиденциальная информация может оказаться в руках злоумышленников.
  • «Теневой ИИ» и потеря контроля. Использовать AI для документов опасно из-за риска потери контроля над данными при «теневом ИИ», когда сотрудники применяют публичные нейросети без ведома службы безопасности.
  • Реидентификация «обезличенных» данных. Современные ИИ-системы способны восстанавливать личности даже из фрагментов информации, которая формально считалась обезличенной. Это делает неполное обезличивание документов опасной иллюзией безопасности.

Что говорят NDA и законы о защите данных при работе с нейросетями

Отправлять договор в нейросеть без согласования с контрагентом — нарушение NDA и коммерческой тайны. Это может повлечь дисциплинарные взыскания, гражданско-правовую и даже уголовную ответственность. Сотрудник, загрузивший закрытый документ в публичную нейросеть, формально создает ситуацию разглашения — даже если не преследовал злого умысла.

Персональные данные и ChatGPT — сочетание, требующее особой осторожности с точки зрения российского законодательства. Искусственный интеллект относится к средствам автоматизированной обработки, поэтому вся работа ИИ с персональными данными должна соответствовать требованиям закона. С 1 июля 2025 года первичное хранение персональных данных россиян обязано осуществляться в базах данных на территории России — передача их на зарубежные серверы ИИ-сервисов нарушает это требование.

Ответственность за нарушение законодательства о персональных данных несет прежде всего компания-оператор данных. Но сотрудник, по чьей вине произошла утечка, может быть привлечен к дисциплинарной и гражданско-правовой ответственности перед работодателем.

Как безопасно использовать нейросети в работе с документами

Если соблюдать правила и понимать ограничения каждого ИИ-инструмента, можно безопасно использовать нейросети для рабочих документов.

Обезличивание данных перед отправкой

Защитить данные при работе с нейросетями помогает предварительное обезличивание документа.

Обезличивание — это удаление или замена информации, позволяющей идентифицировать личность или компанию. Важно учитывать, что современные ИИ-системы могут восстанавливать личности по косвенным признакам. Поэтому недостаточно заменить только имя — нужно убрать все идентифицирующие атрибуты.

Работа с фрагментами, а не с полными документами

Обрабатывать юридические документы и использовать нейросети без риска утечки данных можно, если передавать не весь файл, а только необходимые фрагменты, очищенные от конфиденциальных сведений. Для работы с юридическими документами в нейросети достаточно загрузить структуру договора без названий сторон и коммерческих условий. Для обработки финансовых данных — агрегированные показатели без детализации по клиентам.

Проверка политики конфиденциальности сервиса

Правила использования нейросетей начинаются с изучения условий конкретного инструмента. Надо проверить: использует ли сервис ваши данные для обучения модели, как долго хранятся загруженные файлы, можно ли удалить данные, где физически расположены серверы.

Использование защищенных корпоративных решений

Компании могут безопасно использовать нейросети за счет внедрения корпоративных ИИ-решений, работающих внутри защищенного контура организации. Такие решения не передают данные на внешние серверы и обеспечивают мониторинг всех запросов. Корпоративные версии публичных сервисов не используют данные клиентов для обучения моделей и шифруют сессии.

Как выстроить правила работы с нейросетями внутри компании

Безопасность нейросетей для бизнеса строится не только на технических мерах, но и на организационных политиках, формирующих культуру обращения с данными.

Что может предпринять менеджмент:

  • Создайте AI-политику. Составьте простой документ с правилами: что можно отправлять в ИИ (общие шаблоны), а что нельзя (финансовые отчеты, клиентские базы).
  • Разделите данные по уровням. Проведите классификацию: от общедоступных до строго секретных. Для каждого уровня установите четкие правила работы с ИИ — так команда поймет, где риски минимальны.
  • Обучите сотрудников. Проводите короткие инструктажи с примерами: покажите, как случайная загрузка документа оборачивается утечкой, штрафами и потерей клиентов. Это повысит осторожность без лишней бюрократии.
  • Внедрите технику контроля. Заблокируйте передачу чувствительных данных во внешние сервисы, настройте мониторинг трафика и ограничьте доступ к публичным ИИ с рабочих устройств. Бизнес получит защиту без торможения процессов.
  • Рассмотрите корпоративный ИИ-сервис в защищенном контуре. Это даст команде инструменты для автоматизации рутины, но без риска утечки данных за пределы компании.
  • Назначьте ответственного за ИИ-безопасность. Нужен один человек, который будет обновлять правила, разобраться с инцидентами и проверять инструменты команды.

Важно учитывать, что ограничения использования AI в работе с данными определяются не только внутренней политикой, но и законодательством.

Авторы
Теги