За блокировкой ChatGPT на работе стоят реальные риски для данных

Что скрывается за блокировкой

Когда в организации блокируют доступ к внешним ИИ-сервисам, первая реакция — недоумение. Кажется, что у руководства паранойя, что вас лишают современного инструмента, который повышает эффективность. Запрет выглядит как прихоть ретроградов, не понимающих технологий. Но если отстраниться от личной обиды и взглянуть шире, возникает другая картина. Блокировка, это не про запрет генерации текста или кода. Это внешний симптом внутренних процессов, связанных с информационной безопасностью и управлением данными.

Основное противоречие в том, что мы привыкли рассматривать ИИ-ассистентов как инструмент, вроде поисковика или калькулятора. Однако с точки зрения корпоративных правил и регуляторных требований ChatGPT или его аналоги, это полноценный внешний сервис, канал передачи информации. Каждый ваш запрос, это отправка данных, которые могут быть конфиденциальными, за пределы периметра компании. А каждый полученный ответ, это неконтролируемое внедрение информации обратно в инфраструктуру. Система безопасности предприятия работает на создание замкнутого контура, а публичный ИИ вносит в него неконтролируемую дыру.

Чем опасен невинный запрос

Сложно представить, как запрос вроде «напиши приветственное письмо клиенту» может навредить. Но опасность редко лежит на поверхности. Формулировка запроса часто содержит контекст: название компании, проекта, имена сотрудников, специфичные термины. Это уже утечка метаданных. Дальше — больше. Чтобы получить точный ответ, пользователь начинает вставлять в промпт фрагменты внутренних документов, требования ТЗ, структуру базы данных, отрывки из переписки. Опасность в том, что эта передача данных не осознаётся как утечка, потому что цель видится сугубо рабочей. Никто не отправляет папку с файлами на личную почту, но сформулировать тот же смысл словами для ИИ кажется безобидным.

Существует менее очевидный риск — инъекция вредоносного кода или инструкций в ответе. Если ИИ используется для генерации или анализа кода, он может предложить решение, содержащее уязвимость, или псевдокод, который при невнимательном использовании нарушит логику приложения. Ответы таких моделей непредсказуемы и не гарантируют безопасность. Внедряя их в рабочий процесс без проверки, команда рискует создать брешь в собственном продукте.

Точки пересечения с 152-ФЗ и требованиями регуляторов

Когда речь заходит о персональных данных (ПДн), регулируемых 152-ФЗ, использование публичных ИИ-сервисов вступает в прямое противоречие с законом. Контролер ПДн (организация) обязан обеспечить безопасность данных и не имеет права передавать их третьим лицам без соответствующего договора и гарантий. Публичный ChatGPT, с точки зрения закона,, это иностранный оператор, обработка данных которым происходит вне российской юрисдикции и без какого-либо соглашения с вашей компанией.

Даже если вы не отправляете напрямую ФИО или паспортные данные, косвенные данные (служебная переписка, упоминания, контекст) могут позволить идентифицировать человека. Для ФСТЭК и Роскомнадзора такая передача квалифицируется как нарушение. Поэтому с позиции合规 (compliance) блокировка, это не перестраховка, а минимально необходимая мера для избежания штрафов и предписаний.

  • Передача любых данных, включая промпты, за границу без надлежащего правового основания.
  • Отсутствие договора на обработку ПДн с вендором ИИ.
  • Невозможность обеспечить выполнение требований о локализации хранения и обработки ПДн на территории РФ.
  • Отсутствие контроля и аудита действий оператора (ИИ-сервиса).

Почему «просто предупредить людей» не работает

Распространённое мнение: достаточно провести инструктаж и запретить вставлять в запросы конфиденциальную информацию. На практике эта мера малоэффективна. Во-первых, у людей разное понимание того, что является конфиденциальным. Техническая спецификация может не считаться тайной для разработчика, но с точки зрения бизнеса это критически важный актив. Во-вторых, в погоне за качественным ответом человек подсознательно будет добавлять всё больше контекста, не задумываясь о классификации данных. Наконец, у ИИ нет триггеров или фильтров со стороны пользователя, которые бы блокировали опасные запросы. Запрет на уровне сетевого доступа (прокси, firewall), это единственный способ гарантированно устранить риск, сделав саму возможность передачи данных технически невозможной.

Альтернативы: что можно использовать вместо публичного ИИ

Полный запрет без предложения альтернативы демотивирует. Современный подход к безопасности — не просто сказать «нет», а предоставить безопасный «да». В российском ИТ-ландшафте и в мире корпоративных решений есть несколько путей:

  1. Корпоративные (on-premise) решения. Развёртывание моделей внутри периметра компании. Это могут быть как российские разработки (GigaChat, Яндекс GPT), так и развёртывание open-source моделей (например, на базе Llama или отечественных аналогов) на собственном железе или приватном облаке. Данные никуда не уходят, весь цикл обработки контролируется.
  2. API с российскими провайдерами. Использование API от вендоров, которые гарантируют обработку данных в юрисдикции РФ и готовы заключить необходимые договоры, в том числе об ответственности за обработку ПДн.
  3. Локальные инструменты для разработчиков. Для задач вроде автодополнения кода существуют плагины для IDE, которые работают на основе локально развёрнутых lightweight-моделей, не требующих отправки данных в облако.

Ключевой критерий выбора — наличие договорных отношений и прозрачность условий обработки данных. Если вендор не может предоставить юридически значимые гарантии и допустить ваших аудиторов, его сервис не подходит для корпоративного использования.

Из чего состоит реальное решение для компании

Блокировка — лишь первый, пассивный шаг. Настоящая стратегия строится на трёх компонентах:

  • Политика использования. Чёткий внутренний регламент, который описывает, какие ИИ-инструменты разрешены, для каких задач, какие данные можно использовать. Политика должна быть доведена до всех сотрудников и понятна.
  • Техническая реализация. Настройка систем DLP (Data Loss Prevention) для детектирования попыток передачи структур данных в текстовом виде, фильтрация трафика на уровне шлюза, предоставление белого списка разрешённых внутренних сервисов.
  • Предоставление альтернатив. Внедрение и популяризация одобренных, безопасных инструментов. Если у людей будет удобный и легальный способ решать те же задачи, необходимость обходить запреты отпадёт сама собой.

Что делать, если доступ к ИИ критически важен для работы

Если конкретные команды или проекты не могут функционировать без подобных инструментов, блокировка «в лоб» сорвет сроки. Выход — инициировать внутренний процесс легализации использования. Это требует усилий, но оно структурировано:

  1. Оценка рисков (Risk Assessment). Совместно с отделом безопасности описать бизнес-процесс, который требует ИИ, типы данных, которые будут involved, и смоделировать возможные угрозы.
  2. Поиск и верификация вендора. Найти поставщика, чьё решение соответствует требованиям по локализации и безопасности. Запросить у него все необходимые документы: заключение ФСТЭК, сведения об обработке ПДн, результаты аудита.
  3. Пилотное внедрение. Запустить проект для ограниченной группы пользователей с усиленным мониторингом и сбором логов. На этом этапе окончательно оцениваются риски и польза.
  4. Принятие решения и интеграция. На основе результатов пилота принимается решение о масштабировании. Инструмент вносится в белый список, для него прописываются отдельные правила использования.

Этот путь превращает ИИ из «серой» тени-инструмента в легализованный, контролируемый бизнес-актив.

Блокировка ChatGPT на работе, это не паранойя, а следствие столкновения новой, хаотичной технологии со старыми, жёсткими системами корпоративного управления и безопасности. Это необходимость, диктуемая не страхом, а логикой защиты активов и соблюдения законов. Понимание глубинных причин позволяет не бороться с запретом, а строить диалог с руководством и службой безопасности, предлагая решения, которые снимут риски, но не лишат команды технологических преимуществ. Будущее за не публичным, а корпоративным ИИ — тем, который работает внутри периметра, а не пробивает в нём дыры.

Оставьте комментарий