«Корпоративные системы ИИ — это не просто инструмент, это новый канал утечек. Когда сотрудники используют личные почты для доступа к GenAI, они не нарушают правила, они создают слепую зону для ИБ. Риск не в том, что кто-то украдёт пароль, а в том, что данные компании становятся частью обучающей выборки стороннего сервиса, и это уже не исправить.»
Невидимая утечка: как личная почта становится каналом для корпоративных данных
Сотрудник регистрируется в популярном GenAI-сервисе, чтобы быстро сгенерировать отчёт, написать коммерческое предложение или проверить код. Он вводит свой корпоративный логин и пароль? Нет, это неудобно и часто технически невозможно. Он использует личный Gmail или Яндекс.Почту. В этот момент корпоративная информационная безопасность теряет контроль. Аккаунт не проходит через корпоративный прокси, не логируется в SIEM, не управляется через MDM. Он становится точкой входа для данных, которые по определению должны оставаться внутри периметра.
Главная опасность — не в самом факте использования личной почты, а в том, что происходит дальше. Сотрудник начинает вводить в чат-интерфейс фрагменты внутренней документации, финансовые показатели, структуру клиентской базы или фрагменты исходного кода. Каждый такой запрос — это потенциальная утечка. Многие сервисы по умолчанию сохраняют историю диалогов и могут использовать введённые данные для дообучения своих моделей. Даже если в настройках стоит галочка «не использовать мои данные для обучения», это не гарантирует, что данные не будут временно обрабатываться или храниться на серверах третьей стороны, чья юрисдикция и политики безопасности могут кардинально отличаться от российских требований 152-ФЗ и ФСТЭК.
Это создаёт классическую ситуацию «тени IT» (Shadow IT), только на уровне данных. Отдел ИБ может быть уверен, что весь внешний трафик контролируется, но трафик к API GenAI-сервисов, идущий с личного устройства через личный аккаунт, остаётся вне поля зрения.
[ИЗОБРАЖЕНИЕ: Схема, показывающая два потока данных: 1) Корпоративный: устройство -> корпоративный VPN/прокси -> SIEM -> GenAI сервис. 2) Личный (Shadow IT): личное устройство -> личный почтовый аккаунт -> прямое соединение с GenAI сервисом, минуя все корпоративные средства контроля. Данные из второго потока попадают в историю чата и потенциально в обучающую выборку модели.]
Риски, которые не видны в логах
Традиционные средства защиты сфокусированы на известных угрозах: вирусах, фишинге, DDoS-атаках. Утечка через GenAI — это угроза другого порядка. Данные не «утекают» файлом, они покидают периметр по частям, в виде, казалось бы, безобидных текстовых запросов. Последствия можно разделить на несколько уровней.
Прямые нарушения регуляторики
Использование иностранных GenAI-сервисов для обработки персональных данных (ПДн) или информации, составляющей коммерческую тайну, почти наверняка является нарушением 152-ФЗ. Оператор ПДн обязан обеспечить конфиденциальность и безопасность, а передача данных на серверы, физически расположенные за рубежом и управляемые иностранной компанией, делает выполнение этого требования невозможным. ФСТЭК России прямо указывает на необходимость контроля всех каналов передачи информации. Несанкционированное использование облачных сервисов, к которым относятся и GenAI-платформы, попадает под действие приказов ФСТЭК, регулирующих защиту информации в облачных средах.
Потеря интеллектуальной собственности
Введённый в модель фрагмент кода, уникальная бизнес-логика, патентованная формула или стратегический план развития перестают быть исключительной собственностью компании. Они становятся частью данных, на которых модель может обучаться. В будущем эта же модель, отвечая на запрос другого пользователя, может сгенерировать ответ, основанный на ваших конфиденциальных данных. Доказать факт утечки и её источник в таком случае будет крайне сложно.
Компрометация бизнес-процессов
GenAI всё чаще используется для анализа данных и поддержки принятия решений. Если в модель загружаются искажённые, неполные или конфиденциальные данные, её выводы могут привести к ошибочным управленческим решениям. Более того, злоумышленник, получивший доступ к личному аккаунту сотрудника (например, через утечку паролей), может просмотреть всю историю его рабочих запросов и восстановить по ним картину внутренних процессов компании.
Что делать: от запрета к управляемому использованию
Полный запрет на использование GenAI — тактика, обречённая на провал. Сотрудники найдут обходные пути. Эффективная стратегия строится на трёх китах: осознание, контроль и предоставление безопасной альтернативы.
- Политика допустимого использования (Acceptable Use Policy). Чётко сформулируйте и доведите до всех сотрудников правила работы с внешними AI-сервисами. Объясните не только запреты, но и причины: какие данные категорически нельзя вводить (ПДн, финансовая отчётность, исходный код), а какие — можно с осторожностью.
- Технический контроль периметра. Настройте DLP-системы и прокси-серверы на обнаружение и блокировку трафика к популярным GenAI-платформам. Используйте категоризацию URL и анализ SSL-сертификатов. Однако помните, что это «гонка вооружений» — сервисы меняют адреса, появляются новые.
- Предоставление корпоративного инструмента. Это ключевой шаг. Сотрудники используют личные аккаунты, потому что это просто и доступно. Предложите им корпоративную альтернативу. Это может быть:
- Корпоративная подписка на один из сервисов с выделенным инстансом, где данные изолированы и не используются для обучения.
- Развёртывание локального решения с открытыми весами модели (например, на базе Llama или отечественных аналогов). Это даёт полный контроль над данными, но требует вычислительных ресурсов и экспертизы.
- Использование API-провайдеров, которые гарантируют соблюдение российского законодательства и не сохраняют данные запросов.
Корпоративный аккаунт должен быть привязан к единой системе аутентификации (SSO) и полностью логироваться.
[ИЗОБРАЖЕНИЕ: Инфографика, сравнивающая три сценария: 1) Запрет (красный цвет) — сотрудник использует личный телефон в обход блокировок. 2) Личный аккаунт (жёлтый цвет) — данные уходят в публичную модель. 3) Управляемое использование (зелёный цвет) — сотрудник через корпоративный портал получает доступ к изолированному инстансу модели, весь трафик идёт через защищённый канал и логируется.]
Интеграция в систему управления информационной безопасностью
Работу с GenAI нельзя рассматривать изолированно. Её необходимо встроить в существующие процессы ИБ.
- Аудит и инвентаризация. Регулярно проводите опросы и технические проверки на предмет использования GenAI-сервисов в рабочих целях.
- Обучение и повышение осведомлённости. Включите риски, связанные с AI, в программу регулярного обучения по информационной безопасности. Используйте реалистичные кейсы.
- Мониторинг и реагирование. Настройте правила корреляции в SIEM-системе, которые будут искать косвенные признаки утечки через AI: например, массовые обращения к определённым доменам с рабочих станций или нехарактерно большой объём текстового трафика на внешние ресурсы.
- Пересмотр классификации данных. Возможно, некоторые типы данных, которые раньше считались низкорисковыми, в эпоху GenAI требуют переклассификации и усиленной защиты.
Проблема использования личных почт для GenAI — это симптом более глубокого сдвига. Инструменты искусственного интеллекта стирают границу между личным и рабочим, между внутренней и внешней средой. Задача специалиста по ИБ и регуляторике — не отгородиться от этого тренда, а выработать гибкие механизмы, которые позволят компании использовать преимущества технологии, не ставя под удар свою информационную суверенность и не нарушая законодательство. Начинать нужно не с поиска виноватых, а с создания безопасных и удобных условий для легального использования.