Хотя Jira служит системой учета для многих команд DevOps и ИТ, получение секретов или утверждение запросов на привилегированную информацию часто осуществляется на других платформах. Команды могут...
Стремясь повысить продуктивность, сотрудники массово используют ИИ, редко задумываясь о последствиях для безопасности. Когда пользователь копирует конфиденциальные данные клиентов в неутвержденный ИИ-сервис, они попадают в стороннюю среду, находящуюся вне контроля организации. При этом у службы безопасности не остается никаких цифровых следов, которые позволили бы вовремя заметить утечку.
Согласно отчету Microsoft «Индекс тенденций в сфере труда» (Work Trend Index) за 2024 год, 78% сотрудников уже используют в работе собственные ИИ-инструменты. Столь масштабное бесконтрольное использование технологий привело к расцвету феномена теневого ИИ. Защита идентификационных данных помогает решить эту проблему, обеспечивая организациям полную прозрачность в том, кто и на каких условиях использует ИИ. Так команды безопасности получают инструменты, необходимые для контроля за работой нейросетей.
Далее мы разберем, что такое теневой ИИ, почему он угрожает безопасности идентификационных данных и как взять использование нейросетей под контроль.
Теневые ИТ и теневой ИИ: в чем разница
Теневой ИИ наследует риски теневых ИТ, но привносит современные и более сложные угрозы. Теневые ИТ — это несанкционированное использование программ или систем в обход корпоративных стандартов. Например, когда сотрудник отправляет рабочий файл через личную почту, контроль доступа теряется, а операции становятся непрозрачными. Теневой ИИ представляет еще большую угрозу, так как подобные инструменты не просто хранят данные, а активно их обрабатывают и могут использовать для обучения. Это выводит риски на новый уровень, так как конфиденциальная информация оседает в сторонних моделях вне зоны контроля организации. Два фактора, которые делают управление ИИ особенно сложным:
- Личные аккаунты и устройства. Когда сотрудники заходят в нейросети через персональные профили, их действия никак не связаны с корпоративной учетной записью. Это лишает ИТ-службу прозрачности и возможности отследить цепочку событий.
- Браузерные инструменты. Облачные ИИ-сервисы не требуют установки на компьютер, поэтому их трудно обнаружить стандартными средствами защиты, которые контролируют только установленное ПО.
Масштабная утечка данных в сочетании с инструментами, способными обходить классический мониторинг, превращает теневой ИИ в одну из самых серьезных угроз безопасности.
Почему теневой ИИ угрожает безопасности идентификационных данных
Когда сотрудники используют неутвержденные ИИ-инструменты, ИТ-службы теряют контроль над тем, какие данные передаются, кто именно обращается к сервису и как алгоритмы распоряжаются полученной информацией. Отсутствие прозрачности на уровне учетных записей — основная причина, по которой теневой ИИ так сложно обнаружить и контролировать. Традиционные решения для управления доступом (IAM) разрабатывались для людей с предсказуемым поведением и четкими ролями. Однако сегодня компаниям необходимо пересматривать стратегии безопасности, учитывая нечеловеческие идентичности (NHI), ИИ-агенты и сервисные аккаунты. Эти машинные учетные записи могут автономно обращаться к системам и выполнять задачи в критически важных средах, и их популярность в корпоративном секторе стремительно растет. Согласно глобальному исследованию McKinsey о состоянии ИИ в 2025 году, 62% руководителей подтвердили, что их компании уже приступили к тестированию или внедрению ИИ-агентов. В отличие от людей, такие агенты способны работать непрерывно, мгновенно масштабироваться и взаимодействовать с множеством систем одновременно. Если система безопасности не контролирует людей и нечеловеческие идентичности, компании перестают понимать, кто и как распоряжается ее данными.
Основные риски теневого ИИ, связанные с идентификацией
Слабая защита учетных данных не только мешает обнаружить теневой ИИ, но и усиливает ущерб, который он может нанести.
Неконтролируемый доступ к данным
Сотрудники, которые передают конфиденциальную информацию неутвержденными ИИ-сервисам, создают риск утечки, который невозможно обнаружить стандартными средствами мониторинга. Инструменты защиты охватывают только те каналы, к которым они подключены, а теневой ИИ остается вне их поля зрения. Если человек использует нейросеть через личный аккаунт, компания не может зафиксировать или проверить его действия. В итоге утечка паролей или данных позволит злоумышленникам проникнуть в систему, не оставив никаких следов.
Разрастание машинных идентичностей
Для обычных сотрудников всегда прописаны процессы найма и увольнения, но за ИИ-агентами и сервисными аккаунтами часто никто не следит. В результате в инфраструктуре копится множество цифровых идентичностей с избыточными правами и нулевым контролем. Без прозрачного управления этими учетными записями организация не может проверить, к каким данным они обращаются и не были ли они взломаны.
Сложности с аудитом и комплаенсом
Международные стандарты и правила (GDPR, HIPAA, PCI DSS) обязывают компании строго отслеживать, как обрабатывается конфиденциальная информация. При этом неважно, делает это человек или машина. Если защита идентификации не учитывает действия ИИ, история проверок остается неполной. Это грозит штрафами и замечаниями регуляторов, которые почти невозможно устранить задним числом.
Как навести порядок: управление теневым ИИ через контроль доступа
Борьба с теневым ИИ не должна превращаться в тотальный запрет всех нейросетей. Начинать стоит с полной прозрачности: нужно четко понимать, кто именно обращается к критически важным системам и данным. Ниже приведены основные шаги, которые помогут ИТ-отделу и службе безопасности взять ситуацию под контроль, опираясь на управление учетными записями.
- Прозрачность всех учетных записей. Современные IAM-решения позволяют отслеживать использование любых ИИ-сервисов, включая несанкционированные. Без такой прозрачности служба безопасности сможет лишь реагировать на последствия уже случившихся утечек. Контроль должен охватывать и сотрудников, и машинные идентификаторы — только так можно вовремя разрешить безопасные инструменты или уточнить правила доступа.
- Управление на NHI. Объедините систему управления доступом IAM с инструментами администрирования прав (IGA), чтобы эффективно контролировать людей и машинные идентичности. ИИ-агенты и сервисные аккаунты должны проходить те же проверки, что и сотрудники, с регулярным пересмотром прав, минимальным доступом и отключением аккаунта сразу после завершения работы.
- Принцип нулевого доверия. Любой запрос на доступ требует проверки, независимо от того, инициирован он человеком или программой. Используйте многофакторную аутентификацию, технологии единого входа и принцип наименьших привилегий. Каждая учетная запись должна иметь доступ только к тем ресурсам, которые необходимы для выполнения задачи.
- Мониторинг и запись привилегированных сессий. Любые действия ИИ нужно связывать с конкретными учетными записями, а работу в критически важных системах — записывать. KeeperAI анализирует такие сессии в режиме реального времени и автоматически выявляет подозрительную активность по заданным критериям. Это дает службе безопасности полную историю операций и позволяет остановить атаку в самом начале, не допуская серьезного инцидента.
- Внедрение систем обнаружения и реагирования на угрозы идентификации (ITDR). ITDR непрерывно отслеживает поведение людей и программных агентов, выявляя попытки захвата аккаунтов или повышения привилегий. Перенося защиту с периметра на уровень идентификации, ITDR устраняет слепые зоны, созданные теневым ИИ.
Защита человеческих и машинных идентичностей с Keeper®
С развитием ИИ растет и риск использования неконтролируемых сервисов. Организациям нужна платформа управления идентичностями, которая обеспечивает видимость, контроль и управление каждой идентичностью — как человеческой, так и машинной.
Keeper защищает привилегированный доступ для людей и машинных идентичностей, внедряет политики наименьших привилегий и обеспечивает мониторинг сессий в критически важных системах в реальном времени. Платформа управляет секретами инфраструктуры и API-ключами, необходимыми для работы ИИ-агентов. Это гарантирует, что машинные идентичности действуют строго в заданных рамках, а учетные данные обновляются автоматически. KeeperAI расширяет возможности контроля, анализируя привилегированные сеансы и мгновенно выявляя подозрительную активность. Благодаря архитектуре нулевого доверия и нулевого разглашения вы получаете полный аудит и контроль доступа. Keeper позволяет безопасно использовать потенциал ИИ, не ограничивая продуктивность команды.
Начните бесплатный пробный период Keeper сегодня, чтобы получить полный контроль над каждой учетной записью в вашей ИТ-среде.