Программы-вымогатели и кража учетных данных являются одними из наиболее распространенных и опасных способов атак на финансовые учреждения. Поскольку банковские системы хранят ценные финансовые активы и конфиденциальные...
Поскольку организации всё больше полагаются на искусственный интеллект (ИИ) для выполнения критически важных операций, инфраструктура, поддерживающая разработку и развертывание ИИ, становится высокоценной мишенью для киберпреступников. От обучения моделей и конвейеров обработки данных до облачных рабочих нагрузок и API работа ИИ зависит от доступа к привилегированным учетным данным и критически важным системам.
В действительности, средами с искусственным интеллектом управляют не только люди, но и нечеловеческие идентичности (NHI), такие как агенты ИИ, контейнеры и учетные записи служб. По сравнению с человеческими идентичностями, NHI особенно трудно отслеживать и обеспечивать их безопасность в динамических автоматизированных конвейерах. Для снижения риска кибератак с использованием ИИ организациям необходимо обеспечить безопасность каждого идентификатора человека и машины, применяя принцип минимальных привилегий, исключая постоянные привилегии и используя принципы безопасности «нулевого доверия».
Продолжайте читать, чтобы узнать, почему безопасность идентификационных данных имеет важное значение для защиты от угроз безопасности ИИ и как Keeper® помогает обеспечить безопасность как человеческой, так и нечеловеческих идентичностей.
Почему важна защита личных данных?
Системы на основе искусственного интеллекта полагаются на распределенную инфраструктуру и расширенный доступ к критически важным средам. Как правило, пользователи, включая инженеров, команды DevOps и специалистов по анализу данных, нуждаются в расширенных правах доступа для управления базами данных, кластерами Kubernetes, графическими процессорами и производственными нагрузками. Однако внутренние сотрудники — не единственные пользователи, которым нужен доступ. Многие организации полагаются на сторонних поставщиков, которым может быть предоставлен привилегированный доступ для управления инфраструктурой или обслуживания базовых платформ, что влечет за собой внешние риски, которые необходимо строго контролировать. Управление привилегированным доступом поставщиков (VPAM) устраняет этот риск путем контроля и мониторинга доступа третьих лиц. VPAM специализируется на обеспечении внешнего доступа к внутренним системам и управлении им путем обеспечения доступа с наименьшими привилегиями и обеспечения контролируемой видимости.
В то время как человеческие личности имеют решающее значение для обеспечения работы ИИ, такие NHI, как агенты ИИ, учетные записи служб, API и сценарии автоматизации, не менее важны. Им нужны привилегированный доступ и учетные данные для перемещения данных, развертывания моделей искусственного интеллекта и запуска автоматизированных конвейеров. В отличие от человеческих пользователей, NHI обычно работают непрерывно и в большом масштабе, что делает их высокоценными целями для киберпреступников. Если какая-либо человеческая или машинная личность будет скомпрометирована, последствия могут варьироваться от кражи данных и неправомерного использования учетных данных до бокового перемещения и нарушений соответствия.
Проблемы с человеческими и нечеловеческими идентичностями
Управление идентификацией в средах искусственного интеллекта представляет собой сложную задачу, поскольку организациям необходимо обеспечивать безопасность как пользователей-людей, так и автоматизированных процессов в условиях быстро меняющейся инфраструктуры. Пользователи часто накапливают избыточные права доступа с течением времени, особенно в быстро меняющихся условиях, где инженерам и специалистам по анализу данных предоставляется постоянный доступ для ускорения разработки.
Каким бы сложным ни было управление доступом для пользователей-людей, NHI создают ряд других проблем. Сервисные аккаунты, ИИ-агенты, скрипты и API часто зависят от секретов, жестко закодированных в скриптах или встроенных в контейнеры, что затрудняет их отслеживание, ротацию или отзыв. Команды, как правило, не имеют представления о том, чем занимаются NHI, какие системы на них полагаются и какой у них доступ. По мере расширения инфраструктуры искусственного интеллекта в многооблачных средах, распространение секретов становится сложнее контролировать, а журналы аудита для автоматизации практически отсутствуют. Без надлежащего контроля и мониторинга скомпрометированные учетные записи могут оставаться незамеченными, что позволяет несанкционированно получать доступ к критически важным системам и моделям искусственного интеллекта. Для решения этой проблемы важна поведенческая аналитика и непрерывная проверка, чтобы обнаруживать необычную активность в рабочих процессах ИИ, гарантируя, что как человеческие, так и машинные идентификаторы действуют в пределах утвержденных лимитов доступа.
Лучшие практики обеспечения безопасности идентификационных данных в средах искусственного интеллекта
Для защиты конфиденциальных данных и критически важной инфраструктуры организациям необходимо внедрить стратегию безопасности, ориентированную на идентификацию, чтобы обеспечить защиту как человеческих, так и нечеловеческих идентичностей. Вот некоторые лучшие практики по обеспечению безопасности идентификационных данных на всех этапах жизненного цикла ИИ:
- Применять доступ с минимальными привилегиями ограничьте доступ только к тому, что необходимо для каждой конкретной роли или задачи, и постоянно проверяйте этот доступ на основе контекста, чтобы уменьшить последствия компрометации учетной записи.
- Используйте управление секретами с автоматической ротацией учетных данных: исключите жестко закодированные учетные данные, обеспечив их безопасное хранение и автоматически ротируя их на регулярной основе. Это крайне важно для машинных идентификаторов, которые непрерывно работают в нескольких конвейерах.
- Обеспечьте управление доступом на основе ролей (RBAC) и многофакторную аутентификацию (MFA): внедрите RBAC для определения гранулированных политик доступа по ролям или командам, и требуйте MFA для привилегированных действий во всех системах, чтобы предотвратить несанкционированный доступ.
- Мониторинг и запись привилегированных сеансов: записывать действия в сеансе для всех случаев доступа людей и машин к критически важным системам. Это обеспечивает подотчетность, помогает выявлять аномальную активность и упрощает аудит.
- Устраните постоянные привилегии доступа с помощью системы «точно в срок» (Just-in-Time, или JIT): предоставляйте доступ и автоматически отзывайте его после завершения задачи. Доступ по принципу «точно в срок» значительно сокращает окно возможностей для киберпреступников и поддерживает безопасность на основе принципа «нулевого доверия».
- Интеграция защиты идентификационных данных в CI/CD: встройте управление секретами а также средства контроля доступа, интегрированные непосредственно в рабочие процессы разработки, чтобы гарантировать, что безопасность не препятствует автоматизации в средах искусственного интеллекта.
- Внедрить временный доступ для поставщиков с использованием VPAM: используйте VPAM для предоставления третьим сторонам временного доступа к внутренним системам на основе политик, обеспечивая ограничение и отслеживаемость их доступа.
Как Keeper защищает человеческие и нечеловеческие идентичности
Keeper — это плоскость управления с нулевым доверием для идентификаций человека и машины, созданная с учетом требований безопасности идентичности в современных ИИ-средах. Keeper защищает каждую личность в экосистеме организации с помощью:
- Управление секретами: Keeper надежно хранит и вращает секреты, включая ключи SSH, токены и сертификаты, в зашифрованном хранилище, гарантируя, что никакие секреты в открытом виде не будут раскрыты.
- Доступ по принципу «точно в срок»: используя Keeper, доступ предоставляется только при необходимости, с автоматическим аннулированием для устранения постоянного доступа, предотвращая превращение учетных данных в источник проблем в быстро развивающихся средах искусственного интеллекта.
- Запись сессии: для обеспечения соблюдения внутренних политик безопасности и требований соответствия все привилегированные сеансы могут быть записаны и проверены, что обеспечивает полную прозрачность в отношении того, кто, к чему и когда получил доступ.
- Обнаружение угроз с помощью ИИ и реагирование на них: KeeperAI выявляет сеансы высокого риска и автоматически завершает их, проводя полный анализ и категоризацию активности.
- Покрытие многооблачной среды: Keeper поддерживает доступ к средам AWS, Azure, GCP и локальным средам, обеспечивая централизованное управление даже в распределенных инфраструктурах, обычно используемых в автоматизированных рабочих процессах.
- Интеграции с инструментами разработчика: Keeper поддерживает множество интеграций с инструментами для современной разработки ИИ, включая Terraform, Kubernetes, SQL-клиенты и многое другое. Эти интеграции обеспечивают встроенную безопасность в рабочих процессах разработчиков без лишних сложностей.
- VPAM: для подрядчиков и сторонних поставщиков Keeper обеспечивает ограниченный по времени доступ на основе политик с подробными журналами аудита, гарантируя строгий контроль и полный мониторинг деятельности поставщиков.
Защитите каждую личность от рисков безопасности, связанных с ИИ, с помощью Keeper
По мере ускорения внедрения ИИ каждый пользователь, будь то человек или машина, создает новые риски безопасности, связанные с неуправляемыми учетными записями и неконтролируемым доступом, если они не защищены должным образом. Традиционные методы управления доступом не справляются с быстрым расширением современной инфраструктуры, поэтому необходима современная платформа управления идентификационной безопасностью, например Keeper. Keeper позволяет организациям защищать среды искусственного интеллекта, не замедляя работу, обеспечивая безопасность на основе принципа нулевого доверия, масштабируемую вместе с быстро растущей инфраструктурой ИИ.
Начните бесплатную пробную версию Keeper уже сегодня, чтобы защитить каждую личность в вашей современной среде.