
Модели безопасности, которые были эффективными несколько лет назад, сейчас находятся под огромным давлением из-за быстрых изменений в организациях. По мере приближения 2026 года многие команды сталкиваются с более масштабной и сложной ситуацией с рисками.
Во многом это обусловлено быстрым внедрением искусственного интеллекта (ИИ), ростом автоматизации и продолжающимся переходом на облачные платформы и платформы для совместной работы.
Ведущий консультант по информационной безопасности KnowBe4.
Эти основные проблемы не новы. Такие проблемы, как несогласованное владение безопасностью, неравномерный контроль между системами и реализация безопасности на поздних стадиях цикла поставки, все еще заметны, только теперь они появляются быстрее, распространяются дальше и оказывают большее влияние.
«Переломный момент ИИ»
По мере того как предприятия широко внедряют ИИ, становится ясно, что это не просто еще одна категория угроз. ИИ представляет собой фундаментальный переломный момент в управлении рисками.
Это представляет двойной риск. Внутри компании сотрудники могут передавать конфиденциальные данные в инструменты искусственного интеллекта, не до конца понимая, как эта информация хранится или защищается. Внешне киберпреступники используют ИИ для создания дипфейков, выдачи себя за доверенных лиц и проведения крупномасштабных атак с беспрецедентной скоростью и точностью.
Хотя почти все организации принимают меры по устранению рисков, связанных с ИИ, многие сотрудники считают, что доступ к одобренным инструментам слишком медленный, чрезмерно ограничительный или непоследовательно регулируемый. Кроме того, все более распространенным становится несанкционированное использование, или теневой ИИ.
Сотрудники, возможно, уже используют личные учетные записи с большими языковыми моделями, которые полностью находятся за пределами контроля со стороны организации, создавая векторы рисков, которые фактически невидимы. Те же модели поведения, которые делают сотрудников продуктивными с помощью ИИ, могут быстро стать обузой без ограничений в реальном времени.
Именно здесь оказывается наибольшее давление на поддержание моделей безопасности.
«Новый риск»
Исторически сложилось так, что организации подходили к рискам безопасности, связанным с людьми, в первую очередь посредством повышения осведомленности и обучения сотрудников тому, как распознавать угрозы и избегать ошибок.
Этот подход важен, поскольку исследования показали, что на 90% увеличилось количество киберинцидентов, вызванных человеческим фактором; Однако одного этого подхода уже недостаточно.
Когда риск существует практически везде, где сотрудники работают и общаются, безопасность по периметру и ежегодные циклы обучения являются структурно неадекватными. Это потому, что сегодня на рабочем месте участвуют не только люди.
Агенты ИИ все чаще вовлекаются в критически важные рабочие процессы, работая с сотрудниками и взаимодействуя с конфиденциальными данными. Хотя чисто человеческие векторы атак остаются, организации не проводят такой же уровень обучения поведенческим рискам для агентов ИИ, как для своих сотрудников.
исход? Новый и практически неуправляемый тип риска.
За этим растущим риском стоит глубокий разрыв между организациями и их сотрудниками. Почти половина сотрудников не верят, что данные, с которыми они работают, принадлежат организации. Неясное право собственности приводит к индивидуальному установлению правил в отношении совместного использования, хранения и использования ИИ.
Признание этого пробела в понимании проясняет одну вещь: культура, стимулы и инструменты формируют поведение гораздо эффективнее, чем одни только политические документы. Человеческий риск связан не столько с правилами, сколько с ясностью.
Когда вы учите ребенка безопасно переходить дорогу, вы рассказываете ему о зеленых и красных сигналах, что дает ему представление и ясность о том, как переходить любую дорогу в любой момент его жизни.
Хотя обучение людей предполагает обучение и лидерство, недавно реализованные модели агентного ИИ должны создать новые подходы. Объединение всего этого под одной крышей окажется непростой задачей для многих организаций в преддверии 2026 года, но то, что что-то сложно, не означает, что этого не следует делать.
бухгалтерская книга
Новое исследование показало, что 44% организаций по всему миру привлекли к дисциплинарной ответственности сотрудников, ставших жертвами фишинговых атак. Этот распространенный карательный подход к безопасности потенциально еще больше подрывает результаты, поскольку точки зрения руководства и сотрудников все чаще искажаются.
Лидеры предпочитают дисциплину и формальные последствия, а сотрудники предпочитают поддержку, обучение и целенаправленное руководство. Стратегии, предусматривающие суровое наказание, подрывают доверие и подрывают долгосрочную устойчивость. Когда страх берет верх, количество сообщений об инцидентах уменьшается, доверие подрывается, а службы безопасности устают.
Организации не могут наказывать себя за лучшее поведение в области безопасности. Крайне важны механизмы, которые снижают риск до того, как ошибки произойдут, а не реагируют постфактум. Вместо того, чтобы сосредотачиваться на возложении вины, мы должны работать над созданием позитивной культуры безопасности.
Именно здесь управление человеческими рисками, или HRM, должно позиционироваться как основная часть стратегии безопасности, а не как побочная инициатива. Межплатформенная видимость рискованного поведения и сигналов риска на уровне сотрудников должна заменить широкие категории пользователей и предположения.
Создание позитивной культуры, когда риски видны в режиме реального времени, требует поддерживающего коучинга. Более того, исследования показали, что «активное обучение» (или обучение на практике) невероятно эффективно для удержания сотрудников.
Этот метод усиливает и интегрирует безопасность непосредственно в повседневные операции и рассматривает людей как адаптивных участников, а не как статические обязательства. Системы искусственного интеллекта должны работать таким же образом, с практическими базовыми показателями, мониторингом и средствами контроля, которые отражают их растущую роль в рабочей силе.
Управление человеческими ресурсами становится связующим звеном между поведением человека, использованием ИИ и устойчивостью организации.
Направление движения ясно. Организации движутся к использованию рабочей силы, состоящей из людей и агентов, и безопасность — это вопрос времени, а не принятия. Чтобы поддерживать инновации без увеличения рисков, передовые методы обеспечения безопасности теперь должны быть включены как в человеческие, так и в машинные системы.
Исследования уже показывают, что первые пользователи получают выгоду от более низкого уровня инцидентов, более высокого доверия и более быстрых и безопасных инноваций на основе искусственного интеллекта. Будущее кибербезопасности принадлежит организациям, которые перестанут пытаться запирать людей и начнут разрабатывать системы, которые помогут им принимать более правильные решения, когда это необходимо.
Мы представили лучшее программное обеспечение для шифрования.
Эта статья была подготовлена в рамках канала Expert Insights от TechRadarPro, где мы рассказываем о лучших и самых ярких умах современной технологической отрасли. Мнения, выраженные здесь, принадлежат автору и не обязательно принадлежат TechRadarPro или Future plc. Если вы заинтересованы в участии, узнайте больше здесь: https://www.techradar.com/news/submit-your-story-to-techradar-pro