Setores como governo, manufatura e saúde estão entre os mais afetados, refletindo o acesso a sistemas e dados sensíveis. Para além de indivíduos maliciosos, a inteligência artificial surge como fator multiplicador destes riscos: agentes movidos por IA conseguem utilizar credenciais válidas, imitar vozes de confiança e agir com a rapidez das máquinas, dificultando a deteção. Phishing e engenharia social potenciados por IA (27%) lideram a lista de preocupações, seguidos pelo uso não autorizado de ferramentas de IA generativa (22%).
O estudo também evidencia dinâmicas regionais distintas: enquanto 69% dos profissionais na Ásia-Pacífico e Japão esperam crescimento das ameaças internas, na Europa essa perspetiva é partilhada por 46%. Já no Médio Oriente, 30% dos inquiridos acreditam que esses riscos vão diminuir, possivelmente devido a confiança excessiva nas defesas locais.
Apesar de 88% das organizações afirmarem ter programas de gestão de ameaças internas, apenas 44% utilizam análises comportamentais avançadas (UEBA), fundamentais para identificar atividades anómalas. A maioria continua dependente de soluções como IAM, DLP e EDR, que fornecem visibilidade mas não contexto suficiente para detetar abusos sofisticados.
O estudo mostra ainda uma lacuna entre a perceção de executivos e a realidade operacional: embora 97% das empresas usem IA, apenas 37% dos gestores e 40% dos analistas confirmam que estas ferramentas estão efetivamente em produção, indicando que muitos projetos permanecem em piloto. Esta discrepância revela maturidade insuficiente e falhas de governança na utilização da IA em cibersegurança.
Para a Exabeam, fechar esta lacuna implica alinhar prioridades da liderança com a realidade operacional e apostar numa abordagem contextual, capaz de distinguir ações humanas de padrões gerados por IA. O sucesso das organizações dependerá da capacidade de detetar mais cedo, responder mais rápido e reduzir o impacto das ameaças internas, num cenário em que a IA se tornou catalisador tanto de riscos como de soluções.