O dilema dos agentes de IA nos centros de operações de segurança
A cibersegurança vive um paradoxo fascinante. Enquanto a inteligência artificial promete revolucionar a defesa contra ameaças, a proliferação de agentes de IA em SOCs está criando um novo e perigoso ponto cego nos Centros de Operações de Segurança (SOCs). As principais empresas do setor, como CrowdStrike, Cisco e Palo Alto Networks, lançaram ferramentas avançadas na RSA Conference 2026, mas um desafio fundamental persiste: a dificuldade de distinguir a atividade de uma máquina da ação humana nos registros de segurança dos agentes de IA em SOCs.
Essa lacuna é alarmante, especialmente quando os tempos de resposta a ataques diminuem drasticamente. Em 2024, o tempo médio para um adversário se espalhar era de 48 minutos; hoje, em 2026, caiu para meros 29 minutos, com o recorde mais rápido em apenas 27 segundos. Com mais de 1.800 aplicações de IA detectadas em endpoints corporativos, gerando milhões de instâncias únicas de eventos, a capacidade de discernir a origem de uma ação é mais crítica do que nunca para a eficácia dos SOCs que dependem de agentes de IA.
A complexidade crescente e o desafio da identificação
Etay Maor, vice-presidente de Inteligência de Ameaças da Cato Networks, resumiu a situação de forma contundente na RSA Conference 2026: “A ameaça número um é a complexidade da segurança. Mas estamos caminhando nessa direção também com a IA”. A adoção fragmentada de múltiplas soluções de IA está, ironicamente, contribuindo para uma nova onda de complexidade, sobrecarregando equipes de segurança que já lidam com um volume massivo de alertas e dados nos SOCs.
O problema central reside na forma como os sistemas de registro de segurança (logs) interpretam a atividade. Na maioria das configurações padrão, uma ação iniciada por um agente de IA parece idêntica a uma ação iniciada por um ser humano. Elia Zaitsev, CTO da CrowdStrike, explicou que é indistinguível se um agente de IA executa um navegador web ou se um usuário humano o faz. Essa falta de diferenciação impede que os SOCs apliquem modelos comportamentais corretos para os agentes de IA, tornando a triagem de incidentes ineficaz e abrindo brechas para explorações.
Agentes de IA e a indistinguibilidade nos registros de segurança
A visibilidade de endpoint é crucial para resolver esse problema. Sem a capacidade de rastrear a “árvore de processos” – ou seja, a sequência de eventos que levou a uma ação – é quase impossível determinar se uma chamada de API sancionada com credenciais válidas foi executada por um humano ou por um agente de IA comprometido. Um agente malicioso, agindo com credenciais legítimas, pode passar completamente despercebido, disparando zero alertas e permitindo que uma ameaça se espalhe rapidamente. Esse cenário é particularmente perigoso para a segurança dos agentes de IA em SOCs.
A superfície de exploração já está sendo testada. George Kurtz, CEO da CrowdStrike, mencionou o ClawHavoc, um ataque significativo à cadeia de suprimentos de um ecossistema de agentes de IA, o ClawHub. Auditorias revelaram centenas de “habilidades” maliciosas, contendo backdoors, shells reversos e coletores de credenciais. Algumas dessas ameaças eram capazes de apagar sua própria memória após a instalação, permanecendo latentes antes de ativar. Isso sublinha a urgência de uma nova abordagem para a segurança e monitoramento dos agentes de IA em SOCs.
As abordagens das gigantes da cibersegurança e suas lacunas
CrowdStrike, Cisco e Palo Alto Networks apresentaram suas soluções, divididas em duas arquiteturas principais. A primeira, “Agentes de IA dentro do SIEM”, exemplificada pela Cisco e Splunk, integra agentes especializados para triagem, detecção e resposta. A segunda, “Detecção na pipeline upstream”, adotada pela CrowdStrike, empurra a análise para a própria pipeline de ingestão de dados, enriquecendo eventos antes que cheguem à fila do analista.
No entanto, a análise da VentureBeat na RSA Conference 2026 revelou um ponto cego comum a ambas: a ausência de uma linha de base comportamental normal para os agentes de IA em SOCs. Nenhuma das soluções anunciadas define o que constitui um comportamento “normal” para um agente em um ambiente empresarial específico. Isso significa que, embora automatizem a triagem e acelerem a detecção, ainda falham em diferenciar fundamentalmente as ações de agentes de IA em SOCs das de humanos, dificultando a identificação de anomalias genuínas e a proteção eficaz dos sistemas.
A necessidade de uma linha de base comportamental para agentes
A falta de uma linha de base comportamental para os agentes de IA em SOCs é uma falha crítica. Sem saber o que é normal, qualquer atividade fora do padrão pode ser um falso positivo ou, pior, um ataque real disfarçado. As equipes de segurança precisam urgentemente de ferramentas que possam baseline o comportamento esperado de cada agente: quais APIs eles estão autorizados a usar, quais dados podem acessar, quais ações podem realizar e em que horários. Somente assim será possível criar regras de detecção eficazes para qualquer coisa que fuja desse escopo definido.
A CrowdStrike, com seu Falcon sensor e AIDR (AI Detection and Response), tenta abordar isso através da linhagem da árvore de processos, mas a capacidade de fazer essa distinção de forma nativa e “out-of-the-box” ainda não está presente em todas as soluções. A complexidade da segurança aumenta exponencialmente quando se trata de gerenciar a identidade e as permissões de agentes de IA, que muitas vezes operam com privilégios elevados para executar suas funções, tornando-os alvos atraentes para adversários nos SOCs.
Cinco passos essenciais para líderes de segurança
Diante desse cenário, os líderes de segurança precisam agir proativamente. O primeiro passo é o inventário completo de todos os agentes de IA em seus endpoints. Não é possível definir políticas para agentes que se desconhece a existência. Ferramentas como o Duo Identity Intelligence da Cisco e o IDP de agentes da Palo Alto Networks podem ajudar a catalogar e mapear esses agentes aos seus proprietários humanos.
Em segundo lugar, determine se sua pilha de SOC pode diferenciar a atividade de agentes da atividade humana. Se suas ferramentas não conseguem fazer essa distinção, suas regras de triagem estão aplicando modelos comportamentais incorretos. Terceiro, alinhe a abordagem arquitetônica ao seu SIEM atual, avaliando se ele pode ingerir telemetria específica de agentes. Quarto, construa uma linha de base comportamental para seus agentes antes da próxima reunião de diretoria, definindo o que eles estão autorizados a fazer e criando regras para desvios. Finalmente, teste a cadeia de suprimentos de seus agentes, utilizando varreduras pré-implantação e detecção em tempo de execução para capturar agentes comprometidos.
O futuro da defesa: proteger máquinas usando máquinas
O cenário da cibersegurança mudou drasticamente. O SOC, que foi construído para proteger humanos usando máquinas, agora precisa proteger máquinas usando máquinas. Com um tempo de resposta a ameaças reduzido para meros 27 segundos, qualquer agente gerando um alerta se torna um suspeito em potencial, não apenas um sensor. As decisões tomadas pelos líderes de segurança nos próximos 90 dias serão cruciais para determinar se seus SOCs conseguirão operar eficazmente nessa nova realidade ou serão sobrecarregados por ela.
A integração de agentes de IA nos SOCs é inevitável, mas a forma como essa integração é gerenciada determinará a resiliência das defesas. A necessidade de visibilidade granular, baselines comportamentais e uma compreensão aprofundada da interação entre humanos e agentes é mais urgente do que nunca. A segurança não pode se dar ao luxo de repetir os erros do passado, onde a complexidade se tornou a maior vulnerabilidade. É hora de agir com inteligência e estratégia para dominar a nova fronteira da cibersegurança.