O avanço do uso de agentes de IA - Inteligência Artificial nas empresas amplia a superfície de ataque cibernético, especialmente quando essas soluções incorporam características de interação semelhantes às humanas. Estudo do F5 Labs indica que agentes de IA com “persona” — traços como empatia e extroversão — podem ser alvo de ataques de engenharia social conduzidos por agentes maliciosos.

Segundo o levantamento, 62% de 1933 líderes de TI e segurança entrevistados em 2025 já realizam testes com agentes de IA em seus processos, tendência que deve se intensificar nos próximos anos. “Em 2026, veremos cada vez mais os agentes de IA se consolidarem como o cérebro e os braços da IA. Essa autonomia torna a proteção deste ativo algo crítico para os negócios”, afirma Roberto Ricossa (na foto, à esquerda), vice-presidente da F5 América Latina.

A adoção de “personas” nesses agentes busca melhorar a interação com usuários e apoiar aplicações como atendimento ao cliente e vendas. No entanto, esse mesmo atributo pode ser explorado por atacantes. “Uma evolução dos agentes de IA — o fato de contarem com traços de personalidade que simulam a voz e as reações humanas — é, agora, alvo de ataques de engenharia social realizados também por agentes de IA”, diz Ricossa.

De acordo com a F5, os ataques utilizam técnicas de neurolinguística e psicologia para manipular o comportamento do agente, levando-o a agir fora de seus parâmetros. Entre os métodos identificados está o chamado “sequestro de objetivos do agente”, que altera sua missão por meio de injeção de prompts ou manipulação de contexto.

Para Hilmar Becker (na foto, à direita), diretor regional da F5 Brasil, o cenário representa uma mudança relevante no perfil de risco. “Isso amplia a superfície de ataque de uma forma nunca vista antes: as vulnerabilidades emocionais de um ativo digital são exploradas para que o agente de IA aja contra seu criador”, afirma.

Segundo o executivo, os ataques ocorrem de forma sequencial e estruturada. “Trata-se de uma sequência de ataques usando engenharia social que visa a rendição do agente de IA ao criminoso. É um bullying implacável, realizado a partir de um script personalizado para o alvo”, diz Becker.

Para mitigar esses riscos, a empresa aponta o uso de soluções baseadas em análise semântica e contextual, capazes de avaliar cada interação do agente. “Protege-se interações entre um ser humano e o agente de IA, entre dois agentes de IA, e entre o agente e outras plataformas”, explica Rafael Sampaio, evangelista de IA da F5 Brasil.

O estudo indica que, com a evolução desses sistemas, a segurança deve considerar não apenas aspectos técnicos, mas também o comportamento e a lógica de decisão dos agentes, especialmente em ambientes onde atuam de forma autônoma.



Mais Notícias RTI



Ministério das Comunicações defende estratégias para tornar Brasil principal hub de infraestrutura digital da América Latina

Entre as sugestões, inclusão de retrofit de data centers como uma das modalidades do Redata.

23/03/2026


Sales Club Telecom é lançado com foco em transformar o desempenho comercial das empresas do setor

Iniciativa foca em vendas, pós-vendas e previsibilidade em mercado mais competitivo.

23/03/2026


Eficiência energética como estratégia para data centers

O novo diferencial competitivo dos data centers.

23/03/2026