Aplicações corporativas de IA generativa que usam MCP, sigla para Model Context Protocol, podem registrar mais incidentes de segurança nos próximos anos, segundo projeção divulgada pelo Gartner em 15 de abril de 2026. A consultoria estima que 25% dessas aplicações sofrerão pelo menos cinco incidentes menores por ano até 2028, em um cenário associado à expansão da IA agêntica e à integração crescente dessas tecnologias nas empresas. De acordo com informações do IT Forum, a previsão aponta alta em relação aos 9% registrados em 2025.
A avaliação do Gartner é que os incidentes devem se tornar mais frequentes à medida que as organizações desenvolvem e conectam aplicações de IA agêntica com tecnologias como o MCP. Segundo a consultoria, o protocolo foi concebido com foco em interoperabilidade, facilidade de uso e flexibilidade, o que pode ampliar riscos quando não há supervisão contínua e processos específicos de proteção.
O que o Gartner projeta para os incidentes de segurança?
O levantamento citado pelo IT Forum indica que, até 2028, um quarto das aplicações corporativas de IA generativa poderá enfrentar pelo menos cinco incidentes menores de segurança por ano. O percentual representa avanço em comparação com 2025, quando a estimativa era de 9%.
Para os chamados grandes incidentes, a projeção também é de aumento. De acordo com Aaron Lord, diretor analista sênior do Gartner, 15% de todas as aplicações corporativas de IA generativa devem sofrer pelo menos um grande incidente por ano até 2029, ante 3% em 2025.
“O MCP foi desenvolvido prioritariamente para interoperabilidade, facilidade de uso e flexibilidade, portanto erros de segurança podem ocorrer sem a supervisão contínua.”
Na avaliação do analista, a combinação entre expansão do uso corporativo e ausência de controles permanentes tende a acelerar o crescimento desses episódios. A consultoria relaciona esse movimento ao avanço da IA agêntica em ambientes empresariais.
Quais riscos são apontados nas aplicações com IA agêntica?
O Gartner afirma que os incidentes podem incluir desde exposição de dados até vulnerabilidades ocultas em componentes de terceiros. O diagnóstico sugere que o problema não está restrito ao modelo de IA em si, mas também às integrações, permissões e dependências técnicas envolvidas na operação.
Segundo a consultoria, reduzir esses riscos exige revisão rigorosa de segurança, escolha de projetos de menor risco, mitigação de padrões de ameaça já conhecidos e participação de especialistas do domínio na definição de proteções adequadas para manter a IA agêntica segura.
- revisão formal de segurança para casos de uso de MCP;
- priorização de padrões considerados de baixo risco;
- exclusão explícita de combinações avaliadas como de alto risco;
- adoção de autenticação e autorização adaptadas a agentes de IA.
Que medidas o Gartner recomenda para as empresas?
A orientação da consultoria é que líderes de engenharia de software atuem em conjunto com equipes de dados, segurança e infraestrutura para estabelecer uma revisão formal de segurança voltada aos usos de MCP. O objetivo, segundo o Gartner, é limitar permissões e reduzir a exposição criada por integrações mal definidas.
“Os líderes de engenharia de software devem colaborar com as equipes de dados, segurança e infraestrutura para criar uma revisão formal de segurança para os casos de uso de MCP, para priorizar padrões de baixo risco e excluir explicitamente combinações de alto risco.”
A recomendação inclui reforçar práticas de autenticação e autorização específicas para agentes de IA, sem simplesmente reproduzir modelos de permissão usados para usuários humanos. Para o Gartner, esse ajuste é necessário para manter o acesso estritamente delimitado.
“Eles devem reforçar isso com práticas robustas de autenticação e autorização adaptadas especificamente para agentes de IA, e não herdadas de funções de usuários humanos, a fim de manter as permissões estritamente delimitadas.”
Além disso, a consultoria recomenda que líderes de engenharia trabalhem com especialistas do domínio de forma retroativa, a fim de garantir que as interações da IA agêntica sejam seguras por padrão. A análise reforça que o avanço dessas aplicações no ambiente corporativo deve vir acompanhado de governança técnica e controles compatíveis com o risco das integrações.