A pesquisa mais recente da Grant Thornton revela que a maioria das empresas tem dificuldade em passar por uma auditoria de governança de IA em um prazo de 90 dias.
Uma AI proof gap” (lacuna de comprovação de IA, em tradução livre) crescente está surgindo entre o entusiasmo das diretorias pela inteligência artificial e a governança necessária para provar que ela é segura, eficaz e que gera valor, de acordo com uma nova pesquisa da Grant Thornton.
“As empresas estão fazendo investimentos tremendos em IA e, no entanto, não vemos isso correlacionado a um aumento na responsabilidade sobre a IA”, disse Tom Puthiyamadam, sócio-gerente de Serviços de Consultoria da Grant Thornton Advisors LLC. “Nosso relatório descobriu que, embora a maioria das organizações tenha implementado soluções de IA, muitas equipes não conseguem medir seu impacto ou responder de forma eficaz quando as iniciativas falham. Essa é uma lacuna crítica: em nossa visão, as empresas que vencerão amanhã serão aquelas que aproveitarem a IA de forma eficaz e se adaptarem em tempo real às tendências de negócios em constante evolução.”
O AI Impact Survey, baseado em respostas de quase 1.000 líderes seniores de negócios dos EUA em vários setores no início de 2026, descobriu que mais de três quartos (78%) carecem de total confiança de que sua organização poderia passar por uma auditoria independente de governança de IA em 90 dias. Metade (50%) dos líderes de operações disseram que precisam de uma estratégia formal de IA ou um plano de governança em vigor nos próximos seis meses para melhorar o desempenho.
“A implementação da IA está simplesmente superando a infraestrutura que a suporta”, disse Puthiyamadam. “Vemos esse padrão repetidamente com novas tecnologias: as proteções vêm após a ocorrência de um incidente — e não antes — e, até lá, pode haver consequências organizacionais e operacionais significativas.”
Governança, não tecnologia, como a restrição
A pesquisa sugere que o principal entrave ao desempenho da IA é a governança, e não as ferramentas subjacentes. Quase metade dos líderes (46%) disse que a IA apresenta desempenho abaixo do esperado porque os controles e a conformidade não estão funcionando, embora apenas 11% tenham dito que as organizações deveriam se concentrar principalmente em risco e conformidade para viabilizar o sucesso da IA.
O relatório argumentou que escalar a IA antes de provar que ela é segura ou eficaz é menos uma inovação do que um risco não gerenciado, particularmente à medida que os reguladores aumentam sua fiscalização. No setor de seguros dos EUA, por exemplo, a Associação Nacional de Comissários de Seguros (NAIC) adotou orientações que detalham as expectativas para programas de sistemas de IA, enquanto na Europa, o AI Act da UE e pareceres de supervisão separados estão empurrando as seguradoras para uma governança de IA mais estruturada.
Investimento sem propriedade ou estratégia
As descobertas da Grant Thornton também apontaram para uma fragilidade na propriedade e na estratégia em nível de diretoria.
Embora três em cada quatro diretorias tenham aprovado grandes investimentos em IA, apenas 52% estabeleceram expectativas claras de governança de IA, e apenas 54% integraram os riscos e oportunidades de IA na supervisão contínua da diretoria ou de comitês.
“A maioria dos modelos de governança não foi projetada para a IA”, disse Puthiyamadam. “Órgãos de revisão centralizados ficam sobrecarregados, criando gargalos que retardam a execução sem reduzir o risco. A solução é definir políticas e critérios de risco centralmente e, em seguida, delegar as avaliações a revisores treinados no nível da divisão ou regional, alinhando a profundidade da revisão ao nível de risco.”
A estratégia é outro ponto de falha. Mais de metade dos executivos (51%) afirmou que a estratégia é o maior impulsionador do retorno sobre o investimento em IA, mas apenas 22% dos líderes de operações relataram ter uma estratégia de IA totalmente desenvolvida e implementada.
“As organizações estão expandindo a IA em mais pilotos, casos de uso e funções, mas sem medição consistente, ciclos de feedback ou clareza sobre onde o valor é criado”, disse Sumeet Mahajan, sócio-líder de IA e Dados para Serviços de Consultoria na Grant Thornton Advisors LLC. “É preciso aplicar disciplina: estabelecer metas de medição, construir infraestrutura de governança e interromper iniciativas que não entregam resultados.”
Escalonando a autonomia sem salvaguardas
À medida que as organizações concedem mais autonomia aos sistemas de IA, muitas o fazem sem salvaguardas testadas. Quase três em cada quatro organizações estão pilotando, escalonando ou executando IA autônoma, mas apenas uma em cada cinco testou um plano de resposta para falhas de IA, revelou a pesquisa.
Embora a maioria das organizações (95%) não permita que agentes tomem decisões de alto risco totalmente autônomas sem revisão humana, a exposição em níveis de risco moderado permanece significativa. Mais de quatro em cada dez (43%) listam a incerteza regulatória e de conformidade entre suas principais preocupações sobre a implementação de IA “agêntica”.
O relatório argumentou que o risco real, à medida que a IA ganha autonomia, não é a falha em si, mas estar despreparado quando ela falha. Muitas empresas possuem manuais de incidentes, mas não os adaptaram para problemas específicos de IA, como desvio de modelo (model drift), alucinações ou resultados tendenciosos, tornando as falhas mais difíceis de detectar, explicar e remediar.
Governança forte vinculada a resultados mais fortes
A pesquisa apontou para uma divisão clara entre as organizações que experimentam a IA e aquelas que capturam valor mensurável.
Empresas com IA totalmente integrada têm quase quatro vezes mais chances de relatar crescimento de receita impulsionado por IA do que aquelas que ainda estão em fase de piloto (58% contra 15%) e são muito mais propensas a dizer que poderiam passar por uma auditoria independente de governança de IA.
“As organizações que estão avançando na IA são aquelas que possuem governança estabelecida”, concluiu Puthiyamadam. “Elas treinam seu pessoal, medem resultados e focam em escalar o que funciona. A governança não está atrasando os líderes de IA, ela está correlacionada a resultados de IA mais fortes e sustentáveis.”


