À medida que a pressão regulatória se intensifica, as seguradoras exploram arquiteturas que combinam modelos probabilísticos com lógica determinística para viabilizar decisões rastreáveis e defensáveis.
Existe um trade-off no centro da IA empresarial que a indústria aceitou silenciosamente como inevitável. Quanto mais capaz o modelo, menos explicável é o resultado. Quanto melhor ele lida com a ambiguidade, maior a probabilidade de produzir uma resposta confiante, coerente — e completamente errada.
Na maioria dos setores, uma resposta errada da IA é apenas uma má experiência do usuário. No seguro, uma determinação incorreta de cobertura, uma decisão de sinistro ou uma tarifa que não pode ser defendida traz consequências regulatórias, jurídicas e profundamente humanas.
Uma reguladora de sinistros olha para uma recomendação de perda total gerada por IA. Ela concorda com o valor, mas o sistema lhe entregou uma conclusão, não um caso. Nenhuma cadeia de raciocínio. Nenhuma citação de regra. Nenhuma trilha de auditoria. O segurado já está na linha, querendo saber o porquê. O regulador quer a mesma resposta na segunda-feira de manhã. No momento, ela não tem nenhuma das duas. Isso não é uma lacuna tecnológica. É uma lacuna de arquitetura.
Por que o seguro não pode esperar
Os reguladores transformaram essa lacuna de arquitetura em um prazo. O EU AI Act classifica a IA de subscrição e sinistros de seguros como sistemas de alto risco. Rastreabilidade, explicabilidade e supervisão humana são obrigatórias para toda decisão automatizada nesses fluxos de trabalho até 2 de agosto de 2026. As penalidades podem chegar a milhões em receita global. O “NAIC Model Bulletin: Use of Artificial Intelligence Systems by Insurers (2023)” reforça os mesmos princípios para as seguradoras americanas: governança, responsabilidade, transparência e integridade do sistema. A EIOPA espera o mesmo em toda a Europa.
Um modelo de caixa-preta com uma cadeia de raciocínio de aparência plausível não sobrevive nesse ambiente. O Gartner Hype Cycle de IA de 2025 aponta a IA neuro-simbólica como a arquitetura projetada exatamente para esse problema, automatizando a tomada de decisões com menor risco de consequências não intencionais.
O que a maioria dos fornecedores que citam o Gartner omite é a parte honesta. A IA neuro-simbólica ainda precisa resolver o desafio mais difícil: construir uma camada de conhecimento estruturado a partir dos documentos não estruturados que organizações reais possuem em escala empresarial. É aqui que as seguradoras têm uma vantagem, com minutas de apólices, endossos e registros estaduais que contêm décadas de linguagem de cobertura, lógica atuarial e informações regulatórias.
Sua IA precisa raciocinar com base nesse conhecimento, não apenas realizar uma busca por Retrieval-Augmented Generation (RAG). O conhecimento codificado se acumula a cada cláusula esclarecida e regra ratificada, enquanto sistemas baseados apenas em recuperação se deterioram à medida que os documentos se desatualizam e a busca por similaridade silenciosamente retorna textos obsoletos.
O que neuro-simbólico realmente significa
O julgamento humano se baseia em experiências subjetivas que nem mesmo o próprio tomador de decisão consegue introspectar completamente — uma manifestação do problema difícil da consciência. Uma IA não senciente carece disso, razão pela qual modelos de raciocínio puro não podem ser a autoridade final em uma decisão regulada.
Em vez disso, a arquitetura neuro-simbólica separa responsabilidades. A rede neural lê. O componente simbólico decide. Os rastros provam.
A rede neural lê o mundo. Modelos de linguagem ingerem entradas não estruturadas: notas de reguladores, prontuários médicos, orçamentos de reparos, fotos, correspondências. Eles extraem entidades, resumem evidências, identificam contradições e redigem comunicações. É isso que os modelos neurais fazem bem, segundo o artigo do NIST Artificial Intelligence.
O componente simbólico decide sobre o mundo. Grafos de conhecimento semântico codificam relações validadas e estruturadas entre conceitos de apólices e sinistros — não apenas correspondências por similaridade vetorial. A lógica determinística lida com o que o seguro realmente exige: cláusulas de apólice, sobreposições jurisdicionais, limites de cobertura, exclusões, limites de aprovação, fluxos de trabalho de exceção.
Um agente não recupera uma minuta e adivinha a partir do texto. Ele raciocina com base no conhecimento estruturado que suas equipes construíram ao longo de décadas. As decisões que têm peso legal e regulatório são tomadas com base em regras explícitas, não em uma distribuição de probabilidade. Esse conhecimento se torna um ativo reutilizável em toda a empresa: sinistros, subscrição, distribuição e atendimento. Você o codifica uma vez. Ele fica disponível em todos os fluxos de trabalho.
Sua propriedade intelectual é a sua camada de inteligência. Esse é o fosso que a maioria das seguradoras ainda não ativou.
Os rastros provam o mundo. Cada decisão produz um registro reproduzível: quais evidências foram usadas, qual versão da cláusula foi aplicada, qual regra foi acionada, qual exceção foi invocada, quem aprovou o quê e qual precedente a decisão seguiu. Esse é o sistema de registro que uma equipe de conformidade ou um regulador pode interrogar no primeiro dia. Uma justificativa fluente não é a mesma coisa que um rastro de decisão em conformidade. Cada rastro também se torna precedente. Com o tempo, o catálogo se acumula em um ativo institucional: um registro defensável de como sua seguradora decide, e a base sobre a qual a automação futura pode se expandir com segurança.
O trade-off honesto
Isso não é gratuito. A abordagem neuro-simbólica exige um investimento arquitetural complexo, dados estruturados de alta qualidade e diligência operacional para manter o grafo de conhecimento atualizado. Negligencie qualquer um desses elementos e a mesma arquitetura que o torna defensável silenciosamente se enche de cláusulas desatualizadas, exceções não resolvidas e deriva. A defensabilidade é conquistada pela manutenção, não pela implantação.
Três perguntas que todo CTO faz
Quando converso com executivos de setores regulados, as mesmas três perguntas surgem sempre.
Como adotamos IA em escala sem criar nova exposição regulatória? Cada saída passa por uma camada de garantia antes de chegar a uma pessoa ou a um sistema downstream. Verificações de fundamentação, detecção de viés e registro de auditoria regulatória são incorporados a cada execução — não adicionados depois. Quando um regulador pergunta por que um sinistro foi liquidado da forma como foi, o rastro já está arquivado.
Como evitamos o aprisionamento tecnológico? Você constrói com padrões abertos e uma arquitetura agnóstica de plataforma. Quando a tecnologia melhorar — e vai melhorar — ou um modelo melhor surgir — e vai surgir —, você o adota sem um projeto de migração. Você pode trazer seus próprios modelos e agentes. A alternativa que a maioria das seguradoras vê apresentada hoje é a dependência total de um único modelo de fronteira — Claude Opus, GPT da OpenAI ou quem quer que lidere no próximo trimestre —, onde seu roadmap fica refém da precificação, do cronograma de descontinuação e das decisões de treinamento de outra empresa. O cenário de IA em 2028 não terá nada a ver com 2026, e sua arquitetura não deveria estar vinculada a nenhum fornecedor para a camada de inteligência — incluindo a nossa.
Como fazemos com que nossos dados sejam nosso fosso, e não o conjunto de treinamento de outra pessoa? Cada tenant possui seu grafo de conhecimento. Suas minutas de apólices, modelos atuariais e precedentes de sinistros permanecem seus. Eles não são compartilhados com concorrentes e não são usados para treinar o modelo de ninguém. Os dados que tornam suas decisões defensáveis são os mesmos que tornam você competitivo. Ambos ficam sob seu controle.
Governabilidade acima de inteligência
A IA neuro-simbólica não é sobre ser mais inteligente. É sobre ser governável.
Em setores regulados, a automação não é impressionante até que seja defensável. O processamento direto é conquistado pelo precedente, não comprado com parâmetros.
Suas decisões se tornam explicáveis. Seus dados permanecem seus. A arquitetura subjacente pode evoluir conforme a IA evolui.
É isso que os setores regulados realmente precisam da IA. Não apenas inteligência. Uma fundação.
Escrito por Rajesh Raheja, Chief Technology Officer da Duck Creek Technologies
Gostou desse conteúdo? Então este evento é para você.
O Insurtech Brasil 2026 é o maior encontro da comunidade de inovação e tecnologia em seguros e acontece no dia 28 de maio, em São Paulo. Use o cupom INSURGLOBAL10 e garanta sua inscrição com desconto clicando aqui!


