O uso crescente de inteligência artificial (IA) no setor de seguros tem gerado uma série de questionamentos sobre a responsabilidade, a transparência e a legalidade das decisões automatizadas. A utilização de algoritmos para avaliação de risco, definição de preços e até mesmo para a análise de sinistros tem se tornado uma prática comum entre as seguradoras. No entanto, a centralização das decisões em sistemas de IA levanta um problema crucial: até que ponto as decisões tomadas por essas máquinas podem ser revisadas judicialmente?
No direito brasileiro, o Código de Defesa do Consumidor (CDC) impõe que as relações de consumo sejam baseadas em boa-fé, transparência e equidade. Quando se trata de seguros, isso significa que as seguradoras têm o dever de fornecer informações claras sobre os critérios usados para a precificação das apólices e a análise de pedidos de indenização. Com a introdução de sistemas baseados em IA, essa transparência tem sido desafiada, pois muitos dos algoritmos utilizados são considerados “caixas-pretas” – ou seja, não é possível acessar ou compreender completamente os critérios que levaram a uma determinada decisão.
A falta de transparência nos processos decisórios gerados por IA pode resultar em práticas discriminatórias ou em decisões errôneas, que impactam diretamente os consumidores. No entanto, a revisão judicial dessas decisões automatizadas é um tema controverso. Em primeiro lugar, surge a questão de até que ponto o Judiciário pode ou deve se envolver em decisões que foram tomadas por algoritmos, especialmente considerando que esses sistemas são projetados para seguir padrões e critérios específicos de análise, muitas vezes baseados em grandes volumes de dados.
Marcos Soares, do Portal do Magistrado, destaca que a revisão judicial deve ocorrer, mas de forma criteriosa: “O que deve ser garantido ao consumidor é o direito de compreender as razões de uma decisão automatizada, de contestá-la e de buscar reparação caso haja algum erro ou abuso. O Judiciário precisa atuar para assegurar que a inteligência artificial não se torne uma ferramenta de injustiça disfarçada”, afirma Soares.
O Supremo Tribunal Federal, em decisões anteriores, já reconheceu a importância da proteção ao consumidor em face de práticas comerciais que envolvem tecnologias inovadoras. Nesse contexto, a revisão de decisões automatizadas pode ser compreendida como um direito fundamental do consumidor, especialmente quando se verifica que o uso de IA pode resultar em discriminação ou falhas que não seriam observadas em um processo tradicional.
A revisão judicial de decisões de IA também enfrenta o desafio de entender como os algoritmos funcionam. A complexidade desses sistemas exige que os juízes compreendam não apenas a legislação aplicada, mas também as especificidades tecnológicas envolvidas. A falta de conhecimento técnico pode ser uma barreira significativa, mas algumas jurisprudências já vêm criando mecanismos para garantir que decisões automatizadas não fiquem à margem da supervisão judicial, especialmente quando envolvem direitos de consumidores.
O papel da regulação também se destaca nesse contexto. No Brasil, a Superintendência de Seguros Privados (Susep) tem trabalhado para estabelecer normas que orientem o uso de IA no setor de seguros, buscando um equilíbrio entre inovação tecnológica e proteção ao consumidor. As seguradoras, por sua vez, têm a responsabilidade de garantir que seus sistemas de IA sejam transparentes, auditáveis e, principalmente, justos, garantindo a possibilidade de contestação por parte dos consumidores.
Portanto, enquanto a possibilidade de revisão judicial das decisões de IA no setor de seguros é um campo em construção, é evidente que a revisão será necessária para assegurar que os direitos dos consumidores sejam respeitados, sem que a automação se sobreponha à equidade e à justiça nas relações contratuais.