A transformação digital acelerada e a consolidação de sistemas baseados em inteligência artificial (IA) têm ampliado significativamente os debates em torno da atribuição de deveres legais. A aplicação dessas tecnologias em setores críticos como o jurídico, financeiro, de recursos humanos e da saúde impõe novos desafios aos marcos tradicionais, sobretudo no que diz respeito à atribuição por decisões automatizadas. A responsabilidade civil, enquanto pilar do Direito privado, encontra-se em processo de reinterpretação diante da complexidade dos sistemas algorítmicos.
Embora o Código Civil brasileiro contemple hipóteses de responsabilidade objetiva, sua aplicação a sistemas autônomos carece de uniformidade doutrinária e jurisprudencial, e a distribuição clara de deveres legais passa pela atribuição precisa de obrigações a pessoas físicas ou jurídicas envolvidas na cadeia de desenvolvimento e operação de sistemas automatizados. Dessa forma, torna-se essencial implementar mecanismos técnicos de rastreabilidade, documentação e supervisão das decisões algorítmicas.
No entanto, já existem correntes jurídicas que defendem a imputação de deveres legais a desenvolvedores, fornecedores e operadores de IA com base na teoria do risco, especialmente em situações em que há benefício econômico direto. Essa abordagem busca alinhar a inovação tecnológica aos princípios de responsabilidade e dever de reparação, reconhecendo que a utilização de sistemas automatizados não pode ocorrer sem a devida assunção dos riscos, e assim, a construção de um ecossistema normativo robusto é primordial.
O Projeto de Lei nº 2.338/2023, que propõe o Marco Legal da Inteligência Artificial no Brasil, segue essa lógica ao classificar os sistemas conforme o grau de risco envolvido (excessivo, alto ou moderado) e prever obrigações proporcionais de governança, transparência e avaliação de impacto. O texto também estabelece sanções administrativas que podem chegar a R$ 50 milhões, valor comparável ao previsto na LGPD, sinalizando o peso regulatório atribuído às decisões automatizadas.
Um dos pontos mais críticos do projeto de lei, contudo, é a ausência de exigências robustas de explicabilidade técnica. A falta de mecanismos claros de auditabilidade favorece a manutenção de modelos conhecidos como “caixas-pretas algorítmicas”, em que nem mesmo os operadores compreendem plenamente os critérios que levaram a determinada decisão.
Isso fragiliza o direito à explicação, à contestação e, em última instância, à reparação. Ainda que haja esforços em direção à chamada explainable AI, explicações pós-hoc geradas por sistemas muitas vezes são simplificações que não refletem a real lógica decisória. Isso compromete a análise do nexo causal entre erro e dano e impõe barreiras à imputação de consequências legais eficazes.
Esse debate ganha ainda mais relevância diante do crescimento acelerado do setor. De acordo com a Precedence Research, o mercado global de inteligência artificial foi estimado em US$ 638,23 bilhões em 2025 e deve atingir cerca de US$ 3.680,47 bilhões até 2034, com uma taxa composta de crescimento anual (CAGR) de 19,20% entre 2025 e 2034. Esse ritmo de expansão mostra a crescente da IA em diversas cadeias produtivas, modelos de negócios e serviços públicos, o que amplia proporcionalmente os riscos associados à tomada de decisões automatizadas.
Quanto maior a escala e a autonomia dos sistemas, maior a urgência de se estabelecer uma arquitetura legal capaz de acompanhar a velocidade da inovação e garantir a segurança jurídica, tanto para os usuários quanto para os responsáveis por essas tecnologias.
No cenário internacional, países como Alemanha, Estados Unidos e Reino Unido já discutem estruturas regulatórias com foco em gestão de risco e prestação de contas proativa. A União Europeia, com o AI Act, adotou um modelo baseado em risco que exige testes de robustez, registro de logs, explicabilidade e medidas para mitigar sistemas de alto impacto.
Ao seguir essa direção, o Brasil não apenas fortalece sua inserção em um cenário global de harmonização regulatória, como também assume o compromisso de proteger a dignidade humana diante da automatização de decisões com consequências jurídicas, econômicas e sociais relevantes.
Portanto, a construção de um arcabouço legal e ético para a era da IA requer a superação de modelos punitivos tradicionais, substituindo-os por estratégias de gestão de risco mais compatíveis com as tecnologias emergentes. A responsabilização deve ser compreendida como parte de um processo contínuo de governança, com foco em prevenção, transparência e proteção de direitos fundamentais.
Somente com a implementação consistente de práticas de due diligence algorítmica e uma cultura institucional de accountability será possível garantir que os benefícios da inteligência artificial não venham acompanhados de riscos jurídicos descontrolados.