Inteligência Artificial e responsabilidade legal: 9 curiosidades!

Inteligência Artificial e responsabilidade legal são dois temas que caminham juntos em um terreno ainda pouco explorado pela legislação mundial. À medida que algoritmos tomam decisões que afetam vidas humanas – desde aprovar um financiamento até diagnosticar doenças – surge a pergunta crucial: quem é o responsável quando a IA erra?

Neste artigo, você conhecerá nove fatos surpreendentes sobre esse campo emergente do direito. A seguir, apresentamos curiosidades que mostram como a Inteligência Artificial e responsabilidade legal estão desafiando juízes, legisladores e empresas ao redor do globo.

Confira 9 curiosidades sobre a Inteligência Artificial e responsabilidade legal

1. A UE lidera com a Lei de IA (AI Act)

A primeira curiosidade sobre Inteligência Artificial e responsabilidade legal é que a União Europeia aprovou em 2024 o AI Act, o marco regulatório mais abrangente do mundo. A lei classifica IAs por nível de risco (inaceitável, alto, limitado e mínimo) e proíbe práticas como pontuação social por IA e manipulação subliminar.

Para a Inteligência Artificial e responsabilidade legal, isso significa que empresas que violarem as regras podem pagar multas de até 35 milhões de euros ou 7% do faturamento global. O Brasil ainda não tem lei similar, mas projetos como o PL 2338/2023 tramitam no Congresso inspirados no modelo europeu.

Em cenários mais complexos envolvendo o uso de inteligência artificial, como decisões automatizadas que impactam diretamente a vida de pessoas, os desdobramentos podem ultrapassar o campo tecnológico e entrar na esfera legal. Nesses casos, compreender responsabilidades e possíveis implicações jurídicas pode exigir a atuação de um advogado criminalista no Rio de Janeiro, especialmente quando há danos concretos ou violação de direitos.

2. Carros autônomos: motorista ou fabricante?

Um dos casos mais complexos de Inteligência Artificial e responsabilidade legal envolve veículos autônomos. Se um carro sem motorista atropelar um pedestre, quem paga? O proprietário (que não dirigia), a fabricante (que programou o algoritmo) ou o desenvolvedor do software de visão computacional?

Atualmente, a Inteligência Artificial e responsabilidade legal nos EUA varia por estado, mas a tendência é responsabilizar solidariamente fabricante e programador, já que o “motorista” não teve controle. Na Alemanha, já existe lei obrigando carros autônomos a terem um “operador técnico” humano remoto que pode assumir em emergências.

3. IAs médicas e o dilema do diagnóstico errado

Sistemas de IA que diagnosticam câncer por imagens de ressonância já superam médicos humanos em acurácia, mas erram em cerca de 5% dos casos. A Inteligência Artificial e responsabilidade legal na saúde pergunta: o médico que confiou no diagnóstico da IA é negligente se não conferiu manualmente?

Há precedentes nos EUA onde hospitais foram condenados por usar IAs sem validação suficiente. Para a Inteligência Artificial e responsabilidade legal, a solução emergente é que a IA seja tratada como uma “ferramenta auxiliar”, e o profissional humano mantém a responsabilidade final, mas isso pode mudar com IAs totalmente autônomas.

4. Chatbots e difamação: a Microsoft já foi processada

Em 2023, um jornalista processou a Microsoft alegando que seu chatbot (Bing Chat) o difamou ao afirmar falsamente que ele havia cometido um crime. Esse caso inédito de Inteligência Artificial e responsabilidade legal questiona se a empresa é responsável por declarações geradas por seu algoritmo.

A Microsoft argumentou que o chatbot é um sistema probabilístico, não um agente com intenção. A Inteligência Artificial e responsabilidade legal ainda não tem resposta definitiva, mas especialistas sugerem que plataformas podem ser responsabilizadas como editoras de conteúdo gerado por IA, similar ao que ocorre com comentários de usuários em redes sociais.

5. Deepfakes e direito à imagem violado

Deepfakes (vídeos falsos hiper-realistas) já foram usados para colocar rostos de celebridades em cenas pornográficas sem consentimento. A Inteligência Artificial e responsabilidade legal nesse campo é nebulosa: quem criou o deepfake, quem compartilhou ou a plataforma que hospedou?

Na China, deepfakes sem aviso explícito são ilegais desde 2023. No Ocidente, a Inteligência Artificial e responsabilidade legal tem tratado o caso sob leis de direito à imagem e assédio, mas vítimas enfrentam dificuldade para identificar os criadores, já que muitos usam serviços anônimos. Projetos de lei nos EUA exigem marca d’água em conteúdos gerados por IA.

6. Algoritmos de crédito e discriminação racial

Estudos mostram que algoritmos de pontuação de crédito nos EUA negavam empréstimos para minorias raciais com taxas 30% maiores que para brancos com mesmo perfil financeiro. A Inteligência Artificial e responsabilidade legal enfrenta o desafio de provar discriminação quando o algoritmo não usa explicitamente raça como variável.

Bancos argumentam que apenas usam dados “neutros” como CEP e histórico de compras. Mas a Inteligência Artificial e responsabilidade legal avançou com o conceito de “discriminação por proxy”, onde variáveis aparentemente neutras correlacionam-se com raça ou gênero. O banco americano Apple Card foi investigado em 2019 por dar limites de crédito menores para mulheres.

7. Quem detém os direitos autorais de arte gerada por IA?

Quando uma IA como Midjourney ou DALL-E cria uma imagem a partir de um prompt humano (“um gato astronauta no estilo Van Gogh”), quem é o autor? A Inteligência Artificial e responsabilidade legal em direitos autorais já decidiu em vários países que obras geradas apenas por IA não têm copyright, pois falta “autoria humana”.

O escritório de direitos autorais dos EUA negou registro a uma graphic novel inteiramente desenhada por IA. Para a Inteligência Artificial e responsabilidade legal, se um humano modificar substancialmente a saída da IA, pode reivindicar direitos sobre a versão final. Isso abre brechas para disputas sobre o que conta como “modificação substancial”.

8. Responsabilidade penal por atos de IA é impossível (por enquanto)

Diferente de empresas, uma IA não pode ser presa. A Inteligência Artificial e responsabilidade legal no âmbito penal esbarra no princípio de que apenas seres humanos (e pessoas jurídicas limitadamente) respondem criminalmente. Se uma IA autônoma causar dano grave, ninguém vai para a cadeia a menos que se prove dolo ou culpa humana.

Isso criou o debate sobre “personalidade eletrônica” – dar a IAs avançadas um status similar ao de empresas, com patrimônio próprio para pagar indenizações. A Inteligência Artificial e responsabilidade legal ainda rejeita essa ideia, mas alguns especialistas preveem que em 10 a 20 anos IAs com certo nível de autonomia poderão ser “sujeitos de direito limitados”.

9. Brasil já tem decisões judiciais sobre IA

O Judiciário brasileiro já enfrenta casos de Inteligência Artificial e responsabilidade legal. Em 2022, uma decisão inédita do Tribunal de Justiça de São Paulo condenou uma empresa por uso indevido de chatbot que induziu cliente a erro em contrato. A justificativa foi violação do dever de informação.

Outro caso emblemático de Inteligência Artificial e responsabilidade legal no Brasil envolve uma ação contra o banco Bradesco, onde um algoritmo negou financiamento habitacional por critérios considerados arbitrários. 

Rolar para cima