A INTELIGÊNCIA ARTIFICIAL PODE SER RESPONSABILIZADA PELO SUICÍDIO DE UM ADOLESCENTE?
Home » Digital  »  A INTELIGÊNCIA ARTIFICIAL PODE SER RESPONSABILIZADA PELO SUICÍDIO DE UM ADOLESCENTE?
A INTELIGÊNCIA ARTIFICIAL PODE SER RESPONSABILIZADA PELO SUICÍDIO DE UM ADOLESCENTE?

Com o crescimento do uso da inteligência artificial (IA) em interações cotidianas, surgem dúvidas complexas — entre elas, se a IA pode ser responsabilizada juridicamente por um suicídio. A resposta, sob a ótica atual do Direito, é não.

A IA, por mais avançada que seja, não possui personalidade jurídica, ou seja, não pode ser responsabilizada civil ou penalmente. Ainda não há, no Brasil ou em outros países, reconhecimento legal da IA como sujeito de direito com obrigações e deveres.

No entanto, isso não afasta a possibilidade de responsabilização de pessoas físicas ou jurídicas envolvidas na criação, operação ou disponibilização do sistema, especialmente em casos de negligência, imprudência ou omissão.

Responsáveis possíveis incluem:

  • Desenvolvedores, se falharam em prever riscos evidentes, como a influência sobre condutas autodestrutivas;
  • Empresas operadoras, sobretudo quando disponibilizam a IA a menores de idade sem filtros ou proteção adequada — com base na responsabilidade objetiva prevista no Código de Defesa do Consumidor (art. 14);
  • Pais ou instituições, em casos muito específicos, pela omissão no dever de vigilância.

E se a IA incentivou diretamente o suicídio?

Caso fique comprovado que o sistema emitiu mensagens que incentivaram ou reforçaram a ideia de suicídio, pode-se discutir a aplicação do art. 122 do Código Penal (induzimento, instigação ou auxílio ao suicídio). Contudo, a responsabilização recairá sempre sobre o agente humano, e nunca sobre a máquina.

Para configurar responsabilidade jurídica, é necessário:

  • Existência de nexo de causalidade entre a ação ou omissão humana e o resultado;
  • Previsibilidade do dano causado pela IA;
  • Ausência de mecanismos preventivos, como bloqueios ou alertas;
  • Falta de resposta adequada, inclusive suporte psicológico.

Casos práticos e jurisprudência

Casos já chegaram ao Judiciário envolvendo redes sociais como TikTok, Instagram e Facebook, em razão de conteúdos que incentivam automutilação ou suicídio entre jovens. A omissão na moderação de conteúdo e o funcionamento de algoritmos que expõem usuários vulneráveis a materiais prejudiciais são os principais pontos debatidos.

A urgência de regulação

Esse cenário reforça a necessidade de um Marco Legal para a IA no Brasil. O PL 2338/2023, atualmente em debate, propõe diretrizes para o desenvolvimento e uso seguro da IA visando à prevenção de riscos e à proteção de direitos fundamentais.

Conclusão

A IA, por si só, não pode ser responsabilizada legalmente. Mas quem a desenvolve, opera ou se beneficia de seu uso pode responder civil ou penalmente, caso contribua para tragédias como o suicídio de um adolescente. O avanço tecnológico deve caminhar com responsabilidade, especialmente quando vidas humanas — e particularmente de jovens — estão em jogo.

(Direito Sempre)

Acompanhe o blog para melhores informações!

Sem comentários