Quase 30% dos danos ligados à IA envolvem saúde mental, aponta levantamento
Por Folhapress
Quase 30% dos danos decorrentes de uso de inteligência artificial afetam diretamente o bem-estar psicológico das pessoas.
É o que aponta levantamento da Data Privacy Brasil com base na recém-lançada Biblioteca de Danos em IA, um repositório público que reúne e sistematiza impactos negativos causados por sistemas de inteligência artificial.
Dos 71 casos públicos de impactos negativos documentados, 29,6% referem-se a danos psicológicos e sociais, tais como vigilância excessiva e exposição a conteúdos nocivos.
Um exemplo foi o caso do homem detido por engano em 2024 por policiais militares em Sergipe após falha em sistema de reconhecimento facial (que usa IA). João Antônio Trindade acompanhava a final do campeonato sergipano em um estádio quando foi algemado por agentes e levado para interrogatório em uma sala.
Também em Sergipe em 2023, a auxiliar administrativa Thaís Santos foi confundida com uma foragida da Justiça duas vezes durante uma micareta por falha do sistema de reconhecimento facial. Na segunda vez, tentaram algemá-la. Ela relatou ter ficado tão nervosa que urinou nas calças e voltou para casa chorando.
Casos de adolescentes que começam a "namorar" chatbots ou são induzidos a cometer suicídio em conversas com aplicativos de IA também se enquadram nessa categoria de danos.
"A biblioteca demonstra que os danos da IA já estão em curso e geram impactos concretos sobre direitos, trabalho, meio ambiente e democracia. Não se trata de riscos hipotéticos", diz Carla Rodrigues, coordenadora da área de Plataformas e Mercados Digitais da Data Privacy Brasil.
"O que chamamos de dano é também uma forma de dar nome a efeitos negativos que muitas pessoas já sentem no cotidiano, mas nem sempre conseguem identificar como relacionados a IA."
A ideia é que a iniciativa funcione como um banco de dados para ser consultado em discussões sobre regulação de IA, por exemplo.
O projeto de lei de IA, o PL 2.338, foi aprovado no Senado em dezembro de 2024 e está tramitando lentamente na Câmara.
"O repositório organiza e torna acessíveis casos concretos de danos para ampliar o debate público e contribuir para o aprimoramento da regulação", diz Rodrigues.
Dos casos documentados, 23,9% são danos aos direitos fundamentais, como violações diretas à privacidade, ao devido processo legal e discriminação. Um exemplo foi a decisão de um juiz em 2023 elaborada com a ajuda do ChatGPT citando jurisprudência falsa e atribuindo a precedentes do STJ (Superior Tribunal de Justiça).
Segundo relatou o portal G1, o juiz federal Jefferson Ferreira Rodrigues, hoje lotado no Acre, publicou uma sentença que continha trechos inteiros formulados pelo aplicativo da OpenAI. Na ocasião, segundo a reportagem, o juiz tratou o caso como um erro corriqueiro e atribuiu a pesquisa a um servidor de seu gabinete.
Segundo a Data Privacy, o caso demonstra como o uso de IA viola o direito ao devido processo, ao produzir uma sentença fundamentada de forma errada, sem transparência, nem possibilidade de contestação.
Já os danos socioambientais e econômicos respondem por 23,9% do total, e incluem o consumo energético excessivo e a precarização do trabalho.
Casos em que a instalação de data centers faz o uso de água e energia explodir em determinadas localidades se encaixam nesse tipo de impacto, bem como o uso de obras detentoras de direitos autorais sem a remuneração correspondente.
Os danos democráticos —ameaças à integridade do debate público por meio de conteúdos desinformativos automatizados— são 22,5%. Disseminação de imagens ou vídeos gerados por IA (deepfakes) que distorcem o debate público e podem causar impactos eleitorais estão dentro dessa categoria.
A biblioteca inclui um formulário para que qualquer pessoa envie casos para a atualização do repositório. A submissão é anônima, deve ser de fontes públicas e somente passa a compor a biblioteca após curadoria da equipe de pesquisa.
