A Human Rights Watch identificou fotos pessoais de crianças brasileiras em uso para treinar ferramentas de inteligência artificial. Muitas das imagens estão sendo aplicadas sem o consentimento ou conhecimento das famílias.

Retiradas da internet e adicionadas a grandes bancos de dados (como o LAION-5B), essas fotos violam a privacidade e expõem os menores a risco de exploração e outros danos, conforme alerta a organização internacional. 

A análise da Human Rights Watch identificou que o LAION-5B – que é utilizado para treinar ferramentas populares de IA – contém links de fotos identificáveis para crianças do Brasil. Alguns dos nomes das crianças estão listados na legenda associada à foto ou na URL que armazena a imagem. Em muitos casos, as identidades são facilmente rastreáveis, incluindo informações de quando e onde a criança estava quando a foto foi tirada. 

A organização internacional encontrou 170 fotos de crianças de ao menos 10 estados: Alagoas, Bahia, Ceará, Mato Grosso do Sul, MInas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo. 

👉🏽Provavelmente, esse número é inferior ao verdadeiro em relação à quantidade total de dados pessoais de crianças existente no LAION-5B, uma vez que a Human Rights Watch revisou menos do que 0,0001% das 5,85 bilhões de imagens e legendas contidas no banco de dados. 

Para Hye Jung Han, pesquisador e ativista na Human Rights Watch, “a IA generativa ainda é uma tecnologia nascente, e os danos associados que as crianças estão experimentando não são inevitáveis. Proteger a privacidade dos dados das crianças agora ajudará a moldar o desenvolvimento dessa tecnologia de forma a promover, e não violar, os direitos infantis”. 

Posionamento do LAION-5B

A LAION se comprometeu a remover fotos de crianças encontradas em seu banco de dados, embora tenha contestado a capacidade dos modelos de IA em reproduzir dados pessoais.

Para a Human Rights Watch, é urgente a adoção de políticas que proíbam a coleta não consensual de dados de crianças em sistemas de IA e garantam mecanismos de justiça para aqueles que sofrerem danos.

Além disso, a organização destaca que o Congresso Brasileiro também deve garantir que as regulamentações propostas para IA incorporem proteções de privacidade de dados para todos, especialmente para crianças.

Com informações de: Human Rights Watch 

Imagem: Annie Spratt na Unsplash

Deixe um comentário