Skip to main content

Brasil proíbe X de usar dados de crianças e adolescentes para alimentar sua IA

Todos os governos deveriam proteger a privacidade das crianças e adolescentes regulando a inteligência artificial

O logotipo do X, a plataforma de mídia social anteriormente conhecida como Twitter, exibido em um smartphone em São Paulo, Brasil, em 31 de agosto de 2024. © 2024 Tuane Fernandes/Bloomberg via Getty Images

Nesta semana, a Autoridade Nacional de Proteção de Dados brasileira proibiu a plataforma de mídia social X, antigo Twitter, de usar os dados pessoais de seus usuários crianças e adolescentes no Brasil para treinar sua inteligência artificial (IA).

O órgão regulador de dados também proibiu o X de compartilhar dados pessoais de crianças com terceiros para treinar IA generativa e ordenou que a empresa alterasse sua política de privacidade para refletir essas mudanças.

O X, de propriedade de Elon Musk, tem cinco dias úteis para cumprir as medidas preventivas que foi emitida em 16 de dezembro. Além disso, a empresa tem 10 dias úteis para fazer outras alterações em sua política de privacidade que impediriam a empresa de coletar e usar os dados de usuários brasileiros para qualquer finalidade não especificada.

Em julho, um usuário do X percebeu que a empresa, sem informar os usuários ou solicitar consentimento, havia  automaticamente habilitado o uso de dados dos usuários para treinar o Grok, um chatbot de IA criado por outra empresa de propriedade de Elon Musk. Em setembro, depois que o Reino Unido e 10 autoridades europeias de proteção de dados apresentaram reclamações, o X suspendeu o uso dos dados de usuários da UE para treinar o Grok.

Um mês depois, o X atualizou sua política de privacidade para permitir que terceiros treinassem IA usando os dados de usuários do X.

No Brasil, de acordo com a Lei de Geral de Proteção de Dados (LGPD), dados pessoais de crianças e adolescentes só podem ser processados “em seu melhor interesse” e com o “consentimento específico e em destaque” de pelo menos um dos pais ou pelo responsável legal.

A decisão da Autoridade Nacional de Proteção de Dados brasileira é a mais recente de uma série de robustas medidas para proteger a privacidade de dados de crianças e adolescentes contra sistemas de IA. A Human Rights Watch denunciou em junho que fotos e dados pessoais de crianças e adolescentes brasileiros estavam sendo usados para desenvolver poderosa IA sem o conhecimento ou consentimento das crianças ou de seus responsáveis. Em julho, o órgão regulador emitiu uma medida preventiva proibindo o uso de dados de usuários pela Meta para treinar a IA da empresa, citando a necessidade de proteger a privacidade de crianças e adolescentes; posteriormente, manteve parte da medida para continuar proibindo a Meta de usar dados de usuários crianças e adolescentes para treinar sua IA.

Outros governos deveriam seguir o exemplo do Brasil. O uso de dados de crianças e adolescentes para alimentar sistemas de IA ameaça a privacidade das crianças, e o uso indevido dessas ferramentas de IA treinadas pode colocar as crianças e adolescentes em ainda mais risco

Enquanto legisladores ao redor mundo lidam com a regulamentação da IA, deveriam se inspirar no Brasil e adotar medidas proativas para proteger a privacidade de dados, ajudando a moldar a IA como uma tecnologia que promova, e não viole, os direitos das crianças.

GIVING TUESDAY MATCH EXTENDED:

Did you miss Giving Tuesday? Our special 3X match has been EXTENDED through Friday at midnight. Your gift will now go three times further to help HRW investigate violations, expose what's happening on the ground and push for change.
Região/País