Nesta semana, a Autoridade Nacional de Proteção de Dados brasileira proibiu a plataforma de mídia social X, antigo Twitter, de usar os dados pessoais de seus usuários crianças e adolescentes no Brasil para treinar sua inteligência artificial (IA).
O órgão regulador de dados também proibiu o X de compartilhar dados pessoais de crianças com terceiros para treinar IA generativa e ordenou que a empresa alterasse sua política de privacidade para refletir essas mudanças.
O X, de propriedade de Elon Musk, tem cinco dias úteis para cumprir as medidas preventivas que foi emitida em 16 de dezembro. Além disso, a empresa tem 10 dias úteis para fazer outras alterações em sua política de privacidade que impediriam a empresa de coletar e usar os dados de usuários brasileiros para qualquer finalidade não especificada.
Em julho, um usuário do X percebeu que a empresa, sem informar os usuários ou solicitar consentimento, havia automaticamente habilitado o uso de dados dos usuários para treinar o Grok, um chatbot de IA criado por outra empresa de propriedade de Elon Musk. Em setembro, depois que o Reino Unido e 10 autoridades europeias de proteção de dados apresentaram reclamações, o X suspendeu o uso dos dados de usuários da UE para treinar o Grok.
Um mês depois, o X atualizou sua política de privacidade para permitir que terceiros treinassem IA usando os dados de usuários do X.
No Brasil, de acordo com a Lei de Geral de Proteção de Dados (LGPD), dados pessoais de crianças e adolescentes só podem ser processados “em seu melhor interesse” e com o “consentimento específico e em destaque” de pelo menos um dos pais ou pelo responsável legal.
A decisão da Autoridade Nacional de Proteção de Dados brasileira é a mais recente de uma série de robustas medidas para proteger a privacidade de dados de crianças e adolescentes contra sistemas de IA. A Human Rights Watch denunciou em junho que fotos e dados pessoais de crianças e adolescentes brasileiros estavam sendo usados para desenvolver poderosa IA sem o conhecimento ou consentimento das crianças ou de seus responsáveis. Em julho, o órgão regulador emitiu uma medida preventiva proibindo o uso de dados de usuários pela Meta para treinar a IA da empresa, citando a necessidade de proteger a privacidade de crianças e adolescentes; posteriormente, manteve parte da medida para continuar proibindo a Meta de usar dados de usuários crianças e adolescentes para treinar sua IA.
Outros governos deveriam seguir o exemplo do Brasil. O uso de dados de crianças e adolescentes para alimentar sistemas de IA ameaça a privacidade das crianças, e o uso indevido dessas ferramentas de IA treinadas pode colocar as crianças e adolescentes em ainda mais risco.
Enquanto legisladores ao redor mundo lidam com a regulamentação da IA, deveriam se inspirar no Brasil e adotar medidas proativas para proteger a privacidade de dados, ajudando a moldar a IA como uma tecnologia que promova, e não viole, os direitos das crianças.