Governo proíbe Meta de usar dados de usuários para treinar IA

O especialista Sérgio Amadeu diz que decisão coloca em evidência a utilização não autorizada de dados de brasileiros para treinamento de Inteligência Artificial

Foto: Divulgação

A Agência Nacional de Proteção de Dados (ANPD) emitiu hoje (2) uma Medida Preventiva determinando a suspensão imediata da nova política de privacidade da Meta no Brasil. A medida, que autoriza a utilização de dados pessoais publicados em plataformas como Facebook, Messenger e Instagram para o treinamento de sistemas de inteligência artificial (IA), gerou uma multa diária de R$ 50 mil em caso de descumprimento.

Essa nova política de privacidade, que entrou em vigor em 26 de junho, permite que a Meta utilize informações publicamente disponíveis e conteúdos compartilhados por seus usuários para aprimorar seus sistemas de IA generativa. No Brasil, onde o Facebook possui aproximadamente 102 milhões de usuários ativos, a decisão da ANPD pode ter um impacto significativo.

Extração de Dados sem Consentimento

“A Agência Nacional de Produção de Dados cumpriu o seu papel”, afirmou o sociólogo Sérgio Amadeu da Silveira, professor da Universidade Federal do ABC (UFABC), enfatizando a necessidade de restringir essas práticas. Em entrevista ao Portal Vermelho, ele comentou sobre a importância dessa decisão, destacando que ela coloca em evidência, pela primeira vez, a extração não autorizada de dados da população brasileira para o treinamento de modelos de aprendizado de máquina.

“A decisão é importante porque, pela primeira vez, coloca em evidência que os dados da população brasileira estão sendo extraídos e estão servindo para treinar modelos de inteligência artificial, especificamente de aprendizado de máquina, que não foram autorizados por ninguém”, afirmou.

Ele alerta para os riscos envolvidos no tratamento e cruzamento de dados, muitas vezes sem o conhecimento dos usuários. A metáfora da radiação usada pelo criptógrafo Pedro Rezende é elucidativa: dados dispersos representam pouco risco, mas concentrados em grande volume podem ser extremamente perigosos. As Big Techs concentram dados de forma massiva, o que lhes dá um poder significativo sobre o comportamento dos usuários.

A ANPD, ao determinar a suspensão da nova política de privacidade da Meta, destacou que a empresa não forneceu informações adequadas para que os usuários compreendessem as implicações do uso de seus dados para treinamento de IA. Além disso, a agência identificou que a Meta utilizou uma justificativa legal inadequada para o tratamento de dados pessoais, o que inclui dados de crianças e adolescentes sem as devidas salvaguardas.

Sérgio criticou a prática de grandes corporações, como Meta e Alphabet, que coletam dados permanentemente de seus usuários para treinar IA e criar produtos e serviços que são depois vendidos ou utilizados para capturar mais a atenção das pessoas, influenciar na distribuição de propaganda e de conteúdos. Ele elogiou a ANPD por cumprir seu papel, mas ressaltou a necessidade de estender essa fiscalização para outras empresas.

“Agora, se o grupo Meta reclama que não é o único que faz coisas que as pessoas não sabem com os dados, que não consentiram, e vão continuar fazendo porque os outros também fazem, na verdade, o que a Agência Nacional de Proteção dos Dados tem que fazer é restringir essa prática dos outros também, óbvio”, disse ele.

Comparação com regulamentações internacionais

A falta de transparência no tratamento de dados é um problema global, segundo o sociólogo. Diferente dos R$ 50 mil cobrados no Brasil, na Europa, multas milionárias são impostas por violações semelhantes, e vários países não permitem que dados sensíveis sejam transferidos para fora de suas fronteiras. No Brasil, a LGPD ainda precisa ser complementada por uma lei de regulação das plataformas que defina claramente quais dados podem ser usados para treinar modelos de IA.

Para resolver esses problemas de maneira mais abrangente, Sérgio sugere a aprovação de uma lei específica de regulação das plataformas. Essa legislação deve definir claramente quais dados podem ser usados para treinar modelos de inteligência artificial e quais não podem. Atualmente, a Lei Geral de Proteção de Dados (LGPD) não cobre adequadamente a questão dos treinamentos de IA. As empresas costumam usar termos genéricos, como “melhorar a experiência do usuário”, sem detalhar o que isso realmente significa.

“A agência dá o primeiro pequeno passo, mas num caminho correto. E pra resolver esse problema, precisa aprovar uma lei de regulação das plataformas, que deixe claro que tipo de dado a nossa sociedade considera que pode ser manipulado para treinar modelos de inteligência artificial e que dados que a gente acha que não pode”, ressaltou o especialista. Ele ainda sugere que o próximo passo deve ser a imposição de restrições mais rigorosas sobre a transferência de dados sensíveis para fora do país.

Argumentação falaciosa

O sociólogo também critica a postura da Meta, que argumenta que a suspensão prejudicaria a inovação no Brasil. “É uma afirmação falaciosa”, diz Sérgio, enfatizando que o verdadeiro prejudicado é quem não pode treinar seus modelos com os dados da população brasileira.

Ele destaca ainda a importância de controlar o uso de dados, especialmente sensíveis e de crianças, que não deveriam ser coletados sem consentimento explícito. Ele menciona o conceito de “capitalismo de vigilância” cunhado por Shoshana Zuboff, onde cada clique e comportamento dos usuários é transformado em dados valiosos para essas corporações. “Isso é muito perigoso”, alerta.

O controle massivo de dados pelas Big Techs também levanta questões de segurança nacional. O sociólogo alerta que essas empresas têm uma compreensão profunda dos humores e comportamentos da população brasileira, o que lhes confere um poder de influência potencialmente perigoso. “Nenhum Estado tem a capacidade de saber o humor da população como essas empresas,” afirma, destacando o risco de manipulação política e social.

A ANPD instaurou um processo de fiscalização de ofício e, após uma análise preliminar, determinou a suspensão da política de privacidade e da operação de tratamento devido aos riscos de dano grave e de difícil reparação aos usuários. As principais constatações foram o uso inadequado de hipóteses legais para o tratamento de dados pessoais, a falta de divulgação de informações claras e precisas sobre a política de privacidade, limitações excessivas ao exercício dos direitos dos titulares e o tratamento inadequado de dados pessoais de crianças e adolescentes.

Em resposta, a Meta declarou estar desapontada com a decisão da ANPD e argumentou que sua abordagem está em conformidade com as leis de privacidade do Brasil. A empresa afirmou que continuará a trabalhar com a ANPD para esclarecer dúvidas, mas advertiu que a decisão representa um retrocesso para a inovação e competitividade no desenvolvimento de IA no país.

Sérgio concluiu sua análise enfatizando a necessidade de controlar os dados pessoais, especialmente os de adolescentes e crianças, e criticou o argumento das grandes empresas de que a coleta de dados é benéfica para os usuários. “Eles se colocam na postura de que fazem um grande favor pra gente e, na verdade, são empresas que ultrapassam o faturamento de trilhões de dólares. Eles oferecem interfaces gratuitas para que as pessoas fiquem o máximo de tempo utilizando esses serviços em troca de dados”, disse.

A decisão da ANPD marca um passo significativo na proteção dos dados pessoais no Brasil, destacando a importância da transparência e da regulamentação no uso de informações para o treinamento de sistemas de inteligência artificial. É necessário definir claramente os limites do uso de dados, proteger dados sensíveis e garantir a transparência das práticas das grandes empresas de tecnologia. Apenas com uma regulamentação rigorosa e bem definida, o Brasil poderá proteger de forma eficaz os dados de seus cidadãos e evitar os perigos associados à manipulação e modulação de comportamentos através das plataformas digitais.

Autor