No início do mês, o bilionário Mark Zuckerberg anunciou no “Meta Conversations” que a plataforma de inteligência artificial da empresa será disponibilizada no Brasil com suporte ao idioma português já a partir do mês de julho. A ferramenta IA chegará ao país dentro dos próximos dias e será integrada às redes sociais controladas pela empresa: WhatsApp, Instagram e Facebook.
O Meta AI funciona de forma bastante semelhante com o ChatGPT, da OpenAI, e Gemini, do Google. Ele possibilitará consultas sobre diferentes assuntos via prompts de texto e até geração de imagens em diversos estilos com IA.
Porém, uma das principais preocupações envolvendo as ferramentas de IA no WhatsApp e outras plataformas está relacionada à possibilidade de a tecnologia gerar dados falsos ou imprecisos. Assim, poderia ter impactos negativos no mundo real.
Quando se trata de ferramentas de geração de imagens e vídeos, por exemplo, a preocupação é ainda maior. A rápida evolução dos modelos vem gerando resultados cada vez mais próximos da realidade. Porém, também levantam muitas preocupações no que diz respeito à desinformação, que é um dos grande problemas de nosso tempo.
Informação x desinformação
Conforme explica o CEO da Open Cybersecurity, Lucas Galvão, a Meta, como uma das principais empresas do segmento de tecnologia do planeta e uma das companhias que estão na dianteira no uso de IA, precisa implementar métodos eficientes de combate à desinformação para promover um ambiente de confiabilidade para seus usuários.
“Atualmente, já dispomos de métodos eficazes para enfrentar a desinformação. […] Se a Meta implementar essas ações, poderá melhorar significativamente a eficiência de sua inteligência artificial no combate à desinformação, criando um ambiente mais seguro e confiável para seus usuários”, declarou Galvão.
A grande polêmica em torno do Meta AI, no entanto, tem a ver com o tratamento das informações pessoais dos em suas plataformas. A empresa está utilizando dados de seus usuários para treinar modelos de inteligência artificial. A prática da companhia tem levantado preocupações ao redor do mundo, mas a empresa não sinaliza que vai mudar seu método de treinamento de IA.
Recentemente, a Meta fomentou ainda mais debates em torno de seu método de operações após alterar suas diretrizes e termos de uso. Isso após ela explicitar que está usando publicações e dados de usuários para treinar modelos de IA. Segundo um comunicado, a empresa está utilizando apenas informações públicas para treinamento, o que não inclui dados como mensagens diretas, por exemplo.
Por conta da Lei Geral de Proteção de Dados, os usuários brasileiros podem recusar ter seus dados utilizados para treinamento de sistemas de IA. No entanto, o que gera preocupação é a negligência da big tech em comunicar a possibilidade aos usuários.
“A Autoridade Nacional de Proteção de Dados (ANPD) expressa preocupação com a falta de transparência na divulgação desse direito aos usuários. A divulgação clara e acessível desta opção pela Meta é crucial para garantir que os usuários possam exercer seus direitos de privacidade de maneira eficaz e bem informada, conforme destacado pela ANPD”, afirma Lucas Galvão.
Na prática, a maioria dos usuários não demonstra preocupação com a forma como seus dados estão sendo usados pela empresa. Isso mesmo com a preocupação de entidades especializadas em assuntos relacionados à proteção de dados.
Risco à privacidade dos usuários
Na Europa, por exemplo, algumas entidades estão demonstrando fortes preocupações com as novas diretrizes implementadas pela Meta no último dia 26. Segundo elas, a atualização nas políticas possui algumas brechas que possibilitam o uso indevido dos dados dos usuários.
“Na União Europeia, um grupo de campanha de privacidade com sede em Viena apresentou queixas em 11 países contra a empresa de Mark Zuckerberg. Alegam que as mudanças planejadas na política de privacidade da gigante global da tecnologia poderiam permitir o uso ilegal de dados pessoais para tecnologias de inteligência artificial”.
Assim, mesmo com os benefícios da implementação da nova plataforma da Meta, é preciso cautela com a forma como a empresa tem lidado com os dados. Isso evitará que abusos sejam cometidos no futuro.