Coleta excessiva de informações pessoais por IAs é risco subestimado, diz especialista
Por mais que a inteligência artificial seja usada há muitos anos em campos da tecnologia como a automação e feeds de redes sociais, o tema ganhou força com a popularização do ChatGPT nos últimos meses.
A IA nos coloca diante de diversas questões de segurança e privacidade. Especialmente ao considerar o desenvolvimento dessas ferramentas, que depende de uma grande quantidade de dados para treinamento.
Ao utilizá-las, os usuários também inserem informações próprias. Esses dados são aplicados tanto no desenvolvimento de resultados ou tomada de decisões quanto no aprimoramento dos sistemas.
“Desenvolver e usar IA traz desafios de privacidade, já que muitas vezes requer vastas quantidades de dados”, disse Julio Cesar Fort, sócio e diretor de serviços profissionais da Blaze Information Security. Ao Giz Brasil, o especialista destacou alguns riscos, como a coleta excessiva de informações e a reidentificação de pessoas a partir de dados anônimos.
A perpetuação de vieses também entra na relação. Trata-se de resultados que, muitas vezes, podem impulsionar padrões que não são necessariamente justos. Em casos mais extremos, esses sistemas também podem reproduzir comportamentos preconceituosos e até mesmo nocivos, como aconteceu com um chatbot da Microsoft em 2016.
Por outro lado, Fort também joga luz sobre os riscos de ataques que podem interferir no funcionamento desses sistemas e até mesmo resultar na exposição indesejada de informações sigilosas.
Empresas que apostam em IAs precisam investir em segurança
Diante desse cenário, as empresas precisam dedicar ainda mais empenho para preservar a privacidade e a segurança dos seus sistemas, colaboradores, parceiros e clientes. Especialmente ao considerar que, em 2022, a quantidade de ciberataques cresceu 38% no mundo todo, de acordo com a Check Point Research.
“Hoje em dia, com tudo conectado e dependendo do uso de tecnologias e internet, investir em cibersegurança é imprescindível, não se trata de apenas uma medida de precaução, mas uma necessidade crítica para enfrentar os desafios da era digital”, destaca Julio Cesar Fort.
Neste sentido, o especialista da Blaze Information Security dá orientações, como o princípio de coletar apenas dados essenciais para garantir o treinamento e o funcionamento dos sistemas. “Auditorias regulares e capacitação da equipe são cruciais, nesse cenário, para garantir que a privacidade e a proteção de dados sejam respeitadas”, explicou.
A transparência é outra necessidade. Especialmente ao considerar que as plataformas de inteligência artificial, no geral, atuam como uma “caixa preta”, dificultando o entendimento do uso de dados. Dessa maneira, a lisura ajuda tanto a identificar e corrigir falhas quanto dá mais confiança aos usuários finais dos sistemas.
Outros esforços devem ser aplicados, como o uso da defesa em duas camadas, para garantir a segurança dos dados. Técnicas, como o retreinamento adversarial e o monitoramento em tempo real para detectar comportamentos anômalos, também devem ser aplicados para proteger os sistemas contra potenciais ataques.
“Manter os sistemas atualizados com os patches de segurança mais recentes e garantir controles de acesso rigorosos são outras medidas-chave. Além disso, a resposta a incidentes representa um dos pilares da segurança e demanda sistemas robustos”, afirmou.
Por fim, diz que “preocupações com viés e discriminação e riscos à privacidade da companhia também merecem atenção.”