A inteligência artificial (IA) está transformando a forma como nos relacionamos com a tecnologia, mas também levanta questões urgentes sobre privacidade e segurança de dados. No Brasil, com o aumento do uso de ferramentas como o ChatGPT, cresce o debate sobre a coleta, o armazenamento e o uso dessas informações. Este texto aborda os principais riscos ligados aos chatbots generativos, as normas existentes e os desafios para garantir a privacidade dos usuários.
Como o ChatGPT e outras IAs coletam e usam dados no Brasil
Modelos de IA generativa, como o ChatGPT, necessitam de grandes volumes de dados para serem treinados e funcionarem. No Brasil, essas informações são obtidas a partir de fontes públicas (textos online, livros, artigos) e também por meio das interações dos usuários. Quando alguém faz perguntas ou fornece dados pessoais a um chatbot, essas informações podem ser registradas para aprimorar o modelo, mesmo que de forma anonimizada.
Um dos maiores desafios é a chamada “memorização não intencional”, em que a IA pode reter dados exclusivos, como números de telefone ou endereços, mesmo sem necessidade para seu funcionamento. Isso representa risco de vazamento, especialmente se tais dados forem reproduzidos em respostas a outros usuários. Sem políticas de uso claras, empresas podem expor informações corporativas sensíveis ao usar o ChatGPT para fins profissionais.
Riscos de vazamento e regulamentações no Brasil
O Brasil está entre os países que mais utilizam o ChatGPT, o que demonstra sua popularidade, mas também aumenta as preocupações com a segurança das informações compartilhadas. A confiança excessiva nessas ferramentas transforma-as em “caixas-pretas”, nas quais dados sensíveis podem ser revelados sem que os usuários percebam os riscos.
Um incidente marcante ocorreu em 2023, quando uma falha no ChatGPT permitiu que usuários acessassem conversas privadas de terceiros, expondo fragilidades mesmo em sistemas de grandes corporações. Casos como esse podem levar à divulgação de dados corporativos sigilosos. Um exemplo foi o de um funcionário de uma multinacional sul-coreana que, ao usar o chatbot para revisões técnicas, acabou vazando código-fonte confidencial.
Além disso, há desafios específicos no cenário brasileiro, como o uso de versões não oficiais de ferramentas de IA, que podem conter códigos maliciosos (malware) ou facilitar ataques de phishing, golpes em que criminosos se passam por fontes confiáveis para roubar informações confidenciais, como senhas e dados bancários. Essas práticas comprometem tanto informações pessoais quanto credenciais corporativas.
Empresas especializadas em cibersegurança relatam que criminosos exploram vulnerabilidades para invadir contas, acessar históricos de conversas e até vender dados na dark web (parte oculta da internet não indexada por mecanismos de busca). A “memorização não intencional” agrava a situação, pois dados exclusivos podem ser armazenados sem necessidade e se tornar alvo de vazamentos.
Regulamentação brasileira sobre Inteligência Artificial e proteção de dados
Para enfrentar esses riscos, a regulamentação brasileira avança inspirada no modelo europeu (GDPR). A LGPD (Lei Geral de Proteção de Dados) estabelece diretrizes para o tratamento de dados pessoais, como a exigência de consentimento explícito, a comunicação de vazamentos à Autoridade Nacional de Proteção de Dados (ANPD) e a garantia de segurança nos processos de coleta e armazenamento.
Entretanto, a LGPD sozinha não resolve todos os problemas trazidos pela IA generativa. O Projeto de Lei 2.338/2023, em tramitação no Congresso, propõe um marco regulatório mais detalhado para o desenvolvimento e uso ético da IA no Brasil. Entre as medidas previstas estão a criação de um Encarregado de Inteligência Artificial (ligado ao Data Protection Officer — DPO) para monitorar o uso ético desses sistemas e a classificação das aplicações por níveis de risco, semelhante ao modelo da União Europeia, com exigências mais rigorosas para sistemas de alto impacto, como transparência algorítmica e direito à explicação para usuários afetados por decisões automatizadas.
Essas iniciativas demonstram o esforço para equilibrar inovação e proteção, mas sua eficácia dependerá da aplicação prática e da conscientização de empresas e usuários. À medida que as regulamentações evoluem, especialistas recomendam cautela ao compartilhar dados sensíveis com IA e indicam o uso de soluções corporativas que ofereçam criptografia e armazenamento local para minimizar riscos.
O desafio, portanto, não é apenas legislativo, mas também cultural, exigindo uma mudança na forma como a sociedade se relaciona com tecnologias que, embora promissoras, apresentam vulnerabilidades significativas no cotidiano.
Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!