A crescente popularização de ferramentas baseadas em inteligência artificial, como o ChatGPT, está sendo acompanhada de perto por órgãos de controle no Brasil. O Ministério Público Federal (MPF) emitiu uma recomendação formal à empresa norte-americana OpenAI, desenvolvedora do ChatGPT, com o objetivo de reforçar a proteção de dados pessoais no ambiente digital.
O foco do documento é o fenômeno conhecido como “alucinação” de modelos de linguagem, um comportamento em que a ferramenta gera informações falsas com aparência de veracidade. Segundo o MPF, é necessário que a OpenAI adote medidas explícitas para alertar os usuários sobre esse risco, especialmente quando estiverem em jogo dados pessoais.
Riscos à proteção de dados pessoais
O procurador da República Carlos Bruno Ferreira da Silva, responsável pela iniciativa, aponta que o comportamento impreciso do modelo de linguagem representa uma ameaça direta à proteção de dados pessoais, um direito garantido pela Constituição Federal e regulamentado pela Lei Geral de Proteção de Dados (LGPD).
A recomendação ressalta que, ao criar respostas que mencionam dados de indivíduos, mesmo que parcialmente corretos, o sistema pode violar os princípios da LGPD, como a qualidade da informação (art. 6º, V), a transparência (art. 6º, VI) e a segurança dos dados (art. 6º, VII). A ausência de mecanismos que filtrem ou sinalizem essas ocorrências prejudica o direito dos cidadãos à proteção de dados pessoais, criando um cenário propício para desinformações e exposições indevidas.
OpenAI e a necessidade de transparência
Embora a OpenAI declare que suas atividades se amparam no princípio do “legítimo interesse” uma das bases legais previstas pela LGPD, o MPF discorda que essa justificativa seja suficiente para respaldar a criação de conteúdos potencialmente imprecisos sobre indivíduos reais. A falta de avisos claros e específicos nas respostas do ChatGPT levanta dúvidas sobre o nível de comprometimento da empresa com a proteção de dados pessoais de usuários brasileiros.
O Ministério Público Federal sugere que a empresa implemente mensagens automáticas nas respostas que envolvam dados sensíveis, informando de forma destacada que as informações podem ter sido geradas pelo sistema e que não fazem parte de sua base factual. O alerta genérico atualmente exibido não atende aos critérios exigidos pela legislação nacional.
Inteligência artificial e responsabilidade digital
A recomendação do MPF insere-se num debate mais amplo sobre o uso ético da inteligência artificial. Ferramentas como o ChatGPT vêm sendo incorporadas em setores variados, desde o atendimento ao cliente até ambientes educacionais, aumentando a exposição de dados pessoais e o potencial de impactos negativos.
Nesse cenário, garantir a proteção de dados pessoais torna-se um desafio estratégico. O uso de modelos de linguagem como o do ChatGPT precisa estar alinhado às normas regulatórias, incluindo a LGPD, mas também deve levar em consideração a complexidade tecnológica envolvida na geração de textos por IA.
Consequências jurídicas e prazos
A OpenAI terá 15 dias para responder oficialmente ao Ministério Público Federal, informando quais medidas serão tomadas para atender à recomendação ou, alternativamente, apresentar justificativas legais para a não adoção das sugestões. O prazo começou a contar a partir da data de envio do documento, e a resposta da empresa será analisada por especialistas em direito digital e proteção da privacidade.
Caso a resposta da OpenAI seja considerada insuficiente, o MPF poderá adotar medidas judiciais ou administrativas adicionais, buscando assegurar que os princípios da LGPD sejam plenamente respeitados. Isso poderá incluir ações civis públicas ou notificações à Autoridade Nacional de Proteção de Dados (ANPD), que é o órgão federal responsável por fiscalizar a aplicação da legislação de privacidade no Brasil.
Um precedente para outras plataformas
A iniciativa do MPF pode servir de precedente para outras empresas que operam com inteligência artificial no país. O debate sobre informações falsas geradas por máquinas está longe de se encerrar, e o caso da OpenAI reforça a urgência de se discutir limites éticos e legais para a atuação de sistemas automatizados que manipulam linguagem natural.
Além de assegurar a proteção de dados pessoais, a proposta do MPF visa promover uma cultura de transparência no uso de tecnologias emergentes. A inclusão de alertas objetivos nas respostas da IA é vista como uma medida simples, mas essencial para mitigar os danos decorrentes de possíveis informações falsas, preservando a confiança dos usuários e a integridade das informações compartilhadas na internet.
Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Telecom!