Com a entrada em vigor no dia 01.08.2024 do AI Act na Europa, a corrida global pela regulamentação da IA ganha força, impactando diretamente as empresas brasileiras com relações internacionais. Mesmo antes de uma legislação específica no Brasil, as empresas devem começar a adotar políticas de governança de IA para se manterem competitivas e em conformidade com as novas exigências globais.
Esse cenário afeta empresas brasileiras que têm relações com o mercado europeu — seja como parte de um grupo econômico, parceiro comercial ou fornecedor —, independentemente da existência de uma legislação nacional específica. Vimos isso acontecer antes com a Lei Geral de Proteção de Dados (LGPD), em resposta ao RGPD, regulamento europeu de privacidade de 2016, que entrou em vigor não por coincidência no ano da publicação da nossa lei. Nesse sentido, muitas empresas brasileiras tiveram que se adaptar às diretrizes de governança de dados pessoais mesmo antes da entrada em vigor da LGPD, que fez 6 anos este mês e está em pleno vapor.
Regulamentação da IA: O Impacto nas Empresas e Como se Preparar
Na corrida global da regulamentação da IA a China largou na frente. Assim como no Canadá e na Índia, o cenário legislativo brasileiro sobre o tema já se encontra bastante avançado. Com a publicação do relatório e do texto substitutivo que servirão de base para a primeira lei brasileira sobre o “desenvolvimento, fomento, uso ético e responsável da inteligência artificial“, empresas de todos os setores — seja desenvolvendo, utilizando ou planejando empregar essa tecnologia, muitas vezes até sem saber — devem estar atentas.
Apesar de o texto substitutivo ainda estar sujeito a novas discussões em audiências públicas e precisar da aprovação e votação no Congresso antes de seguir para a sanção presidencial, a regulamentação da IA é inevitável. Embora, de um lado, possa parecer que a legislação brasileira de IA ainda não está plenamente madura ou devidamente alinhada com a regra europeia, do outro lado, é um fato que o desenvolvimento e a utilização de ferramentas de IA representam riscos.
Os casos em que a IA está sendo usada de maneira antiética podem ser facilmente listados: violação de privacidade na utilização de IA para redigir documentos contendo dados pessoais; práticas discriminatórias na avaliação de candidatos em processos de seleção; violação de direitos de propriedade intelectual ao reutilizar materiais de marketing protegidos sem permissão; ou até mesmo argumentos falsos e disseminação de mentiras ocasionadas pelas “alucinações” da IA em defesas jurídicas são apenas alguns dos problemas com os quais as empresas já estão tendo que lidar, apesar dos enormes benefícios que a IA claramente oferece.
Nesta corrida para a regulamentação da IA, mesmo que muitos dos detalhes da versão brasileira da norma não estejam certos, é importante que as empresas comecem a seguir regras de governança de IA. Mas como minha empresa pode se preparar em meio às incertezas que cercam o atual estágio do processo legislativo? E como garantir que a adaptação a essa nova realidade seja um diferencial competitivo, além de apenas uma obrigação legal?
A resposta para essas perguntas pode parecer mais simples e mais fácil aplicação do que se imagina: a implementação de Políticas de Uso de IA, a elaboração de Relatórios de Impacto de Riscos para cada caso de uso individual de IA, bem como treinamento contínuo para as equipes são medidas que as empresas podem e devem adotar de imediato. Pois se o uso de IA é fundamental para manter empresa na frente de seus concorrentes, a utilização da governança de IA para a regulamentação que já desponta como requisito para manter-se na corrida.