23 C
São Paulo
terça-feira, setembro 9, 2025
InícioColunistasComo IA pode construir ou destruir sua reputação ESG

Como IA pode construir ou destruir sua reputação ESG

Este artigo é o décimo de uma série sobre IA Responsável que venho escrevendo.

Conversando com executivos recentemente, percebi uma desconexão perigosa. Muitos veem IA e ESG como temas separados. “IA é coisa do TI, ESG é do compliance.” Erro fatal. Na realidade, esses dois mundos não apenas se conectam – eles se determinam mutuamente.

Se você está implementando IA na empresa, estes próximos minutos podem te ajudar e muito!

O caso que deveria preocupar todo CEO

Nas últimas semanas, soubemos do caso de Sophie Rottenberg, 29 anos, que passou meses desabafando com o ChatGPT sobre pensamentos suicidas antes de tirar a própria vida. Segundo relato de sua mãe no New York Times, a IA “atendeu ao impulso de Sophie de esconder o pior, de fingir que estava melhor do que estava, de proteger todos de sua agonia completa”.

Adam Raine, 16 anos, se suicidou após o ChatGPT validar seus pensamentos autodestrutivos e fornecer informações sobre métodos letais. Os pais processaram a OpenAI por homicídio culposo, alegando que a empresa priorizou lucros, avaliação saltou de US$ 86 bilhões para US$ 300 bilhões sobre segurança.

Sewell Setzer, 14 anos, se matou após um chatbot da Character.AI dizer “come home to me as soon as possible”. A mãe está processando a empresa, alegando que o bot disse “That’s not a good reason not to go through with it” quando o jovem mencionou não querer uma morte dolorosa.

Por que isso importa para ESG corporativo? Porque quando algoritmos falham eticamente, as consequências não ficam escondidas nos logs de sistema, viram processos bilionários e manchetes mundiais.

Volume de ativos em fundos ESG no Brasil saltou de alguns bilhões em 2018 para dezenas de bilhões em 2024. Bloomberg Intelligence projeta US$ 40 trilhões globalmente até 2030. Investidores não estão apenas pedindo transparência algorítmica, estão exigindo.

Por que IA e ESG são inseparáveis?

IA não automatiza apenas processos, automatiza decisões. E essas decisões podem impactar significativamente a reputação corporativa quando geram resultados inesperados ou questionáveis.

O problema está na origem: algoritmos aprendem com dados históricos. Se esses dados refletem padrões do passado que hoje consideramos inadequados, a IA pode reproduzir esses mesmos padrões automaticamente.

A equação do risco reputacional

Dados Não Representativos → Algoritmos Desbalanceados → Decisões Questionáveis → Risco ESG

Cenários que vejo no mercado:

Recrutamento: IA treinada apenas com currículos de contratações passadas pode favorecer perfis similares aos já existentes na empresa. Uma grande empresa de e-commerce teve que descontinuar seu sistema de recrutamento automatizado após identificar padrões não intencionais de seleção.

Análise de Crédito: Modelos que usam localização geográfica como variável podem inadvertidamente excluir regiões inteiras, limitando oportunidades de negócio.

Avaliação de Performance: Sistemas que se baseiam em dados históricos podem perpetuar critérios de avaliação que não refletem as melhores práticas atuais.

Experiência do Cliente: Algoritmos de priorização podem criar experiências desiguais entre diferentes grupos de clientes, afetando a percepção da marca.

Os 5 riscos ESG da IA

RISCO #1: Qualidade de dados (governance)

O que é: Algoritmos treinados com dados incompletos ou desatualizados

Impacto ESG: Decisões baseadas em informações que não refletem a realidade atual do negócio

Exemplo: Modelos de análise que usam dados históricos sem considerar mudanças recentes no mercado

RISCO #2: Falta de auditabilidade (governance)

O que é: Sistemas que não conseguem explicar como chegaram a determinadas decisões

Impacto ESG: Dificuldade para demonstrar conformidade e prestação de contas aos stakeholders

Consequência: Questionamentos de auditores, reguladores e investidores sobre processos automatizados

RISCO #3: Consumo energético descontrolado (environmental)

O que é: IA que consome recursos computacionais excessivos sem otimização

Impacto ESG: Alto consumo de energia elétrica e pegada de carbono elevada

Exemplo: Modelos complexos rodando constantemente sem análise de eficiência energética

RISCO #4: Compliance de dados (governance)

O que é: IA processando informações pessoais sem governança adequada

Impacto ESG: Violação de regulamentações de privacidade e proteção de dados

Risco Legal: LGPD prevê multas de até R$ 50 milhões, e PL 2338/2023 pode trazer penalidades adicionais

RISCO #5: Dependência operacional (social)

O que é: Automação sem considerar impacto na capacitação das equipes

Impacto ESG: Colaboradores podem perder competências importantes se não houver programas de desenvolvimento

Oportunidade: IA bem implementada libera pessoas para atividades mais estratégicas e criativas

O desafio da IA “objetiva”

A IA foi desenvolvida para ser mais consistente que decisões humanas. Na prática, ela pode reproduzir inconsistências presentes nos dados de treinamento.

Quando algoritmos aprendem apenas com informações históricas, podem perpetuar padrões do passado que não necessariamente representam as melhores práticas atuais. É como usar um GPS com mapas desatualizados , tecnicamente funciona, mas pode levar a destinos inadequados.

Como isso acontece na prática

  • Dados limitados: IA treinada com amostras não representativas
  • Equipes homogêneas: Desenvolvimento sem diversidade de perspectivas
  • Falta de validação: Sistemas implantados sem testes adequados de qualidade
  • Ausência de monitoramento: Algoritmos operando sem supervisão contínua

O que empresas inteligentes estão fazendo

Cada empresa precisa encontrar seu caminho. Mas posso contar o que estou vendo nas organizações que se anteciparam:

Elas pararam de tratar IA como “magia” e começaram a tratá-la como qualquer decisão empresarial crítica, com responsabilidades claras.

Elas entenderam que “eficiência” sozinha não é sucesso se vier acompanhada de discriminação.

Elas entenderam que transparência não é obstáculo, é diferencial competitivo e fator de confiança com stakeholders.

E mais importante: elas descobriram que investidores, talentos e clientes recompensam empresas que fazem IA do jeito certo.

A pergunta que fica: Sua empresa quer ser conhecida como pioneira em IA responsável ou prefere reagir quando problemas aparecem?

O custo real de não agir

Riscos Financeiros Documentados:

  • Saída de Fundos ESG: Fundos que representam trilhões podem desinvestir de empresas com práticas inadequadas de governança
  • Processos Judiciais: Famílias estão processando gigantes tech por bilhões devido a falhas em sistemas de IA
  • Multas Regulatórias: LGPD + PL 2338/2023 podem resultar em penalidades significativas
  • Custo de Adequação: Corrigir problemas depois da implementação custa 10x mais que fazer certo desde o início

Oportunidades perdidas:

Empresas que implementam IA responsável primeiro ganham diferenciação competitiva, acesso preferencial à capital ESG, atração de melhores talentos e preparação antecipada para regulamentação futura.

image 14

Por que transparência não é mais opcional?

Três forças convergiram para tornar a transparência algorítmica obrigatória:

1. Pressão dos investidores

ESG não é mais “nice to have”, é critério obrigatório para trilhões em ativos globais. Fundos estão exigindo relatórios detalhados sobre práticas algorítmicas.

2. Expectativa dos consumidores

Nova geração não aceita ser discriminada por algoritmos. Transparência virou questão de sobrevivência competitiva, especialmente em mercados B2C.

3. Evolução regulatória acelerada

LGPD é só o começo. PL 2338/2023 avança no Congresso. Europa implementa AI Act. Transparência será obrigatória por lei, a questão é quando, não sei.

A escolha é sua!

Durante minha trajetória em transformação digital, vi muitas empresas ficarem para trás por não anteciparem mudanças fundamentais. IA responsável não é exceção.

A pergunta não é SE a transparência algorítmica vai ser obrigatória. A pergunta é: sua empresa vai liderar ou será forçada a se adaptar?

Empresas que abraçam IA responsável agora ganham vantagem competitiva sustentável. Aquelas que esperam serão forçadas a reagir sob pressão, sempre mais caro e menos efetivo.

Pior ainda: em um mundo onde reputação ESG pode definir bilhões em valor de mercado, erros algorítmicos podem ser fatais.

Mas tem uma boa notícia: implementar IA responsável não é ciência de foguete. É questão de método, processo e, principalmente, vontade de liderar.

Sua empresa está usando IA para criar oportunidades ou reproduzir limitações do passado? E mais importante: como vocês querem ser lembrados na história da transformação digital?

Uma reflexão pessoal

Eu sei que essa história de que a IA tem uma série de questões complicadas, que não é só abrir um chat e sair usando, está embaralhando a sua cabeça. Quando eu comecei a estudar sobre isso, eu também me senti assim.

Por isso, comecei a escrever essa série de artigos e posts que tenho feito nos últimos meses sobre IA responsável. Tanto na perspectiva de uso pessoal como na de uso corporativo, temos que tomar cuidado, e a minha missão aqui é ajudar vocês, trazendo conhecimento sobre o assunto e elevando o nível para que mais organizações despertem no uso de IA responsável.

Vamos juntos e, qualquer dúvida, me perguntem!

O que venho percebendo é que existe um movimento crescente no Brasil, executivos, profissionais, empresas, que estão acordando para essa realidade. Não queremos ser apenas consumidores passivos de IA desenvolvida lá fora. Queremos ser protagonistas na construção de uma IA que reflita nossos valores, nossa ética, nossa responsabilidade social.

E isso só acontece quando líderes como você tomam a decisão consciente de fazer diferente!

E você? Já passou por alguma situação similar?

Sua empresa já enfrentou algum “momento de verdade” com IA e ESG? Aquele momento em que descobriram que um algoritmo estava tomando decisões questionáveis?

Ou talvez vocês estejam implementando IA responsável de forma proativa? Cases de sucesso podem inspirar outros líderes.

Se você está chegando agora, recomendo ler os anteriores:

  1. Além do Hype: Por Que o CEO Não Pode Delegar a Responsabilidade Ética da IA
  2. Brasil vs Mundo: Onde Estamos na Corrida da IA Responsável
  3. O Custo da Inação: Cases Reais de IA Irresponsável
  4. 7 Riscos de IA que Todo CEO Deveria Conhecer Agora
  5. Por Que a Autorregulação é Melhor que Regulamentação Pesada
  6. Shadow AI: O Novo Fantasma Corporativo
  7. O Conhecimento Que Sua Empresa Pode Perder com IA
  8. LGPD + IA: O Campo Minado Regulatório
  9. Hackers Estão Mirando Especificamente em Sistemas de IA

Se este artigo mudou sua perspectiva sobre IA e ESG, compartilhe com sua equipe. Conversas como esta precisam acontecer nas salas de diretoria, não apenas nos departamentos técnicos.

A transformação responsável da IA no Brasil começa com discussões como esta. E esta série de 10 artigos sobre IA Responsável se encerra aqui, mas o tema continuará presente nas minhas reflexões sobre tecnologia e liderança.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!

Mauro Periquito
Mauro Periquito
Engenheiro de Telecomunicações e Consultor de Tecnologia, com o objetivo de desenvolver e gerenciar projetos de transformação digital para indústria, utilities, mineração, agronegócio e operadoras de telecomunicações. Em sua trajetória profissional, tem como propósito traduzir as necessidades dos clientes em soluções customizadas.
Postagens recomendadas
Outras postagens