9.3 C
São Paulo
quarta-feira, julho 30, 2025
InícioColunistas7 riscos de IA que todo CEO deveria conhecer agora

7 riscos de IA que todo CEO deveria conhecer agora

O artigo sobre cases de IA irresponsável rendeu comentários interessantes. Paulo Brenha foi direto: “A IA não é neutra e, quando a gente ignora isso, vira manchete pelos motivos errados.” Já o Mauricio Suga acertou na mosca: “É o estagiário mandando no executivo.”

Vocês estão certos. E hoje vou ser específico sobre os 7 riscos que podem explodir na mão de qualquer CEO.

O PL 2338/2023 – projeto que regulamenta IA no Brasil, foi aprovado no Senado em dezembro e tramita na Câmara dos Deputados. Ele estabelece diretrizes para uso responsável de IA, classifica sistemas por nível de risco e prevê multas de até R$ 50 milhões. Com essa regulamentação chegando, não dá mais para tratar IA como “mais uma tecnologia”.

Se você implementa IA na empresa, estes próximos minutos podem salvar milhões.

RISCO #1: Shadow AI

O que é: Funcionários usando ChatGPT, Claude, Copilot sem governança ou política.

Como identificar: Dados confidenciais sendo enviados para APIs externas, decisões baseadas em outputs não validados, descobertas “por acaso” de usos não autorizados.

Caso real: Muitas empresas descobrem desenvolvedores enviando código proprietário para GitHub Copilot ou usando IA generativa com dados sensíveis.

Faça agora: Mapeie TODOS os usos de IA dos últimos 30 dias. Você pode se surpreender.

RISCO #2: Viés algorítmico

O que é: Sistemas reproduzindo preconceitos históricos em recrutamento, crédito e atendimento.

Como identificar: Dados não representativos, equipe homogênea, nunca testaram se discrimina grupos específicos.

Caso real: Como mencionei no artigo anterior, o Apple Card foi investigado pelo Departamento de Serviços Financeiros de NY após David Heinemeier Hansson denunciar que recebeu limite 20x maior que sua esposa, mesmo ela tendo melhor score de crédito³. Steve Wozniak, cofundador da Apple, relatou situação similar⁴.

Faça agora: Audite os últimos 100 resultados de algoritmos críticos. Há padrões suspeitos?

RISCO #3: Vazamento via IA – a bomba da LGPD

O que é: Modelos “memorizando” e vazando dados pessoais entre usuários.

Como identificar: IA treinada sem base legal adequada, sistemas que “lembram” informações específicas de clientes.

Caso real: ANPD suspendeu política da Meta em julho/2024, impedindo uso de dados do Facebook/Instagram para treinar IA. Multa diária: R$ 50 mil por descumprimento.

LGPD prevê multas de até R$ 50 milhões ou 2% do faturamento.

Faça agora: Liste dados pessoais usados em IA. Qual a base legal para cada uso?

RISCO #4: Decisões “caixa preta”

O que é: IA decidindo sem conseguir explicar o raciocínio por trás.

Como identificar: Impossibilidade de explicar decisões, ausência de logs detalhados, sistemas complexos sem interpretabilidade.

Regulamentação: PL 2338/2023 exige explicabilidade em sistemas de alto risco. Superior Tribunal de Justiça já decidiu que empresas devem explicar decisões automatizadas.

Faça agora: Pegue 10 decisões recentes de IA e explique em linguagem simples. Consegue?

RISCO #5: Ataques específicos para IA

O que é: Hackers usando prompt injection, envenenamento de dados, ataques adversariais.

Como identificar: Degradação inexplicável na performance, resultados maliciosos, IA exposta sem proteções específicas.

Tendência: Criminosos já exploram vulnerabilidades específicas de IA. Sistemas expostos publicamente são alvos prioritários.

Faça agora: Sua equipe de segurança sabe proteger especificamente sistemas de IA?

RISCO #6: Dependência excessiva

O que é: Operações críticas 100% dependentes de IA sem planos de contingência.

Como identificar: Processos totalmente automatizados, equipes sem conhecimento manual, único fornecedor crítico.

Impacto: Empresas relatam perdas significativas quando sistemas falham. Startups quebraram quando fornecedores mudaram preços drasticamente.

Faça agora: Se sua principal API de IA caísse agora, por quanto tempo conseguiria operar?

RISCO #7: Compliance fragmentado

O que é: Cada área implementando IA com regras diferentes, criando múltiplas exposições legais.

Como identificar: Marketing pode violar LGPD, TI pode violar contratos, RH pode violar leis trabalhistas simultaneamente.

Contexto regulatório: Com PL 2338/2023 avançando, empresas podem enfrentar múltiplas fiscalizações de diferentes órgãos reguladores.

Faça agora: Quem tem visão completa de TODOS os usos de IA na empresa?

O padrão dos riscos

Como Mauricio Suga observou: delegamos decisões para quem ainda está aprendendo. Thierry Cintra Marcondes acertou: “às vezes você acha que está bem, mas o custo é maior.”

O padrão é claro: empresas que tratam IA como “magia” se machucam. Os riscos não são técnicos, são de governança e responsabilidade.

Teste rápido: sua empresa

Para cada risco, você tem (1 ponto para cada resposta afirmativa):

□ Política definida?

□ Responsável designado?

□ Monitoramento ativo?

□ Plano de contingência?

Pontuação (máximo 28):

  • 20+: Vanguarda
  • 15-19: Gaps críticos
  • 10-14: Zona de risco
  • <10: Situação crítica

Cronograma CEO

  • Segunda: Mapeie usos de IA
  • Terça: Identifique risco mais crítico
  • Quarta: Defina responsável temporário
  • Quinta: Crie política básica
  • Sexta: Agende revisão mensal

A janela está fechando (mas alguns já viram o que vem por aí)

Como disseo Paulo Brenha: “Ou a empresa lidera… ou vira case de advertência.”

Dos comentários no artigo anterior, vejo que vocês estão identificando esses riscos nas suas organizações. Ricardo Vallino compartilhou um caso real de IA mal governada numa farmácia, onde “a IA dizia que estava tudo dentro do prazo, enquanto o gatilho usado para entrega estava cancelado”, exemplo perfeito de dependência excessiva sem supervisão humana.

Bruno Bortolato destacou algo fundamental: a importância da “democratização deste pensamento crítico e responsável”, e é exatamente isso que está acontecendo nos bastidores.

Aqui está a verdade inconveniente: Enquanto a maioria dos CEOs brasileiros ainda está descobrindo que tem IA rodando sem controle nas suas empresas, um pequeno grupo de líderes visionários já se movimentou.

Não é sobre esperar a regulamentação chegar. É sobre influenciar como ela vai ser criada.

E se, ao invés de recebermos regras prontas de Brasília, os próprios líderes empresariais brasileiros pudessem moldar o futuro da IA responsável no país? Criar um padrão brasileiro que fosse referência mundial, que protegesse sem paralisar, que inovasse sem comprometer?

Isso não é sonho. Está acontecendo agora.

Enquanto outros países copiam modelos europeus ou americanos, algo único está nascendo no Brasil. Uma revolução silenciosa que está reunindo os CEOs mais estratégicos do país.

Quando a história da IA responsável no Brasil for contada daqui a 10 anos, onde você estará nessa narrativa? Será um dos visionários que ajudou a construir o caminho? Ou um dos que seguiu as regras que outros criaram?

Na próxima semana, vou mostrar por que a autorregulação inteligente está criando vantagem competitiva absurda para quem se antecipa. E como isso se conecta com algo maior que está se articulando nos bastidores.

Spoiler: Não é sobre seguir regras. É sobre ter o poder de influenciar como elas são criadas.

Alguns já entenderam isso. A questão é: você faz parte desse grupo?

Porque liderar é sempre melhor que seguir.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!

Mauro Periquito
Mauro Periquito
Engenheiro de Telecomunicações e Consultor de Tecnologia, com o objetivo de desenvolver e gerenciar projetos de transformação digital para indústria, utilities, mineração, agronegócio e operadoras de telecomunicações. Em sua trajetória profissional, tem como propósito traduzir as necessidades dos clientes em soluções customizadas.
Postagens recomendadas
Outras postagens