16.3 C
São Paulo
sábado, julho 12, 2025
InícioColunistasAlém do hype: por que o CEO não pode delegar a responsabilidade...

Além do hype: por que o CEO não pode delegar a responsabilidade ética da IA

A discussão sobre o novo perfil do gestor de TI como business partner gerou reflexões interessantes na semana passada. E imagino que muitos CEOs estejam se fazendo a pergunta: “Se meu CIO agora é parceiro estratégico, posso delegar para ele toda a responsabilidade sobre IA na empresa?” A resposta é categórica: Não!

Pode parecer tentador jogar essa “batata quente” para o time técnico, mas há algo que todo CEO precisa saber: quando o algoritmo da sua empresa discriminar alguém, quando um modelo de IA vazar dados sensíveis, ou quando sua empresa for multada por uso inadequado de IA, adivinha quem vai dar explicações na mídia? Certamente não será o seu CIO.

No artigo de hoje, vou explicar por que tentar se esconder atrás do time técnico em questões de IA ética não só é impossível, como pode ser o erro mais caro da sua carreira.

Prepare-se para repensar completamente quem deveria estar no comando dessa responsabilidade!

O tsunami regulatório que vem por aí

Enquanto muitos CEOs ainda debatem internamente sobre governança de IA, uma mudança fundamental pode estar se aproximando no cenário regulatório brasileiro. O PL 2338/2023 tramita no Congresso e, se aprovado da forma como está, pode revolucionar para o bem ou para o mal–como as empresas usam IA no país.

Vocês sabiam que o projeto prevê multas de até R$ 50 milhões para empresas que usarem IA de forma inadequada? Estamos falando de um marco regulatório que pode tanto proteger quanto paralisar a inovação, dependendo de como for implementado. A grande questão é: estamos caminhando para um ambiente que estimula inovação responsável ou que engessa o desenvolvimento tecnológico?

Esta preocupação fica ainda mais evidente quando observamos o cenário regulatório global. O EU AI Act já está em vigor, e há debates intensos sobre seu impacto na competitividade europeia. Nos Estados Unidos, a abordagem tem sido mais cautelosa, priorizando autorregulação. O Brasil está numa encruzilhada: pode escolher um caminho que nos torne líderes em inovação responsável ou pode criar barreiras que nos deixem para trás na corrida global da IA.

O equívoco perigoso da delegação

Voltando ao tema central deste artigo, muitos CEOs ainda veem a IA como “mais uma tecnologia” que pode ser gerenciada exclusivamente pelo departamento de TI. Este é um erro estratégico que pode custar caro. A IA não é apenas uma ferramenta tecnológica – é um motor transformador que impacta pessoas, processos, cultura organizacional e até mesmo a sociedade.

Imaginem um algoritmo de recrutamento que inadvertidamente discrimina candidatos por gênero ou etnia. Quando esse problema vier à tona – e ele sempre vem –, quem vocês acham que será chamado para dar explicações? O CIO que implementou a tecnologia ou o CEO que lidera a organização? A resposta é óbvia: a responsabilidade sempre subirá até o topo da pirâmide.

Mas aqui está o ponto que poucos CEOs perceberam ainda: independente do que aconteça com a regulamentação, a grande maioria dos líderes empresariais brasileiros ainda não tem uma estratégia clara para IA responsável. Seja para atender futuras exigências legais ou simplesmente para inovar de forma sustentável, essa lacuna pode custar caro quando as pressões – regulatórias ou competitivas – se intensificarem.

Entre fazer negócios com uma empresa que declara e evidencia o uso de IA responsável e outra que não fala nada, qual você vai escolher?

Por que esta responsabilidade é indelegável?

  • Impacto na reputação e marca: Decisões éticas sobre IA afetam diretamente a percepção pública da empresa. Um algoritmo que toma decisões questionáveis pode destruir décadas de construção de marca com poucas ações. O CEO é o guardião final da reputação organizacional.
  • Definição de valores organizacionais: A forma como uma empresa usa IA reflete seus valores fundamentais. Questões como transparência, justiça, privacidade e inclusão não são técnicas – são valores que devem emanar da liderança máxima da organização.
  • Decisões de investimento e priorização: Implementar IA ética muitas vezes significa escolher soluções mais caras, processos mais lentos ou abrir mão de algumas eficiências em prol de maior transparência. Essas são decisões de negócio que competem ao CEO – e que podem definir se sua empresa sobrevive às mudanças que vêm por aí.
  • Relacionamento com stakeholders: Investidores, reguladores, clientes e sociedade civil estão cada vez mais atentos ao uso responsável de IA. O CEO é quem responde a esses stakeholders sobre as escolhas éticas da organização.

O papel do CIO vs. o papel do CEO

Isso não significa que o CIO fica de fora da equação – muito pelo contrário. A implementação bem-sucedida de IA ética requer uma parceria estreita entre CEO e CIO, mas com papéis bem definidos:

  • O CEO define os princípios éticos, aprova políticas de uso, estabelece limites de risco e comunica externamente os compromissos da empresa com IA responsável.
  • O CIO implementa tecnicamente essas diretrizes, garante que as soluções estejam em conformidade, monitora o comportamento dos algoritmos e reporta regularmente sobre compliance ético.

Esta divisão de responsabilidades cria um sistema fundamental:

O CEO não pode alegar desconhecimento técnico para se eximir de responsabilidades éticas, e o CIO não pode tomar decisões éticas unilateralmente sem o aval da liderança.

Casos reais que mudaram o jogo

A história está repleta de exemplos onde a falta de liderança ética custou caro. Se lembram do caso da Microsoft com o chatbot Tay, que rapidamente se tornou ofensivo na década passada? Ou dos algoritmos de reconhecimento facial que apresentavam vieses raciais? Em todos esses casos, as empresas precisaram responder não apenas tecnicamente, mas eticamente – e essa resposta invariavelmente veio do CEO.

Mais recentemente, vemos empresas sendo questionadas sobre o uso de IA generativa: que dados foram usados para treinar os modelos? Como garantir que não há violação de propriedade intelectual? Como proteger a privacidade dos usuários? Essas não são perguntas técnicas – são questões éticas e estratégicas que demandam liderança do topo. E as respostas erradas e desconectadas com a estratégia de uma organização podem custar muito caro.

O risco do engessamento

Aqui está um ponto que poucos estão discutindo: dependendo de como o PL 2338/2023 for aprovado e implementado, pode engessar severamente o desenvolvimento de IA no Brasil. Regulamentação excessivamente restritiva não protege – ela paralisa.

Vemos o risco real de criarmos um ambiente onde inovar se torna tão complexo e custoso que as empresas brasileiras ficam para trás na corrida global da IA. Enquanto outros países encontram o equilíbrio entre responsabilidade e inovação, podemos ficar presos em burocracias que impedem o progresso.

A questão não é ser contra regulamentação – é defender regulamentação inteligente que estimule inovação responsável. Precisamos de frameworks que protejam sem paralisar, que criem confiança sem destruir competitividade.

É por isso que a liderança empresarial neste momento é fundamental. Não podemos deixar que decisões sobre o futuro da IA no Brasil sejam tomadas sem a perspectiva de quem realmente entende os desafios de inovar. As empresas precisam ser protagonistas na construção de um ambiente que favoreça tanto a responsabilidade quanto a competitividade global.

O abismo entre intenção e ação

Enquanto escrevo este artigo, observo um fenômeno preocupante no mercado brasileiro. A maioria dos CEOs concorda que IA responsável é importante, mas pouquíssimos sabem por onde começar. Essa lacuna entre intenção e ação está criando um abismo perigoso.

Vejo empresas implementando IA sem critérios claros – literalmente a toque de caixa, outras paralisadas pelo medo de regulamentação excessiva e as discussões infinitas de compliance, e algumas simplesmente ignorando o tema na esperança de que “tudo se resolva”. Todas essas abordagens são receitas prontas para pratos cheios de problemas futuros.

A verdade é que, com ou sem marco regulatório rígido, empresas que não desenvolverem capacidades internas de IA responsável ficarão vulneráveis – seja a multas, seja à perda de competitividade global. Em resumo, ou você faz bem feito, ou vai doer no bolso!

O custo da omissão vs. o valor da antecipação

CEOs que tentam se omitir dessa responsabilidade enfrentam riscos crescentes que a negligência tem impedido de enxergar. O custo reputacional de falhas éticas pode ser devastador. Multas regulatórias estão aumentando globalmente. Talentos de alta qualidade estão gradualmente escolhendo um caminho para trabalhar em empresas com práticas éticas sólidas. É uma revolução silenciosa em early stage. Se você ainda não a viu, logo, logo vai perceber.

Por outro lado, as poucas organizações que já abraçaram a responsabilidade ética desde o topo estão ganhando vantagem competitiva real. Constroem confiança com clientes, atraem melhores talentos, antecipam-se a regulamentações e posicionam-se como líderes responsáveis em seus mercados. Contar isso para o mercado como um diferencial competitivo vai se tornar cada vez mais comum.

Mas o tempo para influenciar esse processo está se esgotando. A janela de oportunidade para as empresas serem protagonistas – ao invés de apenas reagir a decisões tomadas por outros – está se fechando rapidamente.

Conclusão: liderança ética não é delegável

A era da IA exige uma nova forma de liderança – uma que coloque ética e responsabilidade no centro das decisões estratégicas. O CEO que tenta delegar essa responsabilidade está, na verdade, delegando o controle sobre o futuro de sua organização.

A IA ética não é um projeto de TI – é uma competência essencial de liderança. É sobre definir que tipo de empresa você quer ser em um mundo onde algoritmos tomam decisões que afetam vidas humanas. É sobre construir confiança em uma era de ceticismo tecnológico. É sobre liderar pelo exemplo em questões que definirão como a sociedade evolui.

Mas a grande questão permanece: como transformar essa responsabilidade teórica em ações práticas e efetivas?

A pergunta não é se você, CEO, tem tempo para se envolver com IA ética. A pergunta é: você tem condições de não participar das decisões que podem definir o futuro da inovação no Brasil?

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI, Telecom e Cibersegurança!

Mauro Periquito
Mauro Periquito
Engenheiro de Telecomunicações e Consultor de Tecnologia, com o objetivo de desenvolver e gerenciar projetos de transformação digital para indústria, utilities, mineração, agronegócio e operadoras de telecomunicações. Em sua trajetória profissional, tem como propósito traduzir as necessidades dos clientes em soluções customizadas.
Postagens recomendadas
Outras postagens