18 C
São Paulo
sábado, agosto 2, 2025
InícioColunistasInteligência Artificial Sem Governança:  O Risco Invisível nos Processos de  Negócio 

Inteligência Artificial Sem Governança:  O Risco Invisível nos Processos de  Negócio 

Por muito tempo, o uso de tecnologias emergentes era visto como responsabilidade  exclusiva da área de TI. Mas essa linha tênue está cada vez mais borrada. Hoje,  Inteligência Artificial (IA) já não é apenas uma ferramenta para automatizar tarefas  simples ela está sendo incorporada diretamente em processos de negócio críticos.

E o  mais alarmante: muitas empresas estão fazendo isso sem qualquer estrutura formal de  governança. O resultado? Um risco silencioso, crescente e altamente subestimado. 

IA em Tudo, mas quem está no controle? 

Vamos ser francos. A IA não é mais uma tendência é uma realidade. Empresas já  devem estar usando IA, como por exemplo, tomando decisões em processos de  concessão de crédito, previsão de demanda, gestão de estoques, pricing dinâmico,  atendimento ao cliente, recrutamento, e até mesmo em auditoria interna. O problema  não está em usar IA está em usá-la como se fosse uma “caixa preta”, sem entender  completamente os critérios, os dados de entrada, ou os vieses embutidos em seu  funcionamento. 

Empresas que adotam IA sem um modelo de governança sólido estão criando uma nova  camada de risco operacional, ético e até regulatório. A confiança que se tinha nos  processos de negócio tradicionais testados, documentados e auditáveis já não se  aplica automaticamente quando uma decisão é tomada por um modelo de machine  learning treinado em dados que ninguém revisou. 

Não Está em SOX Ainda. Mas Deveria Estar no  Radar 

Sim, isso é verdade. 

A Lei Sarbanes-Oxley (SOX), criada em 2002 para reforçar a governança corporativa e  a confiabilidade das informações financeiras, se aplica a toda empresa registrada na  SEC ou seja, qualquer organização listada em bolsas americanas como a NYSE ou  NASDAQ. 

Apesar da sua importância, a SOX não faz nenhuma menção específica à Inteligência  Artificial (IA). Nem quando trata de controles internos como na Seção 404 nem  ao definir responsabilidades da administração ou dos auditores. 

Mas isso não quer dizer que a IA esteja, na prática, fora do escopo da SOX. Se um  sistema de IA é utilizado em processos que impactam diretamente as demonstrações  financeiras ou os controles internos, ele precisa ser tratado com o mesmo rigor exigido  pela lei mesmo que a legislação original não tenha previsto essa tecnologia.

Se um processo de negócio ou sistema impacta diretamente as demonstrações  financeiras, e esse processo utiliza IA, então a governança e os controles desse uso  passam a ser relevantes para a conformidade com SOX

Exemplo: 

Se uma empresa utiliza IA para automatizar parte do processo de reconciliação contábil,  ou para classificar lançamentos financeiros, essa automação deve estar documentada,  controlada, e auditável mesmo que a legislação original de SOX não mencione IA. 

Ou seja: 

SOX não trata IA diretamente, mas se IA impacta controles financeiros, ela passa  a ser parte do escopo de avaliação de controles internos. 

Mas como estamos ao redor do mundo com outras  regulamentações? 

EUA (PCAOB, SEC, COSO): 

• A SEC e o PCAOB ainda não publicaram normas específicas sobre IA em  auditoria ou controles financeiros

Mas o PCAOB já demonstrou preocupações com o uso de tecnologias  avançadas nas práticas de auditoria, especialmente sobre como os auditores  validam a confiabilidade dos sistemas utilizados pelas empresas auditadas. 

• O COSO (Committee of Sponsoring Organizations), responsável por um dos  frameworks mais usados para avaliação de controles internos (usado em SOX),  publicou em 2023 um guia conjunto com a Deloitte chamado “Realizing the  Full Potential of AI”, que aborda como os princípios do COSO podem ser  aplicados à IA. 

Esse guia não é normativo, mas sinaliza que a integração da IA aos controles  internos deve seguir os mesmos princípios básicos de governança, ética,  confiabilidade, etc. 

Europa (AI Act): 

• A União Europeia aprovou em 2024 o AI Act, a primeira legislação ampla  sobre IA no mundo. 

Embora o foco seja mais em segurança, ética, privacidade e responsabilidade, o AI  Act exige níveis diferenciados de governança conforme o risco do uso de IA, e  sistemas usados em finanças ou em processos de decisão automatizada de alto  impacto estão classificados como “alto risco”

Isso pode ter efeitos indiretos em empresas multinacionais que operam na UE e usam  IA em processos financeiros.

Normas Internacionais de Auditoria (IAASB): 

• O IAASB (International Auditing and Assurance Standards Board) está  desenvolvendo diretrizes para uso de tecnologia, incluindo IA, em auditoria. • Há debates avançados sobre como auditores devem abordar riscos oriundos de  sistemas baseados em IA usados por clientes auditados. 

Mas ainda não há uma norma específica com força regulatória sobre isso

Governança de Inteligência Artificial: Urgente e Inegociável 

É hora de entender que governança de IA não é um “nice to have”, é essencial. Isso  envolve: 

Mapeamento de riscos específicos da IA: vieses algorítmicos, opacidade nos  modelos, integridade dos dados de treino. 

Estabelecimento de accountability: quem responde por decisões  automatizadas? 

Auditorias técnicas regulares nos modelos: entradas, lógica, resultados e  impactos. 

Documentação e rastreabilidade: qualquer sistema que interfere em processos chave precisa ser explicável. 

Segregação de funções e validação cruzada, inclusive com envolvimento de  áreas como compliance, jurídico e auditoria interna. 

Confiança nos Processos Nunca Mais Será Como Antes 

A confiança nos processos corporativos sempre foi baseada em três pilares: controle,  previsibilidade e responsabilidade. A IA, sem governança, quebra todos os três. O  modelo pode mudar sozinho (aprendizado contínuo), as decisões podem ser não intuitivas (opacidade algorítmica) e ninguém sabe direito quem responderia por um erro  catastrófico (ausência de accountability). 

A transformação digital exige que repensemos não só os processos, mas também os  mecanismos de controle. A era da IA exige uma nova forma de confiança — baseada  em transparência algorítmica, auditabilidade tecnológica e ética de dados. E isso precisa  começar agora, antes que os danos sejam irreversíveis. 

Ou Governamos a IA, ou Seremos  Governados por Ela 

A inovação é inevitável. Mas a responsabilidade é opcional e é justamente aí que  mora o perigo. Usar IA sem governança é como entregar a direção do seu negócio para  um motorista que não pode ser interrogado, nem sequer observado. Pode até funcionar  por um tempo. Mas quando o acidente acontecer, será tarde demais para descobrir quem  estava no volante.

As empresas que compreenderem isso primeiro, sairão na frente. As que ignorarem,  terão uma lição cara talvez catastrófica.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!

Ricardo Bortolotto
Ricardo Bortolotto
Certificações como AAIA, CISA, CRISC e CISM, atuando na conexão entre tecnologia, governança e negócios com foco em geração de valor. Sólida experiência em auditoria, riscos, segurança da informação e compliance.
Postagens recomendadas
Outras postagens