18.3 C
São Paulo
sábado, maio 10, 2025
InícioTransformação digitalInteligência artificialEmpresas enfrentam novo desafio com o uso indiscriminado de IA generativa por...

Empresas enfrentam novo desafio com o uso indiscriminado de IA generativa por colaboradores

O uso crescente de IA generativa por funcionários no ambiente corporativo tem levantado preocupações significativas sobre segurança da informação, compliance e proteção de dados. De acordo com o Relatório de Ameaças e Nuvem de IA Generativa de 2025, divulgado pela Netskope Threat Labs, houve um aumento de 30 vezes no volume de dados enviados para aplicações baseadas em inteligência artificial nos últimos doze meses.

Esse crescimento vertiginoso está diretamente relacionado à popularização de plataformas como ChatGPT, Google Gemini e GitHub Copilot, ferramentas que oferecem recursos avançados para automatização de tarefas e aumento de produtividade. Entretanto, o relatório alerta para os riscos inerentes à adoção desenfreada dessas soluções no ambiente empresarial.

IA generativa

A IA generativa passou a ser cada vez mais acessada por usuários corporativos, muitos deles utilizando contas pessoais para interagir com essas tecnologias. Segundo a pesquisa, cerca de 72% dos funcionários acessam aplicações de inteligência artificial sem qualquer tipo de supervisão por parte da equipe de segurança de TI. Esse comportamento caracteriza o fenômeno conhecido como Shadow AI.

Shadow AI refere-se ao uso de tecnologias de IA sem conhecimento ou autorização formal do setor responsável pela segurança da informação. Essa prática dificulta o monitoramento adequado, expondo as organizações a riscos como vazamento de informações confidenciais, perda de propriedade intelectual e violações regulatórias.

A segurança da informação em xeque

Dentre os dados compartilhados com ferramentas de IA generativa, foram identificados arquivos altamente sensíveis, como código-fonte, senhas, chaves de acesso, dados regulamentados e informações estratégicas. O compartilhamento desses dados, muitas vezes sem intenção maliciosa, amplia a vulnerabilidade das empresas diante de ataques cibernéticos ou uso indevido por terceiros.

Para mitigar esses riscos, empresas vêm adotando medidas mais rígidas. Entre elas, políticas de bloqueio preventivo de acesso a determinadas aplicações e o estabelecimento de critérios de autorização conforme o tipo de dado a ser manipulado. Algumas organizações também estão investindo em soluções de segurança já integradas à sua infraestrutura tecnológica, com o objetivo de exercer maior controle sobre as interações com a IA.

Visibilidade e governança são prioridades

Um dos principais desafios enfrentados pelas empresas é a falta de visibilidade sobre como os dados são processados dentro das aplicações de IA generativa. A ausência de controle sobre o ciclo de vida dessas informações, desde o envio até o armazenamento e uso final, dificulta a criação de políticas eficientes de governança de dados.

Especialistas recomendam que as empresas desenvolvam estratégias específicas voltadas para a gestão segura da IA. Isso inclui a definição de estruturas de risco personalizadas, com foco em proteger redes, usuários e ativos digitais diante da transformação digital acelerada.

O papel da cultura organizacional

Para além da tecnologia, o comportamento dos colaboradores é fator determinante na exposição a riscos. O entusiasmo com os ganhos de produtividade gerados pela IA precisa ser equilibrado com ações educativas, reforçando a importância do uso responsável dessas ferramentas. Isso passa pela promoção de treinamentos regulares, criação de diretrizes claras e envolvimento direto das lideranças na implementação de boas práticas.

A IA generativa, se bem gerida, pode representar uma aliada estratégica para as empresas. Contudo, seu uso desordenado tende a se tornar um vetor de ameaças internas, principalmente quando não há alinhamento entre as áreas de tecnologia, segurança e recursos humanos.

Recomendação de especialistas

Segundo o relatório da Netskope, a melhor abordagem envolve revisar constantemente as políticas de segurança, realizar auditorias frequentes e garantir que apenas usuários autorizados tenham acesso a determinadas funcionalidades das ferramentas de IA. Além disso, recomenda-se o uso de soluções capazes de identificar e bloquear automaticamente ações que envolvam compartilhamento de dados sensíveis com plataformas de terceiros.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Telecom!

Natália Oliveira
Natália Oliveirahttps://www.itshow.com.br
Jornalista | Analista de SEO | Criadora de Conteúdo
Postagens recomendadas
Outras postagens