O cenário de cibersegurança está passando por mudanças significativas à medida que novas tecnologias, como a inteligência artificial, continuam a moldar o panorama das ameaças. Em 2025, as organizações enfrentam um cenário onde as técnicas de ataque se tornam cada vez mais sofisticadas, e as estratégias de defesa precisam ser constantemente atualizadas para acompanhar essas inovações.
Principais Tendências e Ameaças no Mundo da Cibersegurança
1. IA dá superpoderes aos atacantes de BEC
Ataques de Business Email Compromise (BEC) têm sido uma preocupação constante para as empresas, mas agora, com a adição de IA, os atacantes estão se tornando mais eficientes. Usando IA, os criminosos conseguem criar mensagens mais convincentes e persuasivas, se passando por executivos ou fornecedores confiáveis. Isso aumenta significativamente as chances de sucesso dos ataques, prejudicando as finanças de empresas ao enganar os funcionários e fazer com que enviem grandes quantias de dinheiro.
Além disso, essa tecnologia também pode ser utilizada pelos defensores. Ferramentas de IA são capazes de identificar e bloquear essas ameaças com mais rapidez e precisão, ajudando as equipes de segurança a se protegerem contra ataques cada vez mais sofisticados. Contudo, a batalha entre atacantes e defensores continua a se intensificar com o avanço dessas tecnologias. (Fonte)
2. Empresas estão perdendo o controle no uso de GenAI
A popularidade das ferramentas de inteligência artificial generativa, ou GenAI, tem crescido significativamente nas organizações. Um estudo da Palo Alto Networks revela que, em média, os funcionários estão utilizando mais de 6 aplicativos de GenAI de alto risco. Isso inclui ferramentas que muitos CISOs (Chief Information Security Officers) desconhecem, aumentando a vulnerabilidade de dados sensíveis dentro das empresas.
O uso não autorizado e descontrolado dessas tecnologias pode levar a sérios riscos de segurança, como o vazamento de informações confidenciais e falhas em processos críticos. O estudo enfatiza a necessidade urgente de as organizações implementarem políticas claras de controle e governança sobre o uso dessas ferramentas de IA, além de educar os funcionários sobre os potenciais riscos de segurança.
3. Automatização de segurança em Multicloud é essencial — mas não é a solução mágica
A segurança em ambientes multicloud é complexa, e os especialistas em segurança afirmam que a automatização pode ser uma ferramenta valiosa. No entanto, ela precisa ser implementada de maneira intencional, com monitoramento constante e orientação humana. A automatização por si só não resolve todos os problemas, e uma abordagem deliberada é necessária para garantir que as práticas de segurança sejam eficazes.
Apesar de ser uma solução promissora, a automatização requer uma integração cuidadosa entre os sistemas de segurança em nuvem, com ajustes contínuos para responder a novas ameaças. A supervisão humana continua sendo essencial para garantir que a segurança não seja comprometida e para evitar falhas que poderiam ser exploradas por atacantes.
4. Setor bancário é o maior alvo de golpes digitais no país
No Brasil, o setor bancário se tornou o principal alvo de campanhas de phishing, conforme revela um relatório da Netskope. Junto com os serviços em nuvem, ele está entre os setores mais visados pelos criminosos digitais, que tentam roubar dados sensíveis e realizar transações fraudulentas. A crescente sofisticação dos ataques exige que as instituições financeiras fortaleçam suas defesas contra esses golpes.
As plataformas de mídias sociais também têm sido alvos frequentes, com criminosos utilizando esses canais para espalhar links fraudulentos e capturar credenciais. O setor bancário, em particular, continua a ser um ponto crítico, exigindo soluções de segurança mais robustas, como a autenticação multifatorial, para proteger os dados e recursos financeiros dos clientes. (Fonte)
5. IA já transforma a prática de cyber, dizem os líderes
Uma pesquisa recente da Salesforce revela que quase 80% dos líderes de segurança da informação no Brasil já reconhecem que a IA está transformando a forma como as práticas de segurança cibernética devem ser abordadas. Eles apontam que a adoção de ferramentas baseadas em IA é crucial para enfrentar o número crescente e a complexidade das ameaças cibernéticas.
Esses líderes também destacam que a IA pode ajudar a identificar padrões de ataque mais rapidamente, realizar varreduras em tempo real e oferecer uma defesa mais proativa contra ameaças. No entanto, a transformação precisa ser cuidadosa e estratégica para que os recursos da IA sejam usados corretamente, sem criar novas vulnerabilidades nas organizações.
6. Ataque simples burla segurança de IA
Pesquisadores de cibersegurança identificaram uma nova técnica de ataque chamada TokenBreak, que pode contornar as proteções de segurança de modelos de grandes linguagens (LLM), com apenas uma mudança de caractere. O ataque explora a maneira como esses modelos tokenizam o texto e consegue induzir falsos negativos, permitindo que conteúdos maliciosos passem despercebidos.
Esse ataque destaca uma fraqueza importante nos sistemas de IA, que, apesar de suas proteções, ainda são suscetíveis a manipulações muito simples. Isso reforça a necessidade de os desenvolvedores e profissionais de segurança melhorarem continuamente os sistemas de IA para evitar essas falhas e proteger os usuários de ataques cibernéticos.
7. Com o ChatGPT, estamos percebendo algo preocupante: não sabemos se o registro é seu, da OpenAI ou do governo
A crescente dependência do ChatGPT e de outros chatbots de IA levanta questões sérias sobre a privacidade e a propriedade dos dados. A incerteza sobre se os registros de dados gerados pertencem ao usuário, à OpenAI ou até ao governo está gerando preocupações sobre quem realmente controla as informações geradas e armazenadas por essas plataformas.
Essa falta de clareza pode ser um obstáculo significativo na proteção de dados pessoais, principalmente em contextos regulamentados, onde a privacidade deve ser garantida. Especialistas alertam que a falta de regulamentação e transparência pode afetar a confiança dos usuários e comprometer a segurança de dados sensíveis. (Fonte)
8. Estudo Preliminar da ANPD sobre IA Generativa Revela Desafios da Proteção de Dados no Brasil
A ANPD (Autoridade Nacional de Proteção de Dados) publicou um estudo preliminar que aborda os desafios enfrentados pelas organizações brasileiras no uso de IA generativa e a proteção de dados pessoais. O estudo indica que a rápida evolução da IA geradora de conteúdo está criando novas dificuldades para garantir a conformidade com a Lei Geral de Proteção de Dados (LGPD).
O estudo sublinha a necessidade urgente de políticas de proteção de dados mais eficazes, além de uma maior conscientização sobre os riscos relacionados ao uso de IA generativa. As empresas devem tomar medidas para garantir que os dados pessoais dos usuários não sejam comprometidos por essas novas tecnologias. (Fonte)
9. Seu chatbot de IA favorito está cheio de mentiras
Embora os chatbots de IA sejam úteis para uma série de tarefas, muitos deles ainda podem gerar respostas imprecisas ou totalmente falsas. Com o aumento do uso de assistentes de IA, como o ChatGPT, há uma crescente preocupação sobre a disseminação de informações incorretas ou enganosas, especialmente quando os bots não são suficientemente treinados para distinguir entre fontes confiáveis e não confiáveis.
Os usuários devem ser cautelosos ao depender de respostas de IA, especialmente em questões críticas que exigem precisão. Embora a IA tenha avançado, ela ainda está longe de ser infalível, e os desenvolvedores devem focar em melhorar a qualidade e a veracidade das respostas fornecidas.
10. Microsoft Copilot: Falha de segurança em zero-click gera preocupações sobre a segurança de agentes de IA
Uma falha crítica no Microsoft 365 Copilot, a ferramenta de IA integrada aos aplicativos do Office, permitiu que hackers acessassem informações sensíveis sem interação do usuário. Conhecida como “EchoLeak”, essa vulnerabilidade explorava um defeito no design dos agentes de IA baseados em LLM, permitindo que os atacantes manipulassem o assistente de IA e burlassem as proteções implementadas.
Embora a Microsoft tenha corrigido o problema, o incidente levanta questões sobre a segurança geral dos agentes de IA e a necessidade de um redesenho fundamental das ferramentas de IA para evitar vulnerabilidades semelhantes no futuro. (Fonte)
Quer ficar sempre atualizado?
👉 Inscreva-se nas minhas aulas semanais e gratuitas sobre carreira em segurança da informação: https://mundociber.com/inscricao-aula-gratuita/
Se gostou deste resumo, compartilhe e marque quem também precisa ficar por dentro dessas notícias!
Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Telecom!