22.1 C
São Paulo
terça-feira, dezembro 3, 2024
InícioCibersegurançaChatGPT tem ajudado golpistas a praticarem golpes cibernéticos cada vez mais convincentes

ChatGPT tem ajudado golpistas a praticarem golpes cibernéticos cada vez mais convincentes

O ChatGPT, chatbot de inteligência artificial da OpenAI que conversa com os usuários em linguagem natural e nos ajuda em vários processos, também tem sido usado de maneira mal-intencionada por golpistas. A razão é simples, mesmo sem o GPT-4, a ferramenta já consegue gerar desde textos convincentes e em tom natural até códigos dos mais variados.

Segundo o relatório Norton Cyber Safety Pulse Report – The Cyber Risks of ChatGPT, divulgado no começo do mês, usuários e empresas tem enfrentado riscos cibernéticos preocupantes atualmente.

Entre os principais destaques do estudo estão o aumento dos ataques de phishing em escala, a criação cada vez mais rápida de malware, a geração de conteúdo deepfake e os riscos associados à inteligência artificial, incluindo os bots de conversação, como o ChatGPT.

Entenda como o ChatGPT pode ser usado para golpes

ChatGPT tem ajudado golpistas a praticarem golpes cibernéticos cada vez mais convincentes

Os cibercriminosos conseguem se aproveitar do ChatGPT para criar conversas enganosas e persuadir os usuários a fornecer informações confidenciais, como senhas e números de cartão de crédito. Além disso, o ChatGPT pode ser usado para espalhar conteúdo enganoso e informações falsas em massa.

Outra ameaça significativa identificada no relatório é a geração de conteúdo deepfake. Com a ajuda da inteligência artificial, é possível criar vídeos e imagens falsos que parecem reais. Isso pode ser usado para difamar ou enganar pessoas e empresas, criando problemas de reputação e confiança. As organizações precisam estar preparadas para lidar com a possibilidade de serem vítimas de deepfakes e terem protocolos claros para identificar e combater esses ataques.

O phishing em escala é uma forma de ataque cibernético que visa enganar os usuários para fornecerem informações confidenciais ou cliquem em links maliciosos. Os cibercriminosos usam técnicas sofisticadas de engenharia social para tornar esses ataques mais eficazes.

O relatório também destaca a necessidade de as empresas investirem em programas de treinamento de conscientização de segurança cibernética para educar seus funcionários sobre como identificar e evitar esses ataques. Além disso, o estudo destaca a criação mais rápida de malware, que representa uma ameaça crescente para as empresas e indivíduos. 

GPT-4 pode piorar o problema

Um relatório da Check Point Research (CPR) publicado esta semana com uma análise inicial do GPT-4 mostra que existem cinco cenários nos quais criminosos poderiam usá-lo para ataques cibernéticos, assim a tendência é que o problema se agrave ainda mais com a nova versão do modelo de IA da OpenAI.

Os hackers estão sempre encontrando maneiras de criar novos tipos de malware que são mais difíceis de detectar e mais fáceis de espalhar, e o ChatGPT pode ser usado para agilizar este processo. As empresas precisam estar preparadas para lidar com essas ameaças, implementando medidas de segurança robustas e atualizadas regularmente.

Assine nossa Newsletter para receber os melhores conteúdos do Itshow em sua caixa de entrada.

Erika Rodrigues
Erika Rodrigues
Sou repórter e redatora no Itshow. Já produzi diversas matérias como jovem repórter do Núcleo de Jornalismo Investigativo da Record TV, onde também fiz parte da equipe de apuração da Agência Record, abastecendo os principais jornais da casa, além do portal R7. Com dedicação e comprometimento, estou sempre em busca de novos desafios e oportunidades de crescimento em carreira.
Postagens recomendadas
Outras postagens