Hackers estão usando IA generativa para ciberataques mais sofisticados, diz Cisco

Saiba como os cibercriminosos usam a Inteligência Artificial para o mal, segundo estudo da Cisco Talos.

Saiba como os cibercriminosos usam a Inteligência Artificial para o mal, segundo estudo da Cisco Talos.

Segundo o novo estudo da Cisco Talos, cibercriminosos têm explorado de forma alarmante os chamados LLMs (Large Language Models) — modelos de linguagem como os que alimentam ferramentas de IA generativa — para automatizar, aprimorar e escalar ataques cibernéticos. Alguns deles chegaram a desenvolver modelos próprios sem restrições com o objetivo de vendê-los a outros cibercriminosos. Entre eles, estão aplicativos como GhostGPT, WormGPT, DarkGPT, DarkestGPT e FraudGPT.


O que são LLMs sem censura e por que eles preocupam tanto?

Imagine uma IA sem filtros. Literalmente.

Ao contrário dos modelos comerciais, que contam com barreiras de segurança e ética para bloquear conteúdos perigosos, os LLMs sem censura operam livremente, gerando conteúdos sensíveis, ofensivos ou ilegais sob demanda. Eles podem, por exemplo, escrever e-mails de phishing convincentes, desenvolver códigos de malware ou criar páginas fraudulentas.

Um dos exemplos citados pela Cisco Talos é o OnionGPT, anunciado no fórum Dread, conhecido ponto de encontro da comunidade hacker.

OnionGPT oferecido no fórum Dread

Como os hackers estão utilizando IA para ataques?

De acordo com o relatório, os cibercriminosos têm conectado esses modelos a ferramentas externas, criando verdadeiras fábricas automatizadas de ataques. Entre os usos mais recorrentes:

  • Envio de e-mails maliciosos altamente personalizados
  • Verificação automatizada de cartões de crédito roubados
  • Mapeamento de vulnerabilidades em sites e redes
  • Criação de scripts maliciosos e exploits
  • Redação de conteúdo para phishing e engenharia social

Esses modelos, quando rodando localmente com interfaces como Ollama ou variações do Llama 2 Uncensored, são facilmente acessíveis e operam fora do alcance das políticas de segurança das grandes plataformas. “É como ter um consultor técnico altamente capacitado, mas que trabalha para o lado errado”, alerta o relatório.

Exemplo de prompt de e-mail de ataque e saída do Llama 2 Uncensored

Hackers agora desenvolvem suas próprias IAs

Um dos pontos mais alarmantes do estudo é que os cibercriminosos não estão apenas usando IAs pré-existentes — eles estão construindo suas próprias versões, sem qualquer tipo de bloqueio ou monitoramento.

O FraudGPT, por exemplo, é anunciado com uma lista extensa de “capacidades”: escrever malware indetectável, criar páginas de phishing sofisticadas, identificar caixas de cartões sem verificação VBV, entre outras ações criminosas.

A Cisco Talos relata que tentou negociar acesso ao FraudGPT com um usuário do Telegram chamado CanadianKingpin12. Após trocas intensas de mensagens e tentativas frustradas de login, ficou claro que o suposto vendedor estava operando um golpe, possivelmente para atrair e explorar outros cibercriminosos iniciantes.


IA não cria novos ataques — mas multiplica os antigos

Apesar do potencial destrutivo, o relatório da Cisco faz um alerta técnico importante: a IA, por si só, não inventa novas armas digitais. Em vez disso, ela atua como um amplificador de ameaças conhecidas, tornando-as mais rápidas, mais baratas e mais difíceis de detectar.

Confira todo o relatório da Cisco Talos neste link.

Carregar comentários