Voltar
General Trends
Tabela de conteúdo

A Inteligência Artificial (IA) surgiu como uma força revolucionária no domínio da cibersegurança, oferecendo mecanismos de defesa robustos e, paradoxalmente, novos caminhos para os cibercriminosos. Sua natureza de uso duplo apresenta um desafio único, onde as próprias ferramentas projetadas para aumentar a segurança também são exploradas para fins maliciosos.

Sumário executivo

Qual é a ameaça?

  • A IA, embora seja uma ferramenta poderosa para aprimorar a segurança cibernética, também representa ameaças significativas para o campo.
  • Essas ameaças decorrem da natureza de uso duplo da IA, em que a mesma tecnologia que pode ser usada para reforçar a segurança cibernética também pode ser explorada por cibercriminosos e atores patrocinados pelo estado nos casos de uso que serão abordados abaixo.

Qual pode ser o impacto?

  • Riscos cibernéticos - não limitados a malware infostealer infecção, negócios comprometimento de e-mail, risco de aumento das tentativas de phishing.
  • Os agentes mal-intencionados podem usar a IA para automatizar e aprimorar os ataques cibernéticos, tornando-os mais sofisticados e difíceis de detectar. Isso inclui campanhas de phishing automatizadas, malware avançado e impulsionado por IA ataques de engenharia social

Introdução: Testando as águas

  • Desde o boom tecnológico que começou na década de 1970 até agora, o mundo sempre foi um jogo de gato e rato. Podemos classificar isso em dois tipos: sucesso ou fracasso. Faça um produto e, por outro lado, você terá alguém com a experiência/ideias para quebrar o produto. Nesse caso, receber informações do adversário (disjuntor) ajuda a invenção a ser resistente a quebras, ajudando os criadores a entender as limitações ou como o produto pode ser usado de forma abusiva ao gosto do adversário.
  • Nos últimos tempos, a ascensão dos LLMs (Modelos de Aprendizagem de Idiomas) e a automação ajudaram os humanos a processar seu trabalho mais rapidamente. Receber informações do Bard, ChatGPT etc. tem sido a norma
  • Naturalmente, entra em cena o adversário = “Como quebrar ou abusar da norma para cumprir exigências maliciosas de acordo com a necessidade, e isso é alimentado por várias motivações”
  • Abaixo, detalharemos o aumento de vários casos de uso em que os pesquisadores notaram que a IA está sendo mal utilizada: -

1. Clonagem de voz

  • Quer que um amigo pegue uma pegadinha? No Github, há uma abundância de projetos blindados com LLMs que podem ser treinados à vontade usando a voz de um alvo. Fazer o mesmo resultará em engenharia social, que, por sua vez, foi abusada por agentes de ameaças. A clonagem de voz nos últimos tempos tem sido usada por adversários para clonar a voz de pessoas com autoridade, onde o alvo foi fixado por meio de reconhecimento atento.
  • Trechos de amostra da voz do alvo são usados para treinar o LLM. Isso, por sua vez, foi usado para forçar os funcionários da empresa-alvo a transferir quantias exorbitantes para contas bancárias, controladas por adversários. Devido à menor conscientização sobre esse crime, mais pessoas tendem a ser ingênuas por cair em tais golpes.

  

Figura 1 - Repositórios de código aberto que facilitam fraudes de clonagem de voz treinando modelos LLM contra a voz da pessoa que está se passando

2.Malware / Ransomware Geração de código

No final de novembro de 2023, o fenômeno da criação do OpenAI, o ChatGPT, foi lançado como uma demonstração em bits. Ao explorar o novo brinquedo do quarteirão, os agentes da ameaça começaram a criar ideias sobre como ele poderia ser explorado.

Um exemplo foi a criação de um script Python que tinha a capacidade de extrair arquivos de determinados formatos pré-especificados quando implantado no ambiente da vítima e, em seguida, fazer o upload dos arquivos para um servidor FTP codificado controlado pelo adversário. Isso levou a mais experimentos de atores para testar os limites do ChatGPT e de outras ferramentas para gerar o seguinte: -

  • Phishing E-mails
  • Scripts maliciosos
  • Vídeos e imagens do Deepfake

              

Figura 2 - Tópico em um fórum de crimes cibernéticos em inglês no final de 2022 - onde um script gerado pelo ChatGPT foi apresentado com o esboço detalhado de sua funcionalidade

Figura 3 - Um vídeo deepfake gerado de forma inteligente, gerado ao pegar a voz do ex-presidente dos EUA Barack Obama e sobrepô-la ao discurso proferido por outro indivíduo

3. Chat malicioso GPT, também conhecido como WormGPT


O WormGPT, uma ramificação das principais ferramentas de IA, ressalta o lado sombrio da IA no cibercrime. Projetado para contornar restrições e apoiar atividades ilícitas, o WormGPT facilita a geração de e-mails de phishing e códigos de malware, representando uma ameaça significativa à segurança cibernética


Nascido da necessidade, quando jailbreaks, desvios e atividades maliciosas estavam sendo bloqueados em todas as extremidades do ChatGPT, o WormGPT prometeu apoiar todas as atividades ilícitas, incluindo a geração de e-mails inteligentes de phishing, geração de códigos de malware, etc. O WormGPT apareceu inicialmente em fóruns clandestinos de crimes cibernéticos e está disponível para indivíduos pelo preço de uma assinatura premium.

  • Os modelos usados para treinar o WormGPT permanecem confidenciais, para evitar serviços imitadores que possam executar os mesmos requisitos, levando à perda de valor.
  • Além disso, o WormGPT garante a privacidade dos dados do usuário, não vazando solicitações ou resultados gerados por um usuário para outros, etc. Nessa época, o ChatGPT enfrentava seus próprios problemas de privacidade, resultando na exposição do histórico de solicitações do usuário e na ingestão de informações privadas/proprietárias de empresas para gerar resultados

Figura 4 - Anúncio de vendas do WormGPT em um fórum clandestino, com suas características sendo descritas

4. Uso de vídeos gerados por IA para se espalhar malware ladrão de informações

O início do ChatGPT trouxe florescimento a várias ideias, uma das quais foi Midjourney. O Midjourney permite que os usuários criem vídeos ou imagens gerados por IA, usando instruções de uma linha. Esses vídeos podem ser inundados no YouTube e em outras plataformas de compartilhamento de vídeos sob o disfarce de vídeos tutoriais que ajudam pessoas ingênuas a baixar software ou software de risco crackeado.

Na descrição desses vídeos, estão os links para versões crackeadas de softwares legítimos, como o Adobe Photoshop Studio, o software Media Player, o AutoCAD etc., hospedados em plataformas incompletas de hospedagem de arquivos, como Mega, Mediafire etc.

Leia Como os agentes de ameaças estão explorando a popularidade do ChatGPT para espalhar malware por meio de contas comprometidas do Facebook, colocando mais de 500.000 pessoas em risco

O que é o malware Infostealer?

  • O malware Infostealer, também conhecido como malware que rouba informações, é um tipo de software malicioso projetado para se infiltrar em um sistema ou rede de computadores para coletar informações confidenciais e transmiti-las a uma infraestrutura dedicada controlada por adversários (Servidores de comando e controle). Esse tipo de malware é criado especificamente para roubar dados, como credenciais de login, informações pessoais, dados financeiros e outras informações confidenciais ou proprietárias, que são salvas automaticamente nos navegadores dos mecanismos de pesquisa.
Figura 5 - Exemplo de um vídeo do Youtube descrevendo as etapas para baixar e instalar uma versão crackeada do software proprietário da Adobe, o Adobe Premiere Pro, de um serviço de hospedagem de arquivos de terceiros

 

Figura 6 - A pesquisa de Pavan sobre o caso de uso acima fornece uma visão geral do risco envolvido no download de software de fontes não confiáveis e que é facilitado pela rápida inundação de vídeos gerados por IA no YouTube

Leia Como os agentes de ameaças abusam dos vídeos do Youtube gerados por IA para espalhar o malware Stealer

Conclusão

Em conclusão, embora a IA tenha trazido avanços significativos à segurança cibernética, ela também introduziu novos desafios e possíveis danos. Os ataques cibernéticos impulsionados por IA estão se tornando mais sofisticados, dificultando o acompanhamento das defesas tradicionais. Além disso, a IA pode ser usada para automatizar e amplificar as ameaças cibernéticas, permitindo ataques mais rápidos e direcionados.

Do lado defensivo, a dependência excessiva da IA na segurança cibernética pode levar a vulnerabilidades e falsos positivos, potencialmente causando interrupções nas operações legítimas. Além disso, a escassez de profissionais qualificados que possam gerenciar e ajustar com eficácia os sistemas de segurança baseados em IA representa um desafio significativo.

Para mitigar os danos causados pela IA na cibersegurança, uma abordagem equilibrada é crucial. Combinar a IA com a experiência humana, o monitoramento regular do sistema e a melhoria contínua nas estratégias de detecção e resposta a ameaças é essencial para se defender com eficácia contra ameaças cibernéticas em evolução. Além disso, regulamentações fortes e considerações éticas são necessárias para garantir o uso responsável da IA na segurança cibernética, maximizando seus benefícios e minimizando seus riscos.

Referências

Noel Varghese
Cyber Threat Researcher
Nenhum item encontrado.

Blogs relacionados