🚀 A CloudSEK se torna a primeira empresa de segurança cibernética de origem indiana a receber investimentos da Estado dos EUA fundo
Leia mais

Em 28 de fevereiro de 2026, as forças dos EUA e de Israel lançaram ataques coordenados contra o Irã, marcando uma escalada significativa em um ambiente de ameaças regionais já volátil. Conforme observado em casos anteriores de conflito cinético na região, a escalada geopolítica teve um efeito imediato e mensurável no cenário de ameaças cibernéticas. Grupos patrocinados pelo estado iraniano, incluindo APT34, APT33, MuddyWater e APT35, demonstraram historicamente um padrão de pré-posicionamento dentro das redes alvo bem antes dos pontos de conflito geopolítico, com a inteligência de ameaças confirmando posições ativas nas redes ocidentais dos setores de defesa, financeiro e de tecnologia antes da atual escalada.
Essa atividade não existe isoladamente. A região mais ampla do Oriente Médio e Norte da África apresenta um cenário de atores de ameaças em camadas, abrangendo grupos afiliados ao Hamas, como MOLERATS e Gaza Cybergang, operadores vinculados ao Hezbollah com crescentes capacidades de acesso persistente, atores alinhados aos houthis com apoio operacional iraniano e grupos APT russos e chineses com seus próprios interesses estratégicos monitorar e potencialmente influenciar o resultado do conflito. Cada um desses atores demonstrou, em graus variados, a doutrina e a capacidade técnica para conduzir operações de longa duração e baixa visibilidade dentro de uma infraestrutura tecnológica crítica.
Para organizações que operam em ou adjacentes a setores de interesse estratégico para esses atores, esse ambiente de ameaças justifica uma reavaliação das superfícies de ataque que talvez ainda não tenham recebido a atenção de segurança adequada, incluindo a infraestrutura de desenvolvimento de IA abordada neste relatório.
A maioria dos programas de segurança investe pesadamente na proteção de quais sistemas de IA produzir: os modelos, os resultados, as decisões. Muito menos atenção foi dada às plataformas responsáveis por construção esses sistemas.
As plataformas MLOps, a espinha dorsal operacional que gerencia como seus modelos de IA são treinados, como seus conjuntos de dados são armazenados e como seus pipelines de aprendizado de máquina são executados, atualmente são uma das categorias menos seguras de infraestrutura corporativa. A pesquisa da CloudSEK identificou mais de 100 conjuntos de credenciais expostos e mais de 80 implantações de MLOPs acessíveis ao público em apenas 48 horas de verificação. Essas não foram violações sofisticadas. Muitos não precisaram de nenhum tipo de exploração. As credenciais estavam em repositórios públicos do GitHub. Os painéis estavam abertos na Internet sem autenticação. Em vários casos, qualquer pessoa pode registrar uma conta e entrar diretamente em um ambiente de aprendizado de máquina totalmente funcional.
O que um invasor encontra lá dentro não é um aplicativo limitado. É o plano de controle de toda a sua operação de IA: conjuntos de dados de treinamento, modelos treinados, configurações de pipeline, históricos de experimentos e, principalmente, as credenciais de armazenamento em nuvem que se conectam à sua infraestrutura mais ampla da AWS, Google Cloud ou Azure.
Uma única credencial MLOps exposta não é uma violação de dados. É um ponto de vista persistente sobre tudo o que seus sistemas de IA conhecem, aprendem e produzem.
Os ataques que esta pesquisa documenta não parecem ataques. Não há malware. Não há exploração. Não há nota de resgate. Um adversário operando dentro de um ambiente MLOps usa as mesmas interfaces que seus engenheiros usam todos os dias. O download de um modelo parece idêntico, seja seu cientista de dados ou um ator de um estado-nação. A execução de um pipeline de treinamento gera os mesmos registros, independentemente de quem os envie. O acesso a um conjunto de dados deixa a mesma vinculada a uma atividade de pesquisa legítima.
Isso cria uma categoria de ameaça que as ferramentas de segurança tradicionais não foram projetadas para detectar e que a maioria dos manuais de resposta a incidentes não considera.
Mais importante ainda, a forma mais prejudicial desse ataque pode nunca ser detectada. Um adversário com acesso de gravação a um pipeline de treinamento não precisa roubar seu modelo. Eles podem manipulá-lo silenciosamente. Mudanças sutis nos dados de treinamento, nos processos de rotulagem ou nos artefatos do modelo se propagam invisivelmente pelos ciclos de reciclagem. O resultado é um sistema de IA que se comporta de forma diferente de maneiras que podem levar meses para se manifestar e que quase certamente nunca será atribuído a um ator externo. Seu modelo de vigilância começa a ser classificado erroneamente. Seu sistema de detecção de anomalias para sinalizar um padrão específico. Seu funil de decisão automatizado começa a ponderar os sinais de forma diferente. De dentro, parece um desvio de modelo. Do lado de fora, foi sabotagem.
Para organizações cujos sistemas de IA apoiam a tomada de decisões operacionais, modelagem de risco financeiro, detecção de ameaças ou qualquer forma de análise automatizada, esse risco é imediato e material.
Para organizações que operam em ou adjacentes a áreas de defesa, inteligência, infraestrutura crítica ou contratos governamentais, o risco aumenta ainda mais. Grupos iranianos da APT já demonstraram o pré-posicionamento dentro de fornecedores aeroespaciais e de defesa, instituições financeiras e empregadores de tecnologia dos EUA. A superfície de ataque que eles provavelmente explorarão a seguir é a menos defendida atualmente: a infraestrutura que cria e mantém os recursos de IA.
O cálculo estratégico é simples. Um adversário que não consegue igualar sua capacidade de IA por meio de seu próprio desenvolvimento pode, em vez disso, atingir o pipeline que a produz. Roubar o modelo mostra a eles como você pensa. Manipular o pipeline muda da forma que você pensa. A segunda opção é significativamente mais valiosa e muito mais difícil de detectar.
As perguntas que sua liderança de segurança deve ser capaz de responder hoje não são sobre segurança de modelos. Eles tratam da segurança da infraestrutura.
Suas plataformas MLOPs são acessíveis pela Internet pública? Se sim, com quais controles de autenticação? Há alguma credencial associada aos seus pipelines de aprendizado de máquina presente em repositórios de código internos ou externos? Suas integrações de armazenamento em nuvem usam chaves estáticas ou credenciais de curta duração baseadas em funções? O acesso aos seus conjuntos de dados de treinamento e artefatos de modelo é registrado e monitorado com o mesmo rigor do acesso aos seus sistemas de produção? Quando foi a última vez que você auditou as credenciais incorporadas em seus pipelines de CI/CD e arquivos de configuração do ambiente de treinamento?
Se sua equipe de segurança não puder responder a essas perguntas com confiança, sua infraestrutura de IA deve ser considerada em risco.
A injeção imediata, os jailbreaks e os modelos de ataques adversários representam riscos legítimos e bem documentados que a comunidade de segurança continua pesquisando e abordando ativamente. No entanto, eles representam uma camada de uma superfície de ataque significativamente mais ampla. À medida que os sistemas de IA são incorporados em operações críticas em ambientes corporativos, de defesa e inteligência, a infraestrutura responsável por criar e manter esses sistemas exige um escrutínio igual. Esta pesquisa demonstra que as plataformas MLOPs, atualmente uma das categorias menos seguras de infraestrutura corporativa, apresentam uma superfície de ataque estruturalmente significativa e em grande parte não tratada que é diretamente acessível hoje por meio de exposição básica de credenciais e configuração incorreta, sem explorar uma única vulnerabilidade de software.
Proteger sua capacidade de IA exige proteger as plataformas e as credenciais por trás delas. Os modelos dos quais sua organização depende são tão confiáveis quanto os pipelines que os produziram. No momento, para muitas organizações, esses dutos estão expostos.
Essa pesquisa demonstrou que as condições de acesso a essa classe de ataque já existem em grande escala. Credenciais expostas, painéis não autenticados e implantações mal configuradas não são riscos hipotéticos. Eles estão presentes hoje, podem ser descobertos por qualquer pessoa com capacidade básica de escaneamento e estruturalmente alinhados com a doutrina focada na cadeia de suprimentos que os atores de ameaças mais capazes neste momento geopolítico demonstraram repetidamente. Se esses atores já voltaram sua atenção especificamente para a infraestrutura do MLOP é uma questão em aberto. O fato de as condições para que eles façam isso já estejam em vigor não é.
Para a pesquisa técnica completa, incluindo cenários de ataque, descobertas específicas da plataforma e orientação de remediação, consulte o relatório completo do CloudSEK: Infraestrutura de IA como alvo estratégico no conflito cibernético moderno.
[Clique aqui para baixar o artigo de pesquisa completo]