Mais de 100 modelos maliciosos de execução de código no Hugging Face

Mais de 100 modelos maliciosos de execução de código no Hugging Face

Os pesquisadores descobriram mais de 100 modelos maliciosos de aprendizado de máquina (ML) na plataforma Hugging Face AI que podem permitir que invasores injetem código malicioso nas máquinas dos usuários.

Embora o Hugging Face implemente medidas de segurança, as descobertas destacam o risco crescente de “armamento” de modelos disponíveis publicamente, pois podem criar uma porta dos fundos para os invasores.

As descobertas da JFrog Security Research fazem parte de um estudo em andamento para analisar como os hackers podem usar o ML para atacar os usuários.

Conteúdo prejudicial

De acordo com um artigo de Computação, os pesquisadores desenvolveram um sistema de digitalização avançado para examinar modelos hospedados na plataforma Hugging Face AI, como PyTorch e Tensorflow Keras.

Hugging Face é uma plataforma desenvolvida para compartilhar modelos, conjuntos de dados e aplicativos de IA. Ao analisar os modelos, os pesquisadores descobriram cargas prejudiciais “dentro de modelos aparentemente inócuos”.

Isso ocorre apesar do fato de Hugging Face executar medidas de segurança como malware e verificação de picles. No entanto, a plataforma não restringe o download de modelos que possam ser potencialmente prejudiciais e também permite disponibilizar publicamente Modelos de IA para ser abusado e transformado em arma pelos usuários.

Ao examinar a plataforma e os modelos existentes, os pesquisadores de segurança da JFrog descobriram cerca de 100 modelos de IA com funcionalidades maliciosas, de acordo com seu relatório. Denunciar.

Alguns desses modelos, indica o relatório, são capazes de executar código nas máquinas dos usuários, “criando assim um backdoor persistente para os invasores”.

Os pesquisadores também indicaram que tais descobertas excluem falsos positivos. Estes, disseram eles, são uma representação precisa da prevalência de modelos maliciosos na plataforma.

Veja também: Apple redireciona equipe automotiva para desaceleração do mercado pós-EV de IA

Os exemplos

Segundo o relatório do JFrog, um dos casos “alarmantes” envolve um PyTorch modelo. O modelo teria sido carregado por um usuário identificado como “baller423”, que foi posteriormente excluído da plataforma Hugging Face.

Ao examinar mais detalhadamente o modelo, os pesquisadores notaram que ele continha uma carga maliciosa, permitindo estabelecer um shell reverso em um host especificado (210.117.212.93).

O pesquisador sênior de segurança da JFrog, David Cohen, disse: “(É) notavelmente mais intrusivo e potencialmente malicioso, pois estabelece uma conexão direta com um servidor externo, indicando uma potencial ameaça à segurança, em vez de uma mera demonstração de vulnerabilidade”, escreveu ele.

Isso aproveita “o método '_reduce_' do módulo pickle do Python para executar código arbitrário ao carregar o arquivo de modelo, ignorando efetivamente os métodos de detecção convencionais”.

Os pesquisadores também reconheceram que a mesma carga estava criando conexões para diferentes endereços IP, “sugerindo que os operadores podem ser pesquisadores, e não hackers mal-intencionados”.

Mais de 100 modelos maliciosos de execução de código no Hugging Face PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Um alerta

A equipe JFrog observou que as descobertas são um alerta para o Hugging Face, mostrando que sua plataforma é propensa a manipulação e ameaças potenciais.

“Esses incidentes servem como lembretes comoventes das ameaças contínuas enfrentadas pelos repositórios Hugging Face e outros repositórios populares, como o Kaggle, que podem comprometer a privacidade e a segurança das organizações que utilizam esses recursos, além de representar desafios para os engenheiros de IA/ML”, disse Os pesquisadores.

Isto vem como ameaças à segurança cibernética em todo o mundo estão a aumentar, alimentados pela proliferação de ferramentas de IA, com maus atores a abusarem delas com intenções maliciosas. Os hackers também estão usando IA para promover ataques de phishing e enganar as pessoas.

Contudo, a equipe JFrog fez outras descobertas.

Um playground para pesquisadores

Os pesquisadores também notaram que Abraçando o rosto evoluiu para um playground para pesquisadores “que desejam combater ameaças emergentes, como demonstrado pela diversidade de táticas para contornar suas medidas de segurança”.

Por exemplo, a carga carregada por “baller423” iniciou uma conexão shell reversa para um intervalo de endereços IP que pertence à Kreonet (Korea Research Environment Open Network).

De acordo com o Leitura escura, Kreonet é uma rede de alta velocidade na Coreia do Sul que apoia pesquisas avançadas e atividades educacionais; “portanto, é possível que pesquisadores ou profissionais de IA estejam por trás do modelo.”

“Podemos ver que a maioria das cargas 'maliciosos' são, na verdade, tentativas de pesquisadores e/ou recompensas de bugs para obter a execução de código para fins aparentemente legítimos”, disse Cohen.

Apesar dos propósitos legítimos, a equipa JFrog alertou, no entanto, que as estratégias utilizadas pelos investigadores demonstram claramente que plataformas como o Hugging Face estão abertas a ataques à cadeia de abastecimento. Estes, de acordo com a equipe, podem ser personalizados para focar em dados demográficos específicos, como engenheiros de IA ou ML.

Carimbo de hora:

Mais de MetaNotícias