Meta AI-modeller har öppnats med exponerade API-tokens

Meta AI-modeller har öppnats med exponerade API-tokens

Meta AI-modeller öppnade med exponerade API-tokens PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Forskare kunde nyligen få full läs- och skrivåtkomst till Metas Bloom-, Meta-Llama- och Pythia-lager för stora språkmodeller (LLM), i en oroande demonstration av riskerna i leveranskedjan för organisationer som använder dessa förråd för att integrera LLM-funktioner i sina applikationer och operationer.

Åtkomsten skulle ha gjort det möjligt för en motståndare att tyst förgifta träningsdata i dessa allmänt använda LLM:er, stjäla modeller och datauppsättningar och potentiellt utföra andra skadliga aktiviteter som skulle öka säkerhetsriskerna för miljontals nedströmsanvändare.

Exponerade tokens på kramande ansikte

Det säger forskare vid AI-säkerhetsstartupen Lasso Security, som kunde komma åt de Metaägda modellförråden med hjälp av osäkra API-åtkomsttokens de upptäckte på GitHub and the Hugging Face plattform för LLM-utvecklare.

De tokens som de upptäckte för Meta-plattformarna var bland över 1,500 722 liknande tokens de hittade på Hugging Face och GitHub som gav dem olika grader av tillgång till arkiv som tillhör totalt XNUMX andra organisationer. Bland dem var Google, Microsoft och VMware.

"Organisationer och utvecklare bör förstå Hugging Face och andra liknande plattformar fungerar inte [för att säkra] deras användares exponerade tokens", säger Bar Lanyado, säkerhetsforskare på Lasso. Det är upp till utvecklare och andra användare av dessa plattformar att vidta nödvändiga åtgärder för att skydda sin åtkomst, säger han.

"Utbildning krävs samtidigt som man arbetar och integrerar generativa AI- och LLM-baserade verktyg i allmänhet", konstaterar han. "Denna forskning är en del av vårt tillvägagångssätt för att belysa dessa typer av svagheter och sårbarheter, för att stärka säkerheten för dessa typer av problem."

Hugging Face är en plattform som många LLM-proffs använder som en källa för verktyg och andra resurser för LLM-projekt. Företagets huvudsakliga erbjudanden inkluderar Transformers, ett bibliotek med öppen källkod som erbjuder API:er och verktyg för nedladdning och justering förutbildade modeller. Företaget är värd - på GitHub-liknande sätt - mer än 500,000 250,000 AI-modeller och XNUMX XNUMX datauppsättningar, inklusive de från Meta, Google, Microsoft och VMware. Det låter användare lägga upp sina egna modeller och datamängder till plattformen och få tillgång till dem från andra gratis via ett Hugging Face API. Företaget har hittills samlat in cirka 235 miljoner dollar från investerare som inkluderar Google och Nvidia.

Med tanke på plattformens breda användning och växande popularitet beslutade forskare vid Lasso att ta en närmare titt på registret och dess säkerhetsmekanismer. Som en del av övningen försökte forskarna i november 2023 se om de kunde hitta exponerade API-tokens som de kunde använda för att komma åt datamängder och modeller på Hugging Face. De skannade efter exponerade API-tokens på GitHub och på Hugging Face. Inledningsvis gav skanningarna endast ett mycket begränsat antal resultat, särskilt på Hugging Face. Men med en liten justering av skanningsprocessen lyckades forskarna hitta ett relativt stort antal exponerade tokens, säger Lanyado.

Förvånansvärt lätt att hitta exponerade tokens

"När jag gick in på den här forskningen trodde jag att vi skulle kunna hitta en stor mängd exponerade tokens," säger Lanyado. "Men jag var fortfarande mycket förvånad över resultaten, såväl som enkelheten [med] som vi kunde få tillgång till dessa tokens."

Lasso-forskare kunde få tillgång till tokens som tillhör flera toppteknikföretag – inklusive de med hög säkerhetsnivå – och få full kontroll över några av dem, säger Lanyado.

Lasso-säkerhetsforskare hittade totalt 1,976 1,681 tokens över både GitHub och Hugging Face, varav 1,326 370 visade sig vara giltiga och användbara. Av detta var 655 77 på GitHub och XNUMX på Hugging Face. Så många som XNUMX av tokens som Lasso upptäckte hade skrivbehörighet på Hugging Face. Forskarna hittade också tokens som gav dem full tillgång till XNUMX organisationer som använder Meta-Lama, Pythia och Bloom. "Om en angripare hade fått tillgång till dessa API-tokens, kunde de stjäla företags modeller som i vissa fall är deras huvudsakliga verksamhet", säger Lanyado. En angripare med skrivbehörighet kan ersätta de befintliga modellerna med skadliga eller skapa en helt ny skadlig modell i deras namn. Sådana åtgärder skulle ha gjort det möjligt för en angripare att få fotfäste på alla system som använder de komprometterade modellerna, eller stjäla användardata och/eller sprida manipulerad information, konstaterar han.

Enligt Lanyado hittade Lasso-forskare flera tokens associerade med Meta, varav en hade skrivbehörighet till Meta Llama, och två vardera med skrivbehörighet till Pythia och Bloom. API-tokens associerade med Microsoft och VMware hade skrivskyddade privilegier, men de gjorde det möjligt för Lasso-forskare att se alla deras privata datamängder och modeller, säger han.

Lasso avslöjade sina resultat för alla berörda användare och organisationer med en rekommendation att återkalla deras exponerade tokens och ta bort dem från deras respektive arkiv. Säkerhetsleverantören meddelade också Hugging Face om problemet.

"Många av organisationerna (Meta, Google, Microsoft, VMware och fler) och användare vidtog mycket snabba och ansvarsfulla åtgärder", enligt Lassos rapport. "De återkallade tokens och tog bort public access token-koden samma dag som rapporten."

Tidsstämpel:

Mer från Mörk läsning