Holly Elmore conduce un protest pentru siguranța open-source

Holly Elmore conduce un protest pentru siguranța open-source

Holly Elmore conduce un protest asupra siguranței open-source PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Într-o mișcare îndrăzneață împotriva poziției recente a Meta privind inteligența artificială (AI) cu sursă deschisă, Holly Elmore, un avocat al siguranței AI, a condus o demonstrație în afara bazei Meta din San Francisco.

Miezul disputei constă în potențialele pericole ale eliberării libere a unor modele puternice de AI, despre care Elmore și susținătorii ei susțin că ar putea duce la riscuri de „proliferare ireversibilă”.

Meta a agitat apele tehnologice la începutul acestui an eliberarea ponderea familiei sale de modele LLaMA pentru cercetătorii AI, o decizie care diferă semnificativ de politicile altor giganți ai tehnologiei. Aceste greutăți, vitale pentru funcționarea modelului, pot fi manipulate și modificate o dată în mâinile experților, stârnind îngrijorări cu privire la utilizarea abuzivă. Într-adevăr, nu a durat mult pentru ca aceste greutăți să fie scurs online, intensificând criticile la adresa abordării open-source a lui Meta.

Riscurile eliberării greutăților

Elmore, cândva asociată cu think tank-ul Rethink Priorities, și-a exprimat îngrijorările:

„Eliberarea greutăților este o politică periculoasă, deoarece modelele pot fi modificate de oricine și nu pot fi rechemate.”

Ea a subliniat amenințarea în creștere pe măsură ce modelele devin mai avansate și mai puternice. Atunci când ponderile modelului sunt disponibile în mod deschis, acestea pot fi utilizate pentru activități rău intenționate, de la construirea de scheme de phishing până la planificare. atacuri cibernetice. Odată ce greutățile sunt în mână, avertizează Elmore, există o ușurință neliniștitoare de a ocoli balustradele de siguranță.

Peter S. Park de la MIT face ecou aceste sentimente. El avertizează asupra pericolelor în cazul în care abordarea actuală open-source este transferată către AI mai avansate, care ar putea funcționa cu o autonomie mai mare, permițând astfel utilizarea greșită la o scară mai mare și mai dăunătoare.

Un contraargument: Apărarea open-source

Stella Biderman EleutherAI oferă totuși o perspectivă diferită. Biderman pune sub semnul întrebării ipoteza imediată că eliberarea ponderilor modelului se corelează direct cu potențiala utilizare greșită. Ea crede că termenul „proliferare” asociat cu armele de distrugere în masă este înșelător în contextul AI. Susținând că elementele de bază pentru construirea modelelor de limbaj mari sunt deja la vedere, Biderman consideră că secretul ar putea să nu fie panaceul pentru potențialele abuzuri.

Ea adaugă că îndemnul companiilor să păstreze secretul în jurul modelelor lor ar putea avea „consecințe grave în aval pentru transparență, conștientizarea publicului și știință”. O astfel de politică ar putea dăuna, din neatenție, cercetătorilor și entuziaștilor independenți mai mult decât protejează împotriva potențialelor amenințări.

Navigarea în apele open-source în AI

Termenul 'open-source' în domeniul AI este încurcat. După cum subliniază Stefano Maffulli de la Open Source Initiative (OSI), diferite organizații au cooptat termenul, ceea ce duce la o înțelegere ambiguă a ceea ce înseamnă cu adevărat în AI. Pentru ca software-ul să fie cu adevărat open-source, toate componentele sale, de la codul sursă la datele de instruire, trebuie să fie accesibile public și reutilizabile.

Viitorul AI cu sursă deschisă este încă în formă, OSI încercând în mod activ să-și definească parametrii. Maffulli rămâne neclintit cu privire la importanța unei abordări deschise, subliniind că AI poate fi „de încredere, responsabilă și responsabilă” doar dacă se aliniază cu principiile open-source.

În timp ce dezbaterea despre IA cu sursă deschisă este departe de a fi soluționată, un lucru este clar: progresul rapid al tehnologiei necesită un echilibru atent între accesibilitate și securitate. Pe măsură ce companii precum Meta continuă cu politicile lor, comunitatea tehnologică și publicul vor continua să se confrunte cu provocările și implicațiile AI open-source.

Timestamp-ul:

Mai mult de la MetaNews