ChatGPT:n aikakaudella tekoälymallit ovat valtavan suosittuja... ja helposti vaarantuvia - Mass Tech Leadership Council

ChatGPT:n aikakaudella tekoälymallit ovat valtavan suosittuja… ja helposti vaarantuvia – Mass Tech Leadership Council

ChatGPT:n aikakaudella tekoälymallit ovat valtavan suosittuja... ja helposti vaarantuvia – Mass Tech Leadership Council PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Kauan ennen kuin vuosi 2023 päättyi, se oli jo kruunattu generatiivisen tekoälyn vuodeksi. ChatGPT:n kaltaisten mallien vauhdittamana, jotka tuottivat yksityiskohtaisia, ärsyttävän inhimillisiä vastauksia käyttäjien kehotuksiin, asiantuntijat ja aloittelijat alkoivat pohtia tekniikan mahdollisia vaikutuksia työhön, koulutukseen ja luovuuteen.

Mutta vaikka nykypäivän suuret kielimallit (LLM) ovat hämmästyttävän kykeneviä, ne ovat myös järkyttävän haavoittuvia, sanoo Khouryn professori Alina Oprea. Hän on tutkinut tekoälyä kyberturvallisuuden kontekstissa yli vuosikymmenen ajan, ja hän on äskettäin ollut mukana laatimassa raporttia, jossa tarkastellaan näitä tekoälyä vastaan ​​tehtyjä hyökkäyksiä – miten ne toimivat, miten ne luokitellaan ja miten ne voidaan (ja eivät voi) olla lievennetty.

"Generatiivista tekoälyä on todella vaikea pitää turvassa", Oprea sanoo. "Näiden mallien mittakaava ja niiden koulutustiedot kasvavat ajan myötä, mikä vain helpottaa näitä hyökkäyksiä. Ja kun alat puhua generatiivisesta tekoälystä, joka menee tekstin lisäksi kuviin ja puheeseen, turvallisuudesta tulee hyvin avoin kysymys."

Kauppaministeriön National Institute of Standards and Technologyn (NIST) julkaisema raportti on päivitys raportista, jonka Oprea laati viime vuonna yhdessä NIST:n Apostol Vassilevin kanssa. Alkuperäinen raportti käsitteli perinteisempää ennustavaa tekoälyä, mutta generatiivisen tekoälyn suosio sen jälkeen kasvanut räjähdysmäisesti, Opera ja Vassilev toivottivat Robust Intelligencen generatiivisen tekoälyn asiantuntijat Alie Fordycen ja Hyrum Andersonin tervetulleeksi laajentamaan projektin tehtävää.

"Nyt meillä on tutkijat, hallitus ja teollisuus työskentelevät yhdessä", Oprea huomautti, "joka on raportin kohdeyleisö."

Raportin mukaan generatiivisten tekoälymallien haavoittuvuus johtuu useista tekijöistä. Ensinnäkin, Oprea huomauttaa, useimmat hyökkäykset ovat "melko helppoja asentaa ja vaativat vain vähän tietämystä tekoälyjärjestelmästä". Toisaalta mallien valtavat harjoitustietojoukot ovat liian suuria, jotta ihmiset voivat seurata ja validoida. Ja mallien taustalla oleva koodi ei ole automatisoitu; se luottaa inhimilliseen maltillisuuteen ja on alttiina ihmisten pahantahtoiselle sekaantumiselle.

Tutkijoiden kvartetin mukaan lopputulos on neljä suurta hyökkäystyyppiä, jotka sekoittavat tekoälyjärjestelmiä ja aiheuttavat niiden toimintahäiriöitä: kiertohyökkäykset, jotka muuttavat mallin syötteitä muuttaakseen sen vasteita, myrkytyshyökkäykset, jotka korruptoivat mallin taustalla olevia algoritmeja tai koulutustietoja, yksityisyyttä. hyökkäykset, jotka houkuttelevat mallia paljastamaan arkaluonteisia koulutustietoja, kuten lääketieteellisiä tietoja, ja väärinkäyttöhyökkäykset, jotka syöttävät vääriä tietoja laillisiin lähteisiin, joista malli oppii. Manipuloimalla mallin syötteitä hyökkääjät voivat valita sen lähdöt etukäteen.

"Tätä voidaan käyttää kaupallisiin tarkoituksiin, mainontaan, haittaohjelmien roskapostin tai vihapuheen tuottamiseen – asioita, joita malli ei yleensä synny", Oprea selittää.

Haitalliset toimijat voivat ylikuormittamatta hallita tekoälymallin harjoittelemaa verkkodataa, avata takaoven ja sitten vaivattomasti ohjata mallin käyttäytymistä sieltä. Kun otetaan huomioon näiden mallien räjähdysmäinen suosio, tällaiset takaovet olisivat jo itsessään huolestuttavia. Mutta vahinko ei lopu tähän.

"Meillä on nyt nämä integroidut sovellukset, jotka käyttävät LLM:itä. Esimerkiksi yritys rakentaa sähköpostiagentin, joka integroituu taustalla olevaan LLM:ään, ja se voi nyt lukea sähköpostisi ja lähettää sähköposteja puolestasi”, Oprea kertoo. "Mutta hyökkääjät voivat käyttää samaa työkalua haittaohjelmien ja roskapostin lähettämiseen tuhansille ihmisille. Hyökkäyspinta on kasvanut, koska integroimme LLM:itä näihin sovelluksiin."

Niin tuhoisaa ja vaarallista kuin vihapuhe ja joukkoroskaposti ovatkin, horisontissa on vielä suurempia turvallisuusongelmia.

"Jotkut sovellukset ovat turvallisuuden kannalta kriittisiä, kuten itseajavat autot", Oprea sanoo. "Jos nämä mallit tekevät vääriä ennusteita, niitä ei voida käyttää."

Mitä voidaan tehdä? Ryhmä valmisteli raportin, jonka he aikovat päivittää vuosittain, muutamille yleisöille – poliittisille päättäjille, tekoälykehittäjille ja tutkijoille, jotka voivat käyttää raportin taksonomiaa oman työnsä perustana tai kontekstina. Oprean mukaan kaikilla näillä ryhmillä on tehtävänä varmistaakseen, että tekoälymallit mukautuvat inhimillisiin arvoihin, säilyttävät yksityisyyden ja toimivat käyttäjien parhaan edun mukaisesti. Hän kuitenkin myöntää, että jokaisen raportissa esiin tuodun ongelman käsitteleminen on haastavaa ja että jos joku etsii ratkaisuja lieventämisen sijaan, on pahasti väärässä.

"Hyökkäyksiä on paljon enemmän kuin lievennyksiä, ja jokaiseen mainitsemaamme lievennykseen liittyy kompromissi tai suorituskyky, mukaan lukien mallin tarkkuuden heikkeneminen", Oprea varoittaa. "Liikennykset eivät tule ilmaiseksi ja tekoälyn turvaaminen on todella haastavaa, mutta toivomme, että raportti tarjoaa hyödyllisen lähtökohdan hyökkäysten ymmärtämiseen."

Aikaleima:

Lisää aiheesta MassTLC