Yritykset luottavat useisiin menetelmiin suojatakseen generatiivisia tekoälytyökaluja

Yritykset luottavat useisiin menetelmiin suojatakseen generatiivisia tekoälytyökaluja

Yritykset luottavat useisiin menetelmiin suojatakseen generatiivisia tekoälytyökaluja PlatoBlockchain Data Intelligencea. Pystysuuntainen haku. Ai.

Kun yhä useammat organisaatiot ottavat käyttöön generatiivisia tekoälyteknologioita – esitysten tekemiseen, apurahahakemusten täyttämiseen ja kirjoittamiseen yleiskoodi - Turvatiimit ymmärtävät, että on tarpeen vastata uuteen kysymykseen: Kuinka turvaat tekoälytyökalut?

Kolmasosa Gartnerin hiljattain tekemän kyselyn vastaajista ilmoitti myös tekoälypohjaisten sovellusten suojaustyökalujen käyttäminen tai käyttöönotto puuttua riskeihin, joita generatiivisen tekoälyn käyttö organisaatiossaan aiheuttaa.

Yksityisyyttä lisääviä tekniikoita (PET) käytettiin tällä hetkellä eniten, 7 prosenttia vastaajista, ja vankka 19 prosenttia yrityksistä ottaa sen käyttöön. tämä luokka sisältää tapoja suojata henkilötietoja, kuten homomorfinen salaus, Tekoälyn luoma synteettinen data, turvallinen monen osapuolen laskenta, yhdistynyt oppiminenja erilainen yksityisyys. Kiinteällä 17 prosentilla ei kuitenkaan ole suunnitelmia ottaa käyttöön PET:itä ympäristöönsä.

Vain 19 % käyttää tai ottaa käyttöön työkaluja mallin selitettävyyteen, mutta vastaajista on huomattava kiinnostus (56 %) tutkia ja ymmärtää näitä työkaluja generatiiviseen tekoälyriskiin puuttumiseksi. Gartnerin mukaan selitettävyys, mallin seuranta ja tekoälysovellusten suojaustyökalut voidaan käyttää avoimen lähdekoodin tai patentoiduissa malleissa luotettavuuden ja luotettavuuden saavuttamiseksi, jota yrityskäyttäjät tarvitsevat.

Eniten vastaajia huolestuttavia riskejä ovat virheelliset tai puolueelliset lähdöt (58 %) sekä tekoälyn luoman koodin haavoittuvuudet tai vuotaneet salaisuudet (57 %). Merkittävää on, että 43 % mainitsi mahdollisia tekijänoikeus- tai lisensointiongelmia, jotka johtuvat tekoälyn luomasta sisällöstä, suurimpana riskinä organisaatiolleen.

"Ei ole vieläkään läpinäkyvyyttä tietomalleista, joita harjoitellaan, joten harhaan ja yksityisyyteen liittyvää riskiä on erittäin vaikea ymmärtää ja arvioida", C-suiten johtaja kirjoitti vastauksena Gartnerin kyselyyn.

Kesäkuussa National Institute of Standards and Technology (NIST) käynnisti julkisen työryhmän auttaa vastaamaan tähän kysymykseen tammikuussa julkaistun tekoälyn riskinhallintakehyksen perusteella. Kuten Gartnerin tiedot osoittavat, yritykset eivät odota NIST-direktiiveille.

Aikaleima:

Lisää aiheesta Pimeää luettavaa