Ettevõtted kasutavad generatiivsete AI-tööriistade kaitsmiseks mitut meetodit

Ettevõtted kasutavad generatiivsete AI-tööriistade kaitsmiseks mitut meetodit

Ettevõtted kasutavad generatiivsete AI-tööriistade PlatoBlockchaini andmeluure turvamiseks mitut meetodit. Vertikaalne otsing. Ai.

Üha enam organisatsioone võtab kasutusele generatiivsed AI-tehnoloogiad – esitluste koostamiseks, toetustaotluste täitmiseks ja kirjutamiseks katla kood — turvameeskonnad mõistavad vajadust tegeleda uue küsimusega: kuidas kaitsta tehisintellekti tööriistu?

Üks kolmandik Gartneri hiljutises uuringus vastanutest teatas kumbagi AI-põhiste rakenduste turbetööriistade kasutamine või juurutamine tegeleda generatiivse tehisintellekti kasutamisega oma organisatsioonis kaasnevate riskidega.

Privaatsust suurendavaid tehnoloogiaid (PET) kasutati praegu kõige rohkem, 7% vastanutest, kusjuures 19% ettevõtetest rakendab seda; sellesse kategooriasse kuuluvad võimalused isikuandmete kaitsmiseks, nt homomorfne krüpteerimine, AI-ga loodud sünteetilised andmed, turvaline mitme osapoole arvutus, föderaalne õpeja erinev privaatsus. 17% ei kavatse aga oma keskkonda PET-e juurutada.

Vaid 19% kasutab või rakendab tööriistu mudeli seletatavuse tagamiseks, kuid vastanute seas on märkimisväärne huvi (56%) nende tööriistade uurimise ja mõistmise vastu, et tegeleda generatiivse AI riskiga. Gartneri sõnul saab seletatavust, mudelite jälgimist ja AI-rakenduste turbetööriistu kasutada avatud lähtekoodiga või patenteeritud mudelitel, et saavutada ettevõttekasutajate jaoks vajalik usaldusväärsus ja töökindlus.

Riskid, mille pärast vastajad enim muret teevad, on valed või kallutatud väljundid (58%) ning tehisintellekti loodud koodi haavatavused või lekkinud saladused (57%). Märkimisväärne on see, et 43% nimetas oma organisatsiooni peamiste riskidena AI-ga loodud sisust tulenevaid võimalikke autoriõiguse või litsentsimise probleeme.

"Andmemudelite koolituse osas puudub endiselt läbipaistvus, seega on eelarvamuste ja privaatsusega seotud riski väga raske mõista ja hinnata," kirjutas C-suite'i juht vastuseks Gartneri uuringule.

Juunis National Institute of Standards and Technology (NIST) käivitas avaliku töörühma selle küsimuse lahendamiseks, tuginedes jaanuaris avaldatud tehisintellekti riskijuhtimise raamistikule. Nagu Gartneri andmed näitavad, ettevõtted ei oota NIST-i direktiivide jaoks.

Ajatempel:

Veel alates Tume lugemine