Kolm peamist andmete privaatsusprobleemi, millega tehisintellekt täna silmitsi seisab – The Daily Hodl

Kolm peamist andmete privaatsusprobleemi, millega tehisintellekt täna silmitsi seisab – The Daily Hodl

HodlXi külalispostitus  Esitage oma postitus

 

AI (tehisintellekt) on tekitanud meeletut elevust nii tarbijates kui ka ettevõtetes - mida juhib kirglik usk, et LLM-id (suured keelemudelid) ja sellised tööriistad nagu ChatGPT muudavad meie õppimis-, töö- ja eluviisi.

Kuid nagu Interneti algusaegadel, hüppavad kasutajad sisse, mõtlemata sellele, kuidas nende isikuandmeid kasutatakse - aja selle mõju nende privaatsusele.

AI-ruumis on juba olnud lugematu arv näiteid andmetega seotud rikkumistest. 2023. aasta märtsis võttis OpenAI ajutiselt kasutusele ChatGPT offline pärast "olulist" viga võimaldas kasutajatel näha võõraste inimeste vestluste ajalugu.

Sama viga tähendas abonentide makseteavet - sealhulgas nimed, e-posti aadressid ja osalised krediitkaardinumbrid - olid ka avalikus omandis.

2023. aasta septembris ilmus tahtmatult hämmastavalt 38 terabaiti Microsofti andmeid. lekkinud töötaja poolt, küberturvalisuse eksperdid hoiatasid, et see oleks võinud võimaldada ründajatel tungida AI mudelitesse pahatahtliku koodiga.

Ka teadlased on suutnud manipuleerida AI süsteemid konfidentsiaalsete dokumentide avaldamiseks.

Vaid mõne tunniga suutis rühm nimega Robust Intelligence hankida Nvidia tarkvarast isikut tuvastavat teavet ja mööda minna kaitsemeetmetest, mille eesmärk oli takistada süsteemil teatud teemade arutamist.

Kõigist nendest stsenaariumitest saadi õppetunnid, kuid iga rikkumine illustreerib võimsalt väljakutseid, mis tuleb ületada, et tehisintellekt muutuks meie elus usaldusväärseks jõuks.

Gemini, Google'i vestlusrobot, tunnistab isegi, et kõiki vestlusi töötlevad ülevaatajad - rõhutades selle süsteemi läbipaistvuse puudumist.

"Ärge sisestage midagi, mida te ei soovi, et teie üle vaadatakse või mida te ei kasutata," hoiatab kasutajate hoiatus.

Tehisintellekt läheb kiiresti kaugemale tööriistast, mida õpilased kasutavad kodutööde tegemiseks või mida turistid Rooma reisi ajal soovituste saamiseks toetuvad.

Tundlikud arutelud sõltuvad sellest üha enam - ja toitis kõike alates meditsiinilistest küsimustest kuni meie töögraafikuteni.

Seetõttu on oluline astuda samm tagasi ja mõtiskleda kolme peamise andmeprivaatsusprobleemi üle, millega tehisintellekt täna silmitsi seisab, ja selle üle, miks need meile kõigile olulised on.

1. Viibad ei ole privaatsed

Sellised tööriistad nagu ChatGPT jätavad varasemad vestlused meelde, et neile hiljem tagasi pöörduda. Kuigi see võib parandada kasutajakogemust ja aidata koolitada LLM-e, kaasneb sellega risk.

Kui süsteemi häkkimine õnnestub, on reaalne oht, et viipasid avalikus foorumis avaldatakse.

Kui tehisintellekti töö eesmärgil kasutatakse, võivad lekkida potentsiaalselt piinlikud üksikasjad kasutaja ajaloost ja ka äriliselt tundlikku teavet.

Nagu Google’ilt nägime, võib arendusmeeskond kõik esildised ka üle vaadata.

Samsung võttis selle nimel meetmeid 2023. aasta mais, kui keelas töötajatel generatiivsete AI-tööriistade kasutamise täielikult. See tuli pärast töötajat laetud konfidentsiaalne lähtekood ChatGPT-le.

Tehnikahiiglane oli mures, et seda teavet on raske hankida ja kustutada, mis tähendab, et IP (intellektuaalomand) võib lõpuks levida avalikkusele.

Apple, Verizon ja JPMorgan on astunud sarnaseid samme, aruannete kohaselt alustas Amazon mahasurumist pärast seda, kui ChatGPT vastused sarnanesid tema enda siseandmetega.

Nagu näete, ulatuvad mured kaugemale sellest, mis juhtuks andmetega seotud rikkumise korral, vaid ka väljavaade, et tehisintellektisüsteemidesse sisestatud teavet saab uuesti kasutada ja laiemale publikule levitada.

Sellised ettevõtted nagu OpenAI on juba olemas ees mitu kohtuasja seoses väidetega, et nende vestlusrobotid koolitati autoriõigustega kaitstud materjali abil.

2. Organisatsioonide koolitatud kohandatud AI mudelid ei ole privaatsed

See viib meid kenasti järgmise punkti juurde - Kuigi üksikisikud ja ettevõtted saavad luua oma kohandatud LLM-mudeleid oma andmeallikate põhjal, ei ole nad täielikult privaatsed, kui nad eksisteerivad sellise platvormi nagu ChatGPT piires.

Lõppkokkuvõttes ei saa kuidagi teada, kas nende massiivsete süsteemide koolitamiseks kasutatakse sisendeid - või kas isikuandmeid võidakse tulevastes mudelites kasutada.

Nagu pusle, saab mitmest allikast pärit andmepunkte koondada, et moodustada põhjalik ja murettekitavalt üksikasjalik ülevaade kellegi identiteedist ja taustast.

Suuremad platvormid ei pruugi pakkuda ka üksikasjalikke selgitusi selle kohta, kuidas neid andmeid salvestatakse ja töödeldakse, ning ei saa loobuda funktsioonidest, mis kasutajale ebamugavad on.

Lisaks kasutaja juhistele reageerimisele on AI-süsteemidel üha enam võimalus lugeda ridade vahelt ja tuletada kõike alates inimese asukohast kuni tema isiksuseni.

Andmetega seotud rikkumise korral on võimalikud kohutavad tagajärjed. Võidakse korraldada uskumatult keerukaid andmepüügirünnakuid - ja kasutajad, kes sihivad teavet, mille nad olid tehisintellekti süsteemi konfidentsiaalselt sisestanud.

Teised võimalikud stsenaariumid hõlmavad seda, et neid andmeid kasutatakse kellegi identiteedi oletamiseks, olgu selleks siis pangakontode avamise rakenduste või võltsitud videote kaudu.

Tarbijad peavad jääma valvsaks isegi siis, kui nad ise tehisintellekti ei kasuta. Tehisintellekti kasutatakse üha enam seiresüsteemide toiteks ja näotuvastustehnoloogia täiustamiseks avalikes kohtades.

Kui sellist infrastruktuuri ei rajata tõeliselt privaatses keskkonnas, võidakse lugematute kodanike kodanikuvabadusi ja privaatsust nende teadmata rikkuda.

3. Privaatseid andmeid kasutatakse tehisintellektisüsteemide koolitamiseks

On muret, et suuremad AI-süsteemid on kogunud oma luureandmeid lugematul arvul veebilehtedel.

Hinnanguliselt kasutati ChatGPT koolitamiseks 300 miljardit sõna - see on 570 gigabaiti andmemahtu - koos raamatute ja Vikipeedia kirjetega andmekogumite hulgas.

Algoritmid on teadaolevalt sõltuvad ka sotsiaalmeedia lehtedest ja veebikommentaaridest.

Mõne neist allikatest võiksite väita, et selle teabe omanikel oleks olnud mõistlik ootus privaatsusele.

Aga siin on asi - paljud tööriistad ja rakendused, millega me iga päev suhtleme, on juba tugevalt AI mõjutatud - ja reageerida meie käitumisele.

Teie iPhone'i näo ID kasutab teie välimuse peente muutuste jälgimiseks tehisintellekti.

TikToki ja Facebooki tehisintellektil töötavad algoritmid annavad sisusoovitusi varem vaadatud klippide ja postituste põhjal.

Hääleabilised nagu Alexa ja Siri sõltuvad samuti suuresti masinõppest.

Seal on peadpööritav AI idufirmade tähtkuju ja igaühel neist on konkreetne eesmärk. Kuid mõned on kasutajaandmete kogumise, salvestamise ja rakendamise osas läbipaistvamad kui teised.

See on eriti oluline, kuna tehisintellekt avaldab mõju tervishoiuvaldkonnale - alates meditsiinilisest pildistamisest ja diagnoosimisest kuni arvestuse ja ravimiteni.

Viimaste aastate privaatsusskandaalidesse sattunud Interneti-ettevõtetest tuleb õppida.

Naiste terviserakendus Flo oli süüdistatav regulaatorid jagasid 2010. aastatel oma kasutajate kohta intiimseid üksikasju Facebookile ja Google'ile.

Kuhu me siit läheme

AIl on järgmistel aastatel meie kõigi eludele kustumatu mõju. LLM-id muutuvad iga päevaga paremaks ja uued kasutusjuhtumid ilmnevad jätkuvalt.

Siiski on reaalne oht, et reguleerivad asutused näevad vaeva, et sammu pidada, kuna tööstus liigub meeletu kiirusega.

Ja see tähendab, et tarbijad peavad hakkama ise oma andmeid turvama ja jälgima, kuidas neid kasutatakse.

Detsentraliseerimine võib siin olulist rolli mängida ja takistada suurte andmemahtude sattumist suurte platvormide kätte.

DePIN-idel (detsentraliseeritud füüsilise infrastruktuuri võrgud) on potentsiaal tagada, et igapäevased kasutajad kogevad kõiki tehisintellekti eeliseid ilma nende privaatsust kahjustamata.

Krüpteeritud viibad ei anna mitte ainult palju isikupärasemaid tulemusi, vaid ka privaatsust säilitavad LLM-id tagavad kasutajatele täieliku kontrolli oma andmete üle kogu aeg. - ja kaitse selle väärkasutamise eest.


Chris Were on ettevõtte tegevjuht Verida, detsentraliseeritud, iseseisev andmevõrk, mis annab üksikisikutele võimaluse kontrollida oma digitaalset identiteeti ja isikuandmeid. Chris on Austraalias asuv tehnoloogiaettevõtja, kes on rohkem kui 20 aastat pühendunud uuenduslike tarkvaralahenduste väljatöötamisele.

 

Vaadake HodlXi uusimaid pealkirju

Jälgi meid puperdama Facebook Telegramm

Tutvu Viimased tööstuse teadaanded  

Top Three Data Privacy Issues Facing AI Today - The Daily Hodl PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Kohustustest loobumine: The Daily Hodlis avaldatud arvamused ei ole investeerimisnõuanded. Investorid peaksid enne Bitcoini, krüptovaluutasse või digitaalvarasse tehtavate riskantsete investeeringute tegemist tegema oma hoolsuskohustuse. Pange tähele, et ülekanded ja tehingud on teie enda vastutusel ja kõik võimalikud kaotused on teie vastutusel. Daily Hodl ei soovita krüptovaluutade ega digitaalsete varade ostmist ega müümist, samuti pole The Daily Hodl investeerimisnõustaja. Pange tähele, et The Daily Hodl osaleb sidusettevõtte turunduses.

Loodud pilt: Midjourney

Ajatempel:

Veel alates Daily Hodl