Topp tre datavernproblemer som AI står overfor i dag - The Daily Hodl

Topp tre datavernproblemer som AI står overfor i dag – The Daily Hodl

HodlX Gjestepost  Send inn innlegget ditt

 

AI (kunstig intelligens) har skapt vanvittig begeistring blant både forbrukere og bedrifter - drevet av en lidenskapelig tro på at LLM-er (store språkmodeller) og verktøy som ChatGPT vil forandre måten vi studerer, jobber og lever på.

Men akkurat som i internetts tidlige dager, hopper brukerne inn uten å vurdere hvordan deres personlige data brukes - Enog hvilken innvirkning dette kan ha på personvernet deres.

Det har allerede vært utallige eksempler på datainnbrudd innenfor AI-området. I mars 2023 tok OpenAI midlertidig ChatGPT offline etter at en "betydelig" feil betydde at brukere kunne se samtalehistoriene til fremmede.

Den samme feilen betydde betalingsinformasjonen til abonnenter - inkludert navn, e-postadresser og delvise kredittkortnumre - var også i det offentlige domene.

I september 2023 ble svimlende 38 terabyte med Microsoft-data utilsiktet lekket av en ansatt, med cybersikkerhetseksperter som advarte om at dette kunne ha tillatt angripere å infiltrere AI-modeller med ondsinnet kode.

Det har forskere også kunnet manipulere AI-systemer til å avsløre konfidensielle poster.

På bare noen få timer var en gruppe kalt Robust Intelligence i stand til å be om personlig identifiserbar informasjon fra Nvidia-programvare og omgå sikkerhetstiltak designet for å hindre systemet i å diskutere visse emner.

Leksjoner ble lært i alle disse scenariene, men hvert brudd illustrerer kraftig utfordringene som må overvinnes for at AI skal bli en pålitelig og pålitelig styrke i livene våre.

Gemini, Googles chatbot, innrømmer til og med at alle samtaler behandles av menneskelige anmeldere - understreker mangelen på åpenhet i systemet.

"Ikke skriv inn noe du ikke ønsker å bli vurdert eller brukt," sier et varsel til brukere.

AI beveger seg raskt forbi et verktøy som studenter bruker til leksene sine, eller som turister stoler på for å få anbefalinger under en tur til Roma.

Det blir i økende grad avhengig av sensitive diskusjoner - og matet alt fra medisinske spørsmål til arbeidsplanene våre.

På grunn av dette er det viktig å ta et skritt tilbake og reflektere over de tre viktigste datapersonvernproblemene som AI står overfor i dag, og hvorfor de betyr noe for oss alle.

1. Forespørsler er ikke private

Verktøy som ChatGPT husker tidligere samtaler for å kunne referere tilbake til dem senere. Selv om dette kan forbedre brukeropplevelsen og hjelpe med å trene LLM-er, kommer det med risiko.

Hvis et system er vellykket hacket, er det en reell fare for at spørsmål blir eksponert i et offentlig forum.

Potensielt pinlige detaljer fra en brukers historie kan lekkes, så vel som kommersielt sensitiv informasjon når AI blir distribuert til jobbformål.

Som vi har sett fra Google, kan alle innsendinger også ende opp med å bli gransket av utviklingsteamet.

Samsung tok grep om dette i mai 2023 da det forbød ansatte helt å bruke generative AI-verktøy. Det kom etter en ansatt lastet opp konfidensiell kildekode til ChatGPT.

Teknologigiganten var bekymret for at denne informasjonen ville være vanskelig å hente og slette, noe som betyr at IP (åndsverk) kunne ende opp med å bli distribuert til allmennheten.

Apple, Verizon og JPMorgan har iverksatt lignende tiltak, med rapporter som tyder på at Amazon lanserte en nedbryting etter at svar fra ChatGPT bar likheter med egne interne data.

Som du kan se, strekker bekymringene seg utover det som ville skje hvis det er et datainnbrudd, men til muligheten for at informasjon som legges inn i AI-systemer kan brukes på nytt og distribueres til et bredere publikum.

Selskaper som OpenAI er det allerede vendt flere søksmål blant påstander om at chatbotene deres ble opplært ved å bruke opphavsrettsbeskyttet materiale.

2. Egendefinerte AI-modeller trent av organisasjoner er ikke private

Dette bringer oss pent til neste punkt - mens enkeltpersoner og selskaper kan etablere sine tilpassede LLM-modeller basert på sine egne datakilder, vil de ikke være helt private hvis de eksisterer innenfor rammen av en plattform som ChatGPT.

Det er til syvende og sist ingen måte å vite om innganger brukes til å trene disse massive systemene - eller om personopplysninger kan ende opp med å bli brukt i fremtidige modeller.

Som et stikksag kan datapunkter fra flere kilder bringes sammen for å danne en omfattende og bekymringsverdig detaljert innsikt i noens identitet og bakgrunn.

Store plattformer kan også unnlate å tilby detaljerte forklaringer på hvordan disse dataene lagres og behandles, med en manglende evne til å velge bort funksjoner som en bruker er ukomfortabel med.

Utover å svare på en brukers spørsmål, har AI-systemer i økende grad muligheten til å lese mellom linjene og utlede alt fra en persons plassering til personligheten deres.

Ved et datainnbrudd kan det få alvorlige konsekvenser. Utrolig sofistikerte phishing-angrep kan orkestreres - og brukere målrettet med informasjon de konfidensielt hadde matet inn i et AI-system.

Andre potensielle scenarier inkluderer at disse dataene brukes til å anta noens identitet, enten det er gjennom applikasjoner for å åpne bankkontoer eller dypfalske videoer.

Forbrukere må være på vakt selv om de ikke bruker AI selv. AI blir i økende grad brukt til å drive overvåkingssystemer og forbedre ansiktsgjenkjenningsteknologi på offentlige steder.

Hvis slik infrastruktur ikke er etablert i et virkelig privat miljø, kan de sivile frihetene og personvernet til utallige borgere bli krenket uten deres viten.

3. Private data brukes til å trene AI-systemer

Det er bekymring for at store AI-systemer har hentet inn intelligensen sin ved å gå gjennom utallige nettsider.

Anslag tyder på at 300 milliarder ord ble brukt til å trene ChatGPT - det er 570 gigabyte med data - med bøker og Wikipedia-oppføringer blant datasettene.

Algoritmer har også vært kjent for å avhenge av sosiale medier og kommentarer på nettet.

Med noen av disse kildene kan du hevde at eierne av denne informasjonen ville ha hatt en rimelig forventning om personvern.

Men her er saken - mange av verktøyene og appene vi samhandler med hver dag er allerede sterkt påvirket av AI - og reagere på vår oppførsel.

Face ID på iPhone bruker AI for å spore subtile endringer i utseendet ditt.

TikTok og Facebooks AI-drevne algoritmer lager innholdsanbefalinger basert på klippene og innleggene du har sett tidligere.

Taleassistenter som Alexa og Siri er også avhengige av maskinlæring.

En svimlende konstellasjon av AI-startups er der ute, og hver har et spesifikt formål. Noen er imidlertid mer transparente enn andre om hvordan brukerdata samles inn, lagres og brukes.

Dette er spesielt viktig ettersom AI har en innvirkning innen helsevesenet - fra medisinsk bildediagnostikk og diagnoser til journalføring og legemidler.

Leksjoner må trekkes fra internettbedrifter som er fanget opp i personvernskandaler de siste årene.

Flo, en app for helse for kvinner, var tiltalte av regulatorer for å dele intime detaljer om brukerne til slike som Facebook og Google på 2010-tallet.

Hvor går vi herfra

AI kommer til å ha en uutslettelig innvirkning på alle våre liv i årene som kommer. LLM-er blir bedre for hver dag som går, og nye brukssaker fortsetter å dukke opp.

Det er imidlertid en reell risiko for at regulatorer vil slite med å henge med når bransjen beveger seg i rasende fart.

Og det betyr at forbrukere må begynne å sikre sine egne data og overvåke hvordan de brukes.

Desentralisering kan spille en viktig rolle her og forhindre at store datamengder faller i hendene på store plattformer.

DePIN-er (desentraliserte fysiske infrastrukturnettverk) har potensialet til å sikre at hverdagsbrukere opplever de fulle fordelene med AI uten at personvernet deres blir kompromittert.

Ikke bare kan krypterte forespørsler gi langt mer personlige resultater, men personvernbevarende LLM-er vil sikre at brukerne har full kontroll over dataene sine til enhver tid - og beskyttelse mot misbruk.


Chris Were er administrerende direktør i Verida, et desentralisert, selvsuverent datanettverk som gir enkeltpersoner mulighet til å kontrollere sin digitale identitet og personlige data. Chris er en australsk-basert teknologigründer som har brukt mer enn 20 år på å utvikle innovative programvareløsninger.

 

Sjekk de siste overskriftene på HodlX

Følg oss på Twitter Facebook Telegram

Sjekk ut Siste bransjemeldinger  

Topp tre datavernproblemer som AI står overfor i dag - The Daily Hodl PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Ansvarsfraskrivelse: Meninger uttrykt på The Daily Hodl er ikke investeringsråd. Investorer bør gjøre sin aktsomhet før de foretar investeringer med høy risiko i Bitcoin, cryptocurrency eller digitale eiendeler. Vær oppmerksom på at overføringer og handler handler på egen risiko, og tap du måtte påføre er ditt ansvar. Daily Hodl anbefaler ikke kjøp eller salg av kryptokurser eller digitale eiendeler, og heller ikke The Daily Hodl som investeringsrådgiver. Vær oppmerksom på at The Daily Hodl deltar i tilknyttet markedsføring.

Generert bilde: Midjourney

Tidstempel:

Mer fra The Daily Hodl