Top tre databeskyttelsesproblemer, som AI står over for i dag - The Daily Hodl

Top tre databeskyttelsesproblemer, som AI står over for i dag – The Daily Hodl

HodlX gæstepost  Indsend dit indlæg

 

AI (kunstig intelligens) har forårsaget vanvittig begejstring blandt både forbrugere og virksomheder - drevet af en passioneret tro på, at LLM'er (store sprogmodeller) og værktøjer som ChatGPT vil transformere den måde, vi studerer, arbejder og lever på.

Men ligesom i internettets tidlige dage springer brugerne til uden at overveje, hvordan deres personlige data bruges - Enog den indvirkning dette kan have på deres privatliv.

Der har allerede været utallige eksempler på databrud inden for AI-området. I marts 2023 tog OpenAI midlertidigt ChatGPT offline efter en 'betydelig' fejl betød, at brugerne var i stand til at se fremmedes samtalehistorier.

Den samme fejl betød abonnenternes betalingsoplysninger - herunder navne, e-mailadresser og delvise kreditkortnumre - var også i det offentlige domæne.

I september 2023 blev svimlende 38 terabyte af Microsoft-data utilsigtet lækket af en medarbejder, med cybersikkerhedseksperter, der advarer om, at dette kunne have tilladt angribere at infiltrere AI-modeller med ondsindet kode.

Det har forskere også kunnet manipulere AI-systemer til at afsløre fortrolige optegnelser.

På få timer var en gruppe kaldet Robust Intelligence i stand til at anmode om personlig identificerbar information fra Nvidia-software og omgå sikkerhedsforanstaltninger designet til at forhindre systemet i at diskutere bestemte emner.

Der blev lært lektier i alle disse scenarier, men hvert brud illustrerer kraftfuldt de udfordringer, der skal overvindes, for at AI kan blive en pålidelig og betroet kraft i vores liv.

Gemini, Googles chatbot, indrømmer endda, at alle samtaler behandles af menneskelige anmeldere - understreger manglen på gennemsigtighed i sit system.

"Indtast ikke noget, som du ikke ønsker at blive gennemgået eller brugt," lyder en advarsel til brugerne.

AI bevæger sig hurtigt ud over et værktøj, som eleverne bruger til deres lektier, eller som turister stoler på for at få anbefalinger under en tur til Rom.

Det bliver i stigende grad afhængig af følsomme diskussioner - og fodrede alt fra medicinske spørgsmål til vores arbejdsplaner.

På grund af dette er det vigtigt at tage et skridt tilbage og reflektere over de tre største databeskyttelsesproblemer, som AI står over for i dag, og hvorfor de betyder noget for os alle.

1. Forespørgsler er ikke private

Værktøjer som ChatGPT husker tidligere samtaler for at kunne henvise tilbage til dem senere. Selvom dette kan forbedre brugeroplevelsen og hjælpe med at træne LLM'er, er det forbundet med en risiko.

Hvis et system bliver hacket med succes, er der en reel fare for, at prompter bliver afsløret i et offentligt forum.

Potentielt pinlige detaljer fra en brugers historie kan blive lækket, såvel som kommercielt følsomme oplysninger, når AI bliver implementeret til arbejdsformål.

Som vi har set fra Google, kan alle indsendelser også ende med at blive gransket af deres udviklingsteam.

Samsung tog handling på dette i maj 2023, da det forbød ansatte helt at bruge generative AI-værktøjer. Det kom efter en medarbejder uploadet fortrolig kildekode til ChatGPT.

Teknikgiganten var bekymret for, at disse oplysninger ville være svære at hente og slette, hvilket betyder, at IP (intellektuel ejendom) kunne ende med at blive distribueret til offentligheden som helhed.

Apple, Verizon og JPMorgan har truffet lignende foranstaltninger, med rapporter, der tyder på, at Amazon har lanceret et undertrykkelse, efter at svar fra ChatGPT bar ligheder med dets egne interne data.

Som du kan se, strækker bekymringerne sig ud over, hvad der ville ske, hvis der er et databrud, men til udsigten til, at oplysninger, der er indtastet i AI-systemer, kan genbruges og distribueres til et bredere publikum.

Det er virksomheder som OpenAI allerede vender flere retssager på grund af påstande om, at deres chatbots blev trænet ved at bruge ophavsretligt beskyttet materiale.

2. Tilpassede AI-modeller trænet af organisationer er ikke private

Dette bringer os pænt til vores næste punkt - mens enkeltpersoner og virksomheder kan etablere deres tilpassede LLM-modeller baseret på deres egne datakilder, vil de ikke være helt private, hvis de eksisterer inden for rammerne af en platform som ChatGPT.

Der er i sidste ende ingen måde at vide, om input bliver brugt til at træne disse massive systemer - eller om personlige oplysninger kan ende med at blive brugt i fremtidige modeller.

Som et puslespil kan datapunkter fra flere kilder samles for at danne et omfattende og bekymrende detaljeret indblik i en persons identitet og baggrund.

Større platforme kan også undlade at tilbyde detaljerede forklaringer på, hvordan disse data opbevares og behandles, med en manglende evne til at fravælge funktioner, som en bruger er utilpas med.

Ud over at reagere på en brugers prompter, har AI-systemer i stigende grad evnen til at læse mellem linjerne og udlede alt fra en persons placering til deres personlighed.

I tilfælde af et brud på datasikkerheden kan det få alvorlige konsekvenser. Utroligt sofistikerede phishing-angreb kunne orkestreres - og brugere målrettet med oplysninger, som de fortroligt havde indlæst i et AI-system.

Andre potentielle scenarier inkluderer, at disse data bruges til at antage en persons identitet, uanset om det er gennem applikationer til at åbne bankkonti eller deepfake-videoer.

Forbrugerne skal være på vagt, selvom de ikke selv bruger kunstig intelligens. AI bliver i stigende grad brugt til at drive overvågningssystemer og forbedre ansigtsgenkendelsesteknologi på offentlige steder.

Hvis en sådan infrastruktur ikke er etableret i et ægte privat miljø, kan utallige borgeres borgerlige frihedsrettigheder og privatlivets fred blive krænket uden deres viden.

3. Private data bruges til at træne AI-systemer

Der er bekymring for, at store kunstig intelligens-systemer har indsamlet deres intelligens ved at søge på utallige websider.

Skøn tyder på, at 300 milliarder ord blev brugt til at træne ChatGPT - det er 570 gigabyte data - med bøger og Wikipedia-poster blandt datasættene.

Algoritmer har også været kendt for at afhænge af sociale mediesider og onlinekommentarer.

Med nogle af disse kilder kan du argumentere for, at ejerne af disse oplysninger ville have haft en rimelig forventning om privatlivets fred.

Men her er sagen - mange af de værktøjer og apps, vi interagerer med hver dag, er allerede stærkt påvirket af kunstig intelligens - og reagere på vores adfærd.

Face ID på din iPhone bruger AI til at spore subtile ændringer i dit udseende.

TikTok og Facebooks AI-drevne algoritmer laver indholdsanbefalinger baseret på de klip og indlæg, du har set tidligere.

Stemmeassistenter som Alexa og Siri er også stærkt afhængige af maskinlæring.

En svimlende konstellation af AI-startups er derude, og hver har et specifikt formål. Nogle er dog mere gennemsigtige end andre om, hvordan brugerdata indsamles, opbevares og anvendes.

Dette er især vigtigt, da kunstig intelligens gør en indvirkning på sundhedsområdet - fra medicinsk billeddiagnostik og diagnoser til journalføring og lægemidler.

Der skal læres erfaringer fra internetvirksomheder, der er fanget i skandaler om privatlivets fred i de seneste år.

Flo, en app til kvinders sundhed, var anklagede af regulatorer for at dele intime detaljer om sine brugere til Facebook og Google i 2010'erne.

Hvor går vi hen herfra

AI kommer til at have en uudslettelig indflydelse på alle vores liv i de kommende år. LLM'er bliver bedre for hver dag, der går, og nye use cases fortsætter med at dukke op.

Der er dog en reel risiko for, at regulatorer vil kæmpe for at følge med, da industrien bevæger sig med en rasende hastighed.

Og det betyder, at forbrugerne skal begynde at sikre deres egne data og overvåge, hvordan de bruges.

Decentralisering kan spille en afgørende rolle her og forhindre store mængder data i at falde i hænderne på større platforme.

DePIN'er (decentraliserede fysiske infrastrukturnetværk) har potentialet til at sikre, at hverdagsbrugere oplever de fulde fordele ved AI, uden at deres privatliv kompromitteres.

Ikke alene kan krypterede prompter levere langt mere personlige resultater, men privatlivsbevarende LLM'er vil sikre, at brugerne til enhver tid har fuld kontrol over deres data - og beskyttelse mod misbrug.


Chris Were er administrerende direktør for Verida, et decentraliseret, selv-suverænt datanetværk, der giver enkeltpersoner mulighed for at kontrollere deres digitale identitet og personlige data. Chris er en australsk-baseret teknologiiværksætter, som har brugt mere end 20 år på at udvikle innovative softwareløsninger.

 

Tjek de seneste overskrifter på HodlX

Følg os på Twitter Facebook Telegram

Tjek den Seneste branchemeddelelser  

Top tre databeskyttelsesproblemer, som AI står over for i dag - The Daily Hodl PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Ansvarsfraskrivelse: Udtalelser udtrykt i The Daily Hodl er ikke investeringsrådgivning. Investorer bør gøre deres due diligence før de foretager nogen højrisiko investeringer i Bitcoin, cryptocurrency eller digitale aktiver. Vær opmærksom på, at dine overførsler og handler er på egen risiko, og eventuelle tab, du måtte pådrage, er dit ansvar. Daily Hodl anbefaler ikke køb eller salg af kryptokurser eller digitale aktiver, og The Daily Hodl er heller ikke en investeringsrådgiver. Vær opmærksom på, at The Daily Hodl deltager i affiliate marketing.

Genereret billede: Midjourney

Tidsstempel:

Mere fra The Daily Hodl