De tre främsta datasekretessproblemen som AI står inför idag - The Daily Hodl

De tre främsta datasekretessproblemen som AI står inför idag – The Daily Hodl

HodlX gästpost  Skicka ditt inlägg

 

AI (artificiell intelligens) har orsakat frenesi upphetsning bland både konsumenter och företag - drivs av en passionerad övertygelse om att LLMs (stora språkmodeller) och verktyg som ChatGPT kommer att förändra vårt sätt att studera, arbeta och leva.

Men precis som i internets tidiga dagar hoppar användarna in utan att tänka på hur deras personuppgifter används - aoch vilken inverkan detta kan ha på deras integritet.

Det har redan funnits otaliga exempel på dataintrång inom AI-utrymmet. I mars 2023 tog OpenAI tillfälligt ChatGPT offline efter ett "betydande" fel innebar användarna att kunna se främlingars konversationshistorik.

Samma bugg innebar betalningsinformation för prenumeranter - inklusive namn, e-postadresser och partiella kreditkortsnummer - var också allmän egendom.

I september 2023, svindlande 38 terabyte av Microsoft-data oavsiktligt läckt av en anställd, med cybersäkerhetsexperter som varnade för att detta kunde ha tillåtit angripare att infiltrera AI-modeller med skadlig kod.

Forskare har också kunnat manipulera AI-system för att avslöja konfidentiella register.

På bara några timmar kunde en grupp som heter Robust Intelligence begära in personligt identifierbar information från Nvidia-programvaran och kringgå säkerhetsåtgärder utformade för att förhindra systemet från att diskutera vissa ämnen.

Lärdomar drogs i alla dessa scenarier, men varje intrång illustrerar kraftfullt de utmaningar som måste övervinnas för att AI ska bli en pålitlig och pålitlig kraft i våra liv.

Gemini, Googles chatbot, medger till och med att alla konversationer behandlas av mänskliga granskare - understryker bristen på transparens i dess system.

"Skriv inte in något som du inte vill ska granskas eller användas", säger en varning till användarna.

AI går snabbt bortom ett verktyg som eleverna använder för sina läxor eller som turister litar på för rekommendationer under en resa till Rom.

Det blir alltmer beroende av för känsliga diskussioner - och matade allt från medicinska frågor till våra arbetsscheman.

På grund av detta är det viktigt att ta ett steg tillbaka och reflektera över de tre främsta datasekretessproblemen som AI står inför idag, och varför de är viktiga för oss alla.

1. Uppmaningar är inte privata

Verktyg som ChatGPT memorerar tidigare konversationer för att kunna hänvisa tillbaka till dem senare. Även om detta kan förbättra användarupplevelsen och hjälpa till att utbilda LLM:er, medför det risker.

Om ett system lyckas hackas, finns det en verklig risk för att uppmaningar exponeras i ett offentligt forum.

Potentiellt pinsamma detaljer från en användares historia kan läcka, såväl som kommersiellt känslig information när AI distribueras i arbetssyfte.

Som vi har sett från Google kan alla inlämningar också bli granskade av dess utvecklingsteam.

Samsung vidtog åtgärder mot detta i maj 2023 när det helt och hållet förbjöd anställda att använda generativa AI-verktyg. Det kom efter en anställd uppladdad konfidentiell källkod till ChatGPT.

Teknikjätten var orolig för att denna information skulle vara svår att hämta och radera, vilket innebär att IP (immateriell egendom) kan sluta distribueras till allmänheten.

Apple, Verizon och JPMorgan har vidtagit liknande åtgärder, med rapporter som tyder på att Amazon lanserade ett tillslag efter att svar från ChatGPT hade likheter med dess egna interna data.

Som du kan se sträcker sig farhågorna längre än vad som skulle hända om det finns ett dataintrång men till utsikten att information som läggs in i AI-system skulle kunna återanvändas och distribueras till en bredare publik.

Företag som OpenAI är redan det vänd flera stämningar bland anklagelser om att deras chatbotar tränades med upphovsrättsskyddat material.

2. Anpassade AI-modeller som utbildats av organisationer är inte privata

Detta för oss prydligt till vår nästa punkt - medan individer och företag kan etablera sina anpassade LLM-modeller baserat på sina egna datakällor, kommer de inte att vara helt privata om de finns inom gränserna för en plattform som ChatGPT.

Det finns i slutändan inget sätt att veta om indata används för att träna dessa enorma system - eller om personlig information kan komma att användas i framtida modeller.

Som ett pussel kan datapunkter från flera källor sammanföras för att bilda en omfattande och oroande detaljerad inblick i någons identitet och bakgrund.

Stora plattformar kan också misslyckas med att erbjuda detaljerade förklaringar av hur denna data lagras och bearbetas, med en oförmåga att välja bort funktioner som en användare är obekväm med.

Utöver att svara på en användares uppmaningar har AI-system i allt högre grad förmågan att läsa mellan raderna och härleda allt från en persons plats till deras personlighet.

I händelse av ett dataintrång är allvarliga konsekvenser möjliga. Otroligt sofistikerade nätfiskeattacker kan orkestreras - och användare riktade med information som de konfidentiellt hade matat in i ett AI-system.

Andra potentiella scenarier inkluderar att denna data används för att anta någons identitet, oavsett om det är genom applikationer för att öppna bankkonton eller deepfake-videor.

Konsumenter måste vara vaksamma även om de inte själva använder AI. AI används alltmer för att driva övervakningssystem och förbättra ansiktsigenkänningstekniken på offentliga platser.

Om sådan infrastruktur inte etableras i en verkligt privat miljö, kan otaliga medborgares medborgerliga friheter och integritet kränkas utan deras vetskap.

3. Privat data används för att träna AI-system

Det finns farhågor om att stora AI-system har samlat på sig sin intelligens genom att titta på otaliga webbsidor.

Uppskattningar tyder på att 300 miljarder ord användes för att träna ChatGPT - det är 570 gigabyte data - med böcker och Wikipedia-inlägg bland datamängderna.

Algoritmer har också varit kända för att bero på sociala medier och kommentarer online.

Med några av dessa källor kan du hävda att ägarna av denna information skulle ha haft en rimlig förväntan på integritet.

Men här är grejen - många av de verktyg och appar vi interagerar med varje dag är redan starkt påverkade av AI - och reagera på våra beteenden.

Face ID på din iPhone använder AI för att spåra subtila förändringar i ditt utseende.

TikTok och Facebooks AI-drivna algoritmer ger innehållsrekommendationer baserat på de klipp och inlägg du har sett tidigare.

Röstassistenter som Alexa och Siri är också mycket beroende av maskininlärning.

En svindlande konstellation av AI-startups finns där ute, och alla har ett specifikt syfte. Vissa är dock mer transparenta än andra om hur användardata samlas in, lagras och tillämpas.

Detta är särskilt viktigt eftersom AI slår igenom inom sjukvården - från medicinsk bildbehandling och diagnoser till journalföring och läkemedel.

Lärdomar måste dras från internetföretagen som har fångats i integritetsskandaler de senaste åren.

Flo, en app för kvinnors hälsa, var den anklagade av tillsynsmyndigheter för att dela intima detaljer om sina användare till sådana som Facebook och Google på 2010-talet.

Vart går vi härifrån

AI kommer att ha en outplånlig inverkan på alla våra liv under de kommande åren. LLM:er blir bättre för varje dag som går, och nya användningsfall fortsätter att dyka upp.

Det finns dock en verklig risk att tillsynsmyndigheter kommer att kämpa för att hänga med när branschen går i rasande fart.

Och det betyder att konsumenterna måste börja säkra sin egen data och övervaka hur den används.

Decentralisering kan här spela en avgörande roll och förhindra att stora mängder data hamnar i händerna på stora plattformar.

DePIN (decentraliserade fysiska infrastrukturnätverk) har potentialen att säkerställa att vardagliga användare upplever de fulla fördelarna med AI utan att deras integritet äventyras.

Inte bara kan krypterade uppmaningar ge mycket mer personliga resultat, utan integritetsbevarande LLM:er skulle säkerställa att användarna hela tiden har full kontroll över sina data - och skydd mot att den missbrukas.


Chris Were är VD för Verida, ett decentraliserat, självsuverän datanätverk som ger individer möjlighet att kontrollera sin digitala identitet och personliga data. Chris är en australiensisk baserad teknikentreprenör som har ägnat mer än 20 år åt att utveckla innovativa mjukvarulösningar.

 

Kolla de senaste rubrikerna på HodlX

Följ oss på Twitter Facebook Telegram

Kolla in Senaste branschmeddelanden  

De tre främsta datasekretessproblemen som AI står inför idag - The Daily Hodl PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Friskrivningsklausul: Yttranden uttryckta på The Daily Hodl är inte investeringsrådgivning. Investerare bör göra sin noggrannhet innan de gör några högriskinvesteringar i Bitcoin, cryptocurrency eller digitala tillgångar. Observera att dina överföringar och transaktioner sker på egen risk, och att du förlorar dig är ditt ansvar. Daily Hodl rekommenderar inte köp eller försäljning av några kryptokurser eller digitala tillgångar, och inte heller The Daily Hodl är en investeringsrådgivare. Observera att The Daily Hodl deltar i affiliate-marknadsföring.

Genererad bild: Midjourney

Tidsstämpel:

Mer från The Daily Hodl