Konvergerende statslige privatlivslove og den nye AI-udfordring

Konvergerende statslige privatlivslove og den nye AI-udfordring

Converging State Privacy Laws and the Emerging AI Challenge PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Otte amerikanske stater vedtog databeskyttelseslovgivning i 2023, og i 2024 vil love træde i kraft i fire, herunder Oregon, Montana og Texas, hver med omfattende statslige privatlivslove, og Florida med sin langt mere begrænsede Digital Bill of Rights-lov . Navnlig deler disse love alle ligheder og understreger en national tendens i retning af ensartede databeskyttelsesstandarder i det patchworkede amerikanske privatlivslandskab.

Selvom disse love stemmer overens i mange henseender - såsom fritagelse af arbejdsgiveroplysninger og manglende privat handlingsret - udviser de også statsspecifikke nuancer. For eksempel illustrerer Montanas lavere tærskel for at definere personlige oplysninger, Texas' unikke tilgang til definition af små virksomheder og Oregons detaljerede kategorisering af personlige oplysninger denne mangfoldighed.

På grund af sin lille befolkning på omkring en million mennesker satte Montana sin tærskel meget lavere end de andre stater. På grund af den nedsatte tærskel kan flere mennesker være underlagt den, end ellers ville være. Montanas privatlivslov kræver, at virksomheder udfører databeskyttelsesvurderinger for at identificere højrisikoområder, hvor følsomme data bliver indfanget og opbevaret. Denne lov tvinger virksomheder til at have databeskyttelsesvurderinger og -processer for at sikre, at organisationer holdes ansvarlige.

Texas' privatlivslov skiller sig ud som en af ​​de første i USA, der undgik finansielle tærskler for overholdelse, idet den baserer sine kriterier på Small Business Administrations definitioner. Denne innovative tilgang udvider lovens anvendelighed og sikrer, at en bredere række af virksomheder holdes ansvarlige for databeskyttelse.

Oregons lov udvider definitionen af ​​personlige oplysninger til at omfatte forbundne enheder, hvilket illustrerer statens forpligtelse til omfattende databeskyttelse. Det dækker forskellige digitale fodspor, fra fitnessure til online sundhedsjournaler. Oregon inkluderer også specifikke referencer til køn og transpersoner i sin definition af følsomme oplysninger, hvilket viser en nuanceret tilgang til privatlivets fred.

Lovene viser et tvingende behov for virksomheder til at evaluere og sikre databeskyttelsestillæg i deres processer. Ansvarlighed er et kritisk aspekt af disse love, der afspejler de registreredes øgede rettigheder og bevidsthed. Organisationer skal etablere procedurer, der gør det muligt for enkeltpersoner at udøve deres privatlivsrettigheder effektivt, hvilket involverer investering i ledelsesplatforme og overvågning af behandlingsaktiviteter for at sikre overholdelse.

Generativ AI og dens anvendelser får betydelig opmærksomhed og granskning

Fremkomsten af ​​generativ kunstig intelligens (GenAI) giver unikke udfordringer i privatlivssektoren. Efterhånden som AI-teknologier bliver en integreret del af virksomheder, er behovet for strukturerede politikker og processer til at styre AI-implementering altafgørende. National Institute of Standards and Technology (NIST) har udviklet en ramme til at styre AI-risici med fokus på design og implementeringsstrategier.

Med hensyn til styring ser vi ofte AI overgivet til privatliv i stedet for sikkerhed, fordi der er meget overlap, men med hensyn til taktiske påvirkninger er der en del. Store sprogmodeller (LLM'er) og andre AI-teknologier bruger ofte omfattende ustrukturerede data, hvilket rejser kritiske bekymringer om datakategorisering, mærkning og sikkerhed. Potentialet for AI til uforvarende at lække følsomme oplysninger er et presserende problem, der nødvendiggør årvågen overvågning og robust styring.

Det er også vigtigt at huske, at disse AI-systemer har brug for træning, og det, de bruger til at træne AI-systemer, er dine personlige oplysninger. Den seneste kontrovers omkring Zooms plan om at bruge personlige data til AI-træning fremhæver den fine grænse mellem lovoverholdelse og offentlighedens opfattelse.

Dette år er også afgørende for privatlivslovgivningen, da de krydser GenAI's spirende domæne. Den hurtige indførelse af AI-teknologier giver nye udfordringer for databeskyttelse, især i mangel af specifik lovgivning eller standardiserede rammer. AI's privatlivsimplikationer varierer, fra skævhed i beslutningstagningsalgoritmer til brug af personlige oplysninger i AI-træning. Efterhånden som AI omformer landskabet, skal virksomheder forblive på vagt og sikre overholdelse af nye AI-retningslinjer og udviklende statslige privatlivslove.

Virksomheder bør forvente at se mange nye tendenser til databeskyttelse i år, herunder:

  • Hvis du har set på nogle af kortene over især USA, lyser Nordøst op som et juletræ fra privatlivsregninger, der bliver introduceret. En af tendenserne er en fortsættelse af stater, der vedtager omfattende privatlivslove. Vi ved ikke, hvor mange der vil bestå i år, men der vil helt sikkert være meget aktiv diskussion.

  • AI vil være en væsentlig trend, da virksomheder vil se utilsigtede konsekvenser af brugen af ​​det, hvilket resulterer i brud og håndhævelsesbøder på grund af den hurtige indførelse af AI uden egentlig lovgivning eller standardiserede rammer. På den amerikanske delstatslov om privatlivets fred vil der være et øget håndhævelsesområde fra Federal Trade Commission (FTC), som har været klart, at den har til hensigt at være meget aggressiv med at følge op på det.

  • 2024 er et præsidentvalgår i USA, som vil øge opmærksomheden og øge opmærksomheden på databeskyttelse. Folk er stadig noget utrævlet fra den sidste valgcyklus med hensyn til bekymringer om privatlivets fred og online-afstemninger, som kan sive ned til forretningspraksis. Børns privatliv vinder også frem, med stater som Connecticut, der indfører yderligere krav.

  • Virksomheder bør også forvente at se datasuverænitet i trend i 2024. Selvom der altid har været den diskussion om datalokalisering, er den stadig opdelt i datasuverænitet, hvilket betyder, hvem der kontrollerer disse data, dets beboere og hvor de bor. Multinationale virksomheder skal bruge mere tid på at forstå, hvor deres data bor, og kravene i henhold til disse internationale forpligtelser for at opfylde kravene til dataophold og suverænitet for at overholde internationale love.

Overordnet set er dette et tidspunkt, hvor virksomheder kan læne sig tilbage og se dybt på, hvad de behandler, hvilke typer risici de har, hvordan de håndterer denne risiko og deres planer om at mindske den risiko, de har identificeret. Dette første trin er at identificere risikoen og derefter sikre, at virksomheder med den risiko, der er blevet identificeret, udarbejder en strategi for at overholde alle disse nye regler, der er derude, når AI overtager. Organisationer bør overveje, om de bruger AI internt, om medarbejderne bruger AI, og hvordan de sikrer, at de er opmærksomme på og sporer disse oplysninger.

Tidsstempel:

Mere fra Mørk læsning