NITRDs 30-årsjubileumsymposiumoppsummering – Panel 4: Personvern og tingenes internett (IoT) PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

NITRDs 30-årsjubileumsymposiumoppsummering – Panel 4: Personvern og tingenes internett (IoT)

Forrige måned feiret programmet Nettverks- og informasjonsteknologiforskning og -utvikling (NITRD) deres 30-årsjubileum i Washington DC. Du kan lese hele oppsummeringen av arrangementet her.. I et forsøk på å fremheve virkningen føderale investeringer har hatt på dataforskningsmiljøet, inneholdt arrangementet fem paneler der deltakerne diskuterte viktige prestasjoner på feltet det siste tiåret og fremtidige retninger fremover. Hvert panel fokuserte på et viktig underområde innen dataforskning: Databehandling i skala, nettverk og sikkerhet, kunstig intelligens/maskinlæring, personvern og tingenes internett og sosialt ansvarlig databehandling. 

 

Personvern har blitt et stort samtaleemne, ikke bare blant dataforskningsmiljøet, men på tvers av alle disipliner i både akademia og industri. Uønskede personverneffekter som stammer fra tilgjengeligheten av store datasett blir multiplisert med sammenkoblede sensorer, enheter og aktuatorer som utgjør tingenes internett (IoT). Moderert av Charles ("Chuck") Romine (NIST) og med feltekspertene Ed Felten (Princeton), Marc Groman (Groman Consulting), Katerina Megas (NIST) og Sunoo Park (Cornell), Panel 4: Personvern og IoT diskuterer viktige emner som avveiningene mellom databruk og personvern og potensielle forskningsmål for å hjelpe til med å oppnå effektive politiske løsninger. 

 

Romine startet med å fremheve en rød tråd i alle panelene: "snakket om både fordelene og de ekstraordinære egenskapene levert gjennom føderale finansieringsinvesteringer, sammen med tilhørende risiko." IoT er ikke annerledes, det gir folk tilgang til uoverkommelig informasjon, muliggjør vellykkede annonsekampanjer og skreddersy teknologi etter din personlige smak, men det setter også brukernes personvern i fare.

 

Som Megas påpekte, "Hele grunnen til at vi gjør denne innsatsen er fordi vi ønsker å faktisk se IoT anerkjent og at samfunnet skal høste fordelene." Hun fortsatte med å dele de potensielle fordelene og viktigheten av å kunne dele data på tvers av IoT. Det er en "fenomenal" skala av enheter i IoT som kan brukes til å identifisere problemer på tvers av datasett, lære ting som har stort innvirkningspotensial for enkeltpersoner og samfunn, trene kunstig intelligens-teknologier og gjøre det mulig for små innovative selskaper å teste enhetene sine. Romine spurte paneldeltakerne hva de tilhørende personvernrisikoene faktisk er i denne sammenhengen med IoT og informasjonsdeling.

 

Groman svarte med først å forklare samspillet mellom personvern og IoT. Personvernsiden av IoT er en delmengde av data innenfor det større settet som samles inn, det vil si om eller relatert til mennesker. Vet folk at det samles inn data om dem? Finnes det et grensesnitt der du kan samhandle med enheten, lære hva den samler inn eller endre den? Forstår folk hvilken informasjon som samles inn eller hvilke slutninger enheten eller selskapet trekker fra dataene som samles inn? På grunn av den monetære insentivstrukturen og den "store" mengden av mange som selskaper kan gjøre ut av å utnytte slike data, oppfordret Groman folk til å henvende seg til politikk for å finne en løsning.

 

"Målet her er å maksimere fordelene og minimere skade. Vi har ikke en policy, juridisk eller regulatorisk rammeverk i dette landet som produserer insentiver for å komme dit.» - Marc Groman

 

For å imøtegå Gromans holdning, spurte Romine panelet om potensialet for en teknologisk løsning.

 

Felten foreslo at vi starter med å forsøke å bedre forstå og bruke statistisk informasjonskontroll og bygge verktøy som lar folk samhandle med dataene deres og redusere negative konsekvenser. Park, som har en spesiell interesse for kryptografiske personvernverktøy, nevnte en rekke måter kryptografi kan hjelpe i denne forbindelse.

 

"Kryptografi gir et verktøysett for å bygge systemer som har konfigurasjoner av informasjonsflyt og inkluderer mer finmasket kontroll over tilgang." – Sunoo Park

 

Et av verktøyene kan være null-kunnskapsbevis, som tillater delvis deling av data samtidig som andre aspekter holdes hemmelige for enheter. Hun ga et eksempel med en dørvakt som sjekker ID-er for å komme inn i en bar – gjennom bevis med nullkunnskap kan du bevise at du er 21 uten å dele adressen din eller bursdagen din som også er oppført på ID-en.

 

Park advarte om at selv om kryptografi gir "et større løsningsrom som vi kan bruke til å bygge personvern", svarer det ikke på spørsmålet om hva slags ting vi bør bygge ved å bruke disse verktøyene, eller hvilke former for informasjon vi anser som passende eller ønskelig å dele. Det er noe vi må jobbe med som et samfunn og et spørsmål om politikk.

 

Til slutt ble paneldeltakerne spurt om hvorfor folk skulle bry seg. Hva om de ikke har noe å skjule? Felten tjente en latter fra mengden og spøkte med at alle har noe å skjule. I et mer alvorlig notat fortsatte han å fremheve den potensielle skaden i dataprofilering.

 

"Folk der ute bygger en omfattende modell av hvem du er og hva du sannsynligvis kommer til å gjøre." – Ed Felten

 

Allerede en skremmende tanke, kan disse antakelsene være feil og noen ganger begrense muligheter og "handlingsfrihet" i fremtiden. Groman pekte på en annen rød tråd gjennom panelets diskusjoner – viktigheten av å innse at noen lokalsamfunn blir uforholdsmessig påvirket. Innsatsen kan være høyere for å holde noen data privat, enten det er for seksuell legning, kjønn, rase eller misbrukte kvinner eller barn.

 

Under spørsmålet og svarene gikk tidligere foredragsholder fra panel 3, Ben Zorn, tilbake til fordelene med data som brukes til å trene AI. Han spurte om hva som kunne gjøres med privat informasjon som lekkes gjennom datasettene som brukes til å trene AI.

 

Felten påpekte at med mindre du bruker en streng metode for å med vilje stoppe strømmen av informasjon, så vil informasjonen flyte. Derfor er det så viktig å fokusere på å bygge strenge og bevisbare metoder for ting som personvernbevarende maskinlæring og grensesnitt for å kontrollere trickle-down-effekten.

 

Megas oppsummerte det perfekt, at vi til syvende og sist ikke kan lære opp alle, men vi kan gi folk et rammeverk som gjør dem i stand til å tenke på risiko og gi dem verktøy for å gi dem større kontroll over dataene sine. Du kan se hele opptaket på  CCC nettside eller NITRDs YouTube-kanal.

 

Vær på utkikk etter den siste bloggen i serien, Panel 5: How Technology Can Benefit Society: Broadening Perspectives in Fundamental Research.

Tidstempel:

Mer fra CCC-bloggen