NITRD's 30th Anniversary Symposium Recap - Panel 4: Privacy en het internet der dingen (IoT) PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

NITRD's 30th Anniversary Symposium Recap - Panel 4: Privacy en het internet der dingen (IoT)

Vorige maand herdacht het Networking and Information Technology Research and Development (NITRD)-programma hun 30-jarig jubileum in Washington DC. U kunt de volledige samenvatting van het evenement lezen hier. In een poging om de impact te benadrukken die federale investeringen hebben gehad op de computeronderzoeksgemeenschap, bestond het evenement uit vijf panels waarin deelnemers de belangrijkste prestaties in het veld van het afgelopen decennium en toekomstige richtingen bespraken. Elk panel richtte zich op een belangrijk deelgebied van computeronderzoek: Computing at Scale, Networking and Security, Artificial Intelligence/Machine Learning, Privacy and the Internet of Things en Socially Responsible Computing. 

 

Privacy is een enorm gespreksonderwerp geworden, niet alleen onder de computeronderzoeksgemeenschap, maar in alle disciplines in zowel de academische wereld als de industrie. Nadelige privacy-effecten als gevolg van de beschikbaarheid van grootschalige datasets worden vermenigvuldigd met de onderling verbonden sensoren, apparaten en actuatoren waaruit het Internet of Things (IoT) bestaat. Gemodereerd door Charles (“Chuck”) Romine (NIST) en met veldexperts Ed Felten (Princeton), Marc Groman (Groman Consulting), Katerina Megas (NIST) en Sunoo Park (Cornell), Panel 4: Privacy en IoT bespreekt belangrijke onderwerpen zoals de afwegingen tussen datagebruik en privacy en mogelijke onderzoeksdoelen om te helpen bij het bereiken van effectieve beleidsoplossingen. 

 

Romine begon met het benadrukken van een rode draad in alle panels: "praten over zowel de voordelen als de buitengewone capaciteiten die worden geleverd door federale financieringsinvesteringen, samen met de bijbehorende risico's." IoT is niet anders, het geeft mensen toegang tot onoverkomelijke informatie, maakt succesvolle advertentiecampagnes mogelijk en stemt de technologie af op uw persoonlijke smaak, maar het brengt ook de privacy van gebruikers in gevaar.

 

Zoals Megas opmerkte: "De hele reden dat we deze inspanning leveren, is omdat we IoT daadwerkelijk erkend willen zien en dat de samenleving de vruchten ervan plukt." Ze ging verder met het delen van de potentiële voordelen en het belang van het kunnen delen van gegevens via IoT. Er is een "fenomenale" schaal van apparaten in IoT die kunnen worden gebruikt om problemen in datasets te identificeren, dingen te leren die een groot impactpotentieel hebben voor individuen en de samenleving, kunstmatige-intelligentietechnologieën te trainen en kleine innovatieve bedrijven in staat te stellen hun apparaten te testen. Romine vroeg de panelleden wat de bijbehorende privacyrisico's eigenlijk zijn in deze context van IoT en het delen van informatie.

 

Groman antwoordde door eerst het samenspel tussen privacy en IoT uit te leggen. De privacykant van het IoT is een subset van gegevens binnen de grotere set die wordt verzameld, dat wil zeggen over of gerelateerd aan mensen. Weten mensen dat er gegevens over hen worden verzameld? Is er een interface waar u kunt communiceren met het apparaat, kunt ontdekken wat het verzamelt of kunt wijzigen? Begrijpen mensen welke informatie wordt verzameld of welke gevolgtrekkingen het apparaat of bedrijf maakt uit de gegevens die worden verzameld? Vanwege de monetaire stimuleringsstructuur en de "enorme" hoeveelheid van velen die bedrijven kunnen verdienen met het kapitaliseren van dergelijke gegevens, drong Groman er bij mensen op aan zich tot het beleid te wenden voor een oplossing.

 

“Het doel hier is om de voordelen te maximaliseren en de schade te minimaliseren. We hebben geen beleids-, wettelijk of regelgevend kader in dit land dat prikkels oplevert om daar te komen” – Marc Groman

 

Romine ging in tegen het standpunt van Groman en vroeg het panel naar de mogelijkheden voor een technologische oplossing.

 

Felten stelde voor om te beginnen met het beter begrijpen en toepassen van statistische informatiecontrole en het bouwen van tools waarmee mensen met hun gegevens kunnen communiceren en negatieve effecten kunnen verminderen. Park, die een bijzondere interesse heeft in cryptografische privacytools, noemde een aantal manieren waarop cryptografie hierbij zou kunnen helpen.

 

"Cryptografie biedt een toolkit om systemen te bouwen met configuraties van informatiestromen en met meer fijnmazige controle over de toegang". – Sunoo Park

 

Een van de tools zou zero-knowledge proofs kunnen zijn, die het gedeeltelijk delen van gegevens mogelijk maken terwijl andere aspecten geheim blijven voor entiteiten. Ze gaf het voorbeeld van een uitsmijter die ID's controleert om in een bar te komen - door middel van zero-knowledge proofs zou je kunnen bewijzen dat je 21 bent zonder je adres of verjaardag te delen die ook op de ID staat.

 

Park waarschuwde dat hoewel cryptografie "een grotere oplossingsruimte biedt die we kunnen gebruiken om privacy op te bouwen", het geen antwoord geeft op de vraag wat voor soort dingen we moeten bouwen met deze tools, of welke vormen van informatie we geschikt of wenselijk achten om te delen. Dat is iets wat we als samenleving en een kwestie van beleid moeten uitwerken.

 

Ten slotte werd de panelleden gevraagd waarom mensen erom zouden moeten geven. Wat als ze niets te verbergen hebben? Felten lachte lachend uit de menigte en grapte dat iedereen iets te verbergen heeft. In een meer serieuze noot bleef hij de potentiële schade benadrukken van gegevensprofilering.

 

"Mensen daar bouwen een uitgebreid model van wie je bent en wat je waarschijnlijk gaat doen." – Ed Felten

 

Het is al een angstaanjagende gedachte, maar deze aannames kunnen verkeerd zijn en in de toekomst soms kansen en "vrijheid van handelen" beperken. Groman wees op een andere rode draad door de discussies van de panels: het belang om te beseffen dat sommige gemeenschappen onevenredig worden getroffen. De inzet kan hoger zijn om sommige gegevens privé te houden, of het nu gaat om seksuele geaardheid, geslacht, ras of misbruikte vrouwen of kinderen.

 

Tijdens de Q&A cirkelde voormalig spreker van panel 3, Ben Zorn, terug naar de voordelen van data die worden gebruikt om AI te trainen. Hij vroeg wat er kan worden gedaan aan het lekken van privé-informatie via de datasets die worden gebruikt om AI te trainen.

 

Felten wees erop dat, tenzij je een rigoureuze methode gebruikt om opzettelijk het naar beneden druppelen van informatie te stoppen, de informatie gaat stromen. Daarom is het zo belangrijk om je te concentreren op het bouwen van rigoureuze en aantoonbare methoden voor zaken als machine learning die de privacy beschermen en interfaces om het trickle-down-effect te beheersen.

 

Megas vatte het perfect samen, dat we uiteindelijk niet iedereen kunnen trainen, maar we kunnen mensen een raamwerk bieden dat hen in staat stelt om na te denken over risico's en hen tools te geven om meer controle over hun data te krijgen. Je kunt de volledige opname bekijken op de  CCC webpagina of via Het YouTube-kanaal van NITRD.

 

Kijk uit naar de laatste blog van de serie, Panel 5: Hoe technologie de samenleving ten goede kan komen: verbredende perspectieven in fundamenteel onderzoek.

Tijdstempel:

Meer van CCC-blog