NITRD:s 30-årsjubileumsymposium Sammanfattning – Panel 4: Privacy and the Internet of Things (IoT) PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

NITRD:s 30-årsjubileumssymposiumrecap – Panel 4: Privacy and the Internet of Things (IoT)

Förra månaden firade programmet Networking and Information Technology Research and Development (NITRD) deras 30-årsjubileum i Washington DC. Du kan läsa hela sammanfattningen av evenemanget här.. I ett försök att belysa den inverkan som federala investeringar har haft på dataforskningssamhället, innehöll evenemanget fem paneler där deltagarna diskuterade nyckelprestationer på området under det senaste decenniet och framtida riktningar framåt. Varje panel fokuserade på ett viktigt delområde av datorforskning: datoranvändning i skala, nätverk och säkerhet, artificiell intelligens/maskininlärning, integritet och sakernas internet och socialt ansvarsfull datoranvändning. 

 

Sekretess har blivit ett stort samtalsämne, inte bara bland datorforskningssamhället, utan över alla discipliner inom både akademi och industri. Skadliga integritetseffekter som härrör från tillgången på storskaliga datauppsättningar multipliceras med sammankopplade sensorer, enheter och ställdon som utgör Internet of Things (IoT). Modereras av Charles ("Chuck") Romine (NIST) och med fältexperterna Ed Felten (Princeton), Marc Groman (Groman Consulting), Katerina Megas (NIST) och Sunoo Park (Cornell), Panel 4: Sekretess och IoT diskuterar viktiga ämnen som avvägningarna mellan dataanvändning och integritet och potentiella forskningsmål för att hjälpa till att uppnå effektiva policylösningar. 

 

Romine inledde med att lyfta fram en röd tråd i alla paneler: "att tala om både fördelarna och de extraordinära kapaciteterna som levereras genom federala finansieringsinvesteringar, tillsammans med de tillhörande riskerna." IoT är inte annorlunda, det ger människor tillgång till oöverstiglig information, möjliggör framgångsrika annonskampanjer och skräddarsydd teknologi efter din personliga smak, men det äventyrar användarnas integritet.

 

Som Megas påpekade, "Hela anledningen till att vi gör den här ansträngningen är för att vi verkligen vill kunna se IoT erkänt och att samhället ska skörda frukterna." Hon fortsatte med att dela de potentiella fördelarna och vikten av att kunna dela data över IoT. Det finns en "fenomenal" skala av enheter inom IoT som kan användas för att identifiera problem över datauppsättningar, lära sig saker som har stor påverkanspotential för individer och samhälle, träna artificiell intelligens-teknik och göra det möjligt för små innovativa företag att testa sina enheter. Romine frågade paneldeltagarna vad de associerade integritetsriskerna faktiskt är i detta sammanhang av IoT och informationsdelning.

 

Groman svarade med att först förklara samspelet mellan integritet och IoT. Sekretesssidan av IoT är en delmängd av data inom den större uppsättningen som samlas in, det vill säga om eller relaterar till människor. Vet folk att data samlas in om dem? Finns det ett gränssnitt där du kan interagera med enheten, lära dig vad den samlar in eller ändra den? Förstår människor vilken information som samlas in eller vilka slutsatser enheten eller företaget drar från den data som samlas in? På grund av den monetära incitamentsstrukturen och den "stora" mängd många som företag kan göra av att utnyttja sådana data, uppmanade Groman människor att vända sig till politiken för en lösning.

 

"Målet här är att maximera fördelarna och minimera skadorna. Vi har ingen policy, lag eller regelverk i det här landet som skapar incitament för att nå dit” – Marc Groman

 

För att motverka Gromans hållning frågade Romine panelen om potentialen för en teknisk lösning.

 

Felten föreslog att vi skulle börja med att försöka bättre förstå och tillämpa statistisk informationskontroll och bygga verktyg som gör det möjligt för människor att interagera med sina data och mildra negativa effekter. Park, som har ett särskilt intresse för kryptografiska sekretessverktyg, nämnde ett antal sätt kryptografi skulle kunna hjälpa till i detta avseende.

 

"Kryptografi tillhandahåller en verktygslåda för att bygga system som har konfigurationer av informationsflöden och inkluderar mer finkornig kontroll över åtkomst." – Sunoo Park

 

Ett av verktygen kan vara nollkunskapsbevis, som tillåter partiell delning av data samtidigt som andra aspekter hålls hemliga för enheter. Hon gav exemplet med en dörrvakt som kollade ID:n för att komma in i en bar – genom nollkunskapsbevis kunde du bevisa att du är 21 utan att dela din adress eller födelsedag som också står på ID:t.

 

Park varnade för att även om kryptografi ger "ett större lösningsutrymme som vi kan använda för att bygga sekretess", så svarar det inte på frågan om vilken typ av saker vi ska bygga med dessa verktyg, eller vilka former av information vi anser är lämpliga eller önskvärda att dela. Det är något vi måste arbeta fram som samhälle och en fråga om politik.

 

Till sist fick paneldeltagarna frågan varför folk skulle bry sig. Tänk om de inte har något att dölja? Felten fick ett skratt från publiken och skämtade att alla har något att dölja. I en mer seriös anteckning fortsatte han att lyfta fram den potentiella skadan i dataprofilering.

 

"Människor där ute bygger en heltäckande modell av vem du är och vad du sannolikt kommer att göra." – Ed Felten

 

Redan en skrämmande tanke, dessa antaganden kan vara felaktiga och ibland begränsa möjligheter och "handlingsfrihet" i framtiden. Groman påpekade en annan röd tråd genom panelernas diskussioner – vikten av att inse att vissa samhällen påverkas oproportionerligt mycket. Insatserna kan vara högre för att hålla vissa uppgifter privata oavsett om det gäller sexuell läggning, kön, ras eller våldsutsatta kvinnor eller barn.

 

Under frågestunden cirklade tidigare talare från panel 3, Ben Zorn, tillbaka till fördelarna med data som används för att träna AI. Han frågade om vad som kunde göras åt att privat information läckte ut genom de datauppsättningar som används för att träna AI.

 

Felten påpekade att om du inte använder en rigorös metod för att avsiktligt stoppa nedströmningen av information, så kommer informationen att flöda. Det är därför det är så viktigt att fokusera på att bygga rigorösa och bevisbara metoder för saker som integritetsbevarande maskininlärning och gränssnitt för att kontrollera trickle-down-effekten.

 

Megas sammanfattade det perfekt, att vi i slutändan inte kan utbilda alla, men vi kan ge människor ett ramverk som gör att de kan tänka på risker och ge dem verktyg för att ge dem större kontroll över sin data. Du kan se hela inspelningen på  CCC webbsida eller på NITRD:s YouTube-kanal.

 

Håll utkik efter den sista bloggen i serien, Panel 5: How Technology Can Benefit Society: Bredning Perspectives in Fundamental Research.

Tidsstämpel:

Mer från CCC blogg