סיכום יום השנה ה-30 של NITRD – פאנל 4: פרטיות ואינטרנט של הדברים (IoT) PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

סיכום יום השנה ה-30 של NITRD - פאנל 4: פרטיות והאינטרנט של הדברים (IoT)

בחודש שעבר ציינה תוכנית המחקר והפיתוח של רשתות וטכנולוגיות מידע (NITRD) את יום השנה ה-30 שלהם בוושינגטון הבירה. אתה יכול לקרוא את תקציר האירוע המלא כאן. במאמץ להדגיש את ההשפעה שיש להשקעות פדרליות על קהילת מחקרי המחשוב, האירוע כלל חמישה פאנלים שבהם המשתתפים דנו בהישגים מרכזיים בתחום בעשור האחרון ובכיוונים עתידיים קדימה. כל פאנל התמקד בתת תחום חשוב של מחקר מחשבים: מחשוב בקנה מידה, רשת ואבטחה, בינה מלאכותית/למידת מכונה, פרטיות והאינטרנט של הדברים ומחשוב בעל אחריות חברתית. 

 

פרטיות הפכה לנושא עצום לשיחה לא רק בקרב קהילת חוקרי המחשוב, אלא בכל הדיסציפלינות הן באקדמיה והן בתעשייה. השפעות הפרטיות השליליות הנובעות מהזמינות של מערכי נתונים בקנה מידה גדול מוכפלות ב- חיישנים, התקנים ומפעילים מחוברים זה לזה המרכיבים את האינטרנט של הדברים (IoT). בהנחיית צ'ארלס ("צ'אק") רומיין (NIST) ובהשתתפות מומחי השטח אד פלטן (פרינסטון), מארק גרומן (ייעוץ גרומן), קתרינה מגאס (NIST) וסונו פארק (קורנל), פאנל 4: פרטיות ו-IoT דן בנושאים חשובים כמו הפערים בין שימוש בנתונים ופרטיות ויעדי מחקר פוטנציאליים כדי לסייע בהשגת פתרונות מדיניות יעילים. 

 

רומין התחילה בהדגשת חוט משותף בכל הפאנלים: "דיברתי הן על היתרונות והן על היכולות יוצאות הדופן הניתנות באמצעות השקעות מימון פדרליות, יחד עם הסיכונים הנלווים". ה-IoT אינו שונה, הוא מביא לאנשים גישה למידע בלתי עביר, מאפשר קמפיינים מוצלחים וטכנולוגיית חייטים לפי טעמכם האישי, אך הוא גם מסכן את פרטיות המשתמש.

 

כפי שמגהס ציין, "כל הסיבה שאנחנו עושים את המאמץ הזה היא כי אנחנו רוצים להיות מסוגלים לראות את ה-IoT מוכר ושהחברה תקצור את היתרונות." היא המשיכה ושיתפה את היתרונות הפוטנציאליים ואת החשיבות של היכולת לשתף נתונים ברחבי IoT. יש קנה מידה "פנומנלי" של מכשירים ב-IoT שניתן להשתמש בהם כדי לזהות בעיות בין מערכי נתונים, ללמוד דברים שיש להם פוטנציאל השפעה גבוה על אנשים וחברה, להכשיר טכנולוגיות של בינה מלאכותית ולאפשר לחברות חדשניות קטנות לבדוק את המכשירים שלהן. רומין שאלה את חברי הפאנל מה הם בעצם סיכוני הפרטיות הקשורים בהקשר הזה של IoT ושיתוף מידע.

 

גרומן ענה בכך שהסביר תחילה את יחסי הגומלין בין פרטיות ל-IoT. צד הפרטיות של ה-IoT הוא תת-קבוצה של נתונים בתוך הסט הגדול יותר שנאסף, כלומר על או קשור לאנשים. האם אנשים יודעים שנאספים עליהם נתונים? האם יש ממשק שבו ניתן ליצור אינטראקציה עם המכשיר, ללמוד מה הוא אוסף או לשנות אותו? האם אנשים מבינים איזה מידע נאסף או אילו מסקנות נעשות על ידי המכשיר או החברה מהנתונים שנאספים? בשל מבנה התמריצים הכספי והכמות ה"עצומה" של רבים שחברות עשויות להפיק מניצול נתונים כאלה, גרומן דחק באנשים לפנות למדיניות כדי למצוא פתרון.

 

"המטרה כאן היא למקסם את התועלת ולמזער את הנזק. אין לנו מסגרת מדיניות, חוקית או רגולטורית במדינה הזו שמייצרת תמריצים להגיע לשם" - מארק גרומן

 

בניגוד לעמדתו של גרומן, רומין שאלה את הפאנל על הפוטנציאל לפתרון טכנולוגי.

 

פלטן הציע שנתחיל בניסיון להבין טוב יותר וליישם בקרת מידע סטטיסטי ולבנות כלים המאפשרים לאנשים לקיים אינטראקציה עם הנתונים שלהם ולצמצם את ההשפעות השליליות. פארק, שיש לו עניין מיוחד בכלי פרטיות קריפטוגרפיים, ציין מספר דרכים שבהן הצפנה יכולה לעזור בהקשר זה.

 

"הקריפטוגרפיה מספקת ערכת כלים לבניית מערכות שיש להן תצורות של זרימות מידע וכוללות שליטה עדינה יותר על גישה". – Sunoo Park

 

אחד הכלים יכול להיות הוכחות אפס ידע, המאפשרות שיתוף חלקי של נתונים תוך שמירת היבטים אחרים בסוד מפני ישויות. היא נתנה דוגמה של סדרן שבודק תעודות זהות כדי להיכנס לבר - באמצעות הוכחות אפס ידע תוכל להוכיח שאתה בן 21 מבלי לשתף את הכתובת או יום ההולדת שלך הרשומים גם בתעודת הזהות.

 

פארק הזהיר כי בעוד שהקריפטוגרפיה מספקת "מרחב פתרונות גדול יותר שאנו יכולים להשתמש בו כדי לבנות פרטיות", היא אינה עונה על השאלה אילו סוגי דברים עלינו לבנות באמצעות הכלים הללו, או אילו צורות מידע אנו רואים לנכון או רצוי לחלוק. זה משהו שאנחנו צריכים לעבוד כחברה ועניין של מדיניות.

 

לבסוף, המשתתפים בפאנל נשאלו למה לאנשים צריך להיות אכפת. מה אם אין להם מה להסתיר? לאחר צחוק מהקהל, פלטן התבדח שלכל אחד יש מה להסתיר. בהערה רצינית יותר, הוא המשיך להדגיש את הנזק הפוטנציאלי בפרופיל נתונים.

 

"אנשים בחוץ בונים מודל מקיף של מי אתה ומה אתה צפוי לעשות." – אד פלטן

 

כבר מחשבה מפחידה, הנחות אלו יכולות להיות שגויות ולעיתים להגביל הזדמנויות ו"חופש פעולה" בעתיד. גרומן הצביע על חוט משותף נוסף לאורך הדיונים של הפאנלים - החשיבות של ההבנה שכמה קהילות מושפעות באופן לא פרופורציונלי. ההימור יכול להיות גבוה יותר כדי לשמור על נתונים מסוימים פרטיים בין אם מדובר בנטייה מינית, מגדר, גזע או נשים או ילדים שעברו התעללות.

 

במהלך השאלות והתשובות, הדובר לשעבר מפאנל 3, בן זורן, חזר במעגל אל היתרונות של נתונים המשמשים לאימון AI. הוא שאל מה ניתן לעשות בנוגע לדליפה של מידע פרטי דרך מערכי הנתונים המשמשים לאימון AI.

 

פלטן ציין שאם לא אתה משתמש בשיטה קפדנית כדי לעצור בכוונה את זרימת המידע, אז המידע הולך לזרום. לכן זה כל כך חשוב להתמקד בבניית שיטות קפדניות וניתנות להוכחה של דברים כמו למידת מכונה המשמרת פרטיות וממשקים כדי לשלוט באפקט הטפטוף.

 

מגאס סיכמה את זה בצורה מושלמת, שבסופו של דבר אנחנו לא יכולים לאמן את כולם, אבל אנחנו יכולים לספק לאנשים מסגרת שתאפשר להם לחשוב על סיכונים ולתת להם כלים לתת להם שליטה רבה יותר על הנתונים שלהם. ניתן לצפות בהקלטה המלאה באתר  דף אינטרנט של CCC או על ערוץ היוטיוב של NITRD.

 

היזהרו אחר הבלוג האחרון של הסדרה, פאנל 5: כיצד טכנולוגיה יכולה להועיל לחברה: הרחבת פרספקטיבות במחקר יסודי.

בול זמן:

עוד מ בלוג CCC