העולם החדש והאמיץ של AI: מה קרה לאבטחה? פְּרָטִיוּת?

העולם החדש והאמיץ של AI: מה קרה לאבטחה? פְּרָטִיוּת?

העולם החדש והאמיץ של AI: מה קרה לאבטחה? פְּרָטִיוּת? PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

להלן פוסט אורח מאת John deVadoss, מועצת המנהלים של המועצה העולמית לעסקים בלוקצ'יין בז'נבה ומייסד שותף של InterWork Alliance בוושינגטון הבירה.

בשבוע שעבר הייתה לי הזדמנות בוושינגטון די.סי. להציג ולדון בהשלכות של בינה מלאכותית הנוגעת לאבטחה עם כמה מחברי הקונגרס והצוות שלהם.

AI גנרי היום מזכיר לי את האינטרנט בסוף שנות ה-80 - מחקר בסיסי, פוטנציאל סמוי ושימוש אקדמי, אבל הוא עדיין לא מוכן לציבור. הפעם, שאפתנות ספקים חסרת מעצורים, הניזונה על ידי הון סיכון מהליגה המשנית ומתגוננת על ידי תאי הד של טוויטר, ממשיכה במהירות את העולם החדש והאמיץ של הבינה המלאכותית.

מה שמכונה מודלים של קרן "ציבורית" נגועים ואינם מתאימים לשימוש צרכני ומסחרי; הפשטות פרטיות, היכן שהן קיימות, דולפות כמו מסננת; מבני אבטחה הם עבודה מאוד בתהליך, שכן שטח פני התקיפה וקטורי האיום עדיין מובנים; ומעקות הבטיחות ההזויים, כמה שפחות אומרים עליהם, כן ייטב.

אז איך הגענו לכאן? ומה קרה לביטחון? פְּרָטִיוּת?

מודלים של בסיס "נפגעים".

הדגמים שנקראים "פתוחים" הם הכל מלבד פתוחים. ספקים שונים מציגים את דרגות הפתיחות שלהם על ידי פתיחת גישה למשקולות הדגם, או לתיעוד או לבדיקות. ובכל זאת, אף אחד מהספקים הגדולים לא מספק משהו שקרוב למערכי הנתונים של ההדרכה או למניפסטים או לשושלת שלהם כדי להיות מסוגל לשכפל ולשחזר את המודלים שלהם.

אטימות זו ביחס למערכי ההדרכה פירושה שאם ברצונך להשתמש באחד או יותר מהמודלים הללו, אין לך, כצרכן או כארגון, כל יכולת לאמת או לאמת את היקף זיהום הנתונים עם כבוד ל-IP, זכויות יוצרים וכו' וכן לתוכן שעלול להיות בלתי חוקי.

באופן קריטי, ללא המניפסט של מערכי ההדרכה, אין דרך לאמת או לאמת את התוכן הזדוני שאינו קיים. שחקנים מרושעים, כולל שחקנים בחסות המדינה, שותלים ברשת תוכן של סוס טרויאני שהדוגמניות צורכות במהלך האימון שלהם, מה שמוביל לתופעות לוואי בלתי צפויות ועלולות להיות זדוניות בזמן הסקת מסקנות.

זכרו, ברגע שדגם נפגע, אין לו דרך להתעלם, האפשרות היחידה היא להרוס אותו.

אבטחה "נקבובית".

דגמי בינה מלאכותית גנרטיבית הם כלי הדבש האבטחה האולטימטיביים מכיוון ש"כל" הנתונים נבלעו במיכל אחד. מחלקות וקטגוריות חדשות של וקטורי תקיפה מתעוררים בעידן הבינה המלאכותית; התעשייה עדיין לא משלימה עם ההשלכות הן לגבי אבטחת המודלים הללו מפני איומי סייבר והן ביחס לאופן שבו מודלים אלה משמשים ככלים על ידי שחקני איומי סייבר.

ניתן להשתמש בטכניקות זדוניות של הזרקה מיידית כדי להרעיל את האינדקס; הרעלת נתונים עלולה לשמש כדי להשחית את המשקולות; התקפות הטבעה, כולל טכניקות היפוך, עשויות לשמש כדי לשלוף נתונים עשירים מההטבעות; ניתן להשתמש בהסקת חברות כדי לקבוע אם נתונים מסוימים היו במערך האימונים וכו', וזה רק קצה הקרחון.

שחקני איומים עשויים לקבל גישה לנתונים חסויים באמצעות היפוך מודל ושאילתה פרוגרמטית; הם עלולים להשחית או להשפיע באופן אחר על ההתנהגות הסמויה של המודל; וכפי שצוין קודם לכן, בליעת נתונים באופן כללי מובילה לאיום של פעילות סייבר משובצת בחסות המדינה באמצעות סוסים טרויאניים ועוד.

פרטיות "דולפת".

מודלים של AI מועילים בגלל מערכי הנתונים שהם מאומנים עליהם; בליעה חסרת הבחנה של נתונים בקנה מידה יוצרת סיכוני פרטיות חסרי תקדים עבור הפרט ועבור הציבור בכללותו. בעידן הבינה המלאכותית, הפרטיות הפכה לדאגה חברתית; תקנות שמתייחסות בעיקר לזכויות מידע אינדיבידואליות אינן מספקות.

מעבר לנתונים סטטיים, הכרחי להתייחס להנחיות שיחה דינמיות כאל IP שיש להגן ולשמור. אם אתה צרכן, העוסק ביצירה משותפת של חפץ עם מודל, אתה רוצה שההנחיות שלך המכוונות את הפעילות היצירתית הזו לא ישמשו להכשרת המודל או ישותפו בדרך אחרת עם צרכנים אחרים של המודל.

אם אתה עובד שעובד עם מודל לספק תוצאות עסקיות, המעסיק שלך מצפה שההנחיות שלך יהיו חסויות; בנוסף, ההנחיות והתגובות זקוקות לנתיב ביקורת מאובטח במקרה של בעיות אחריות שעלו על ידי מי מהצדדים. זה נובע בעיקר מהאופי הסטוכסטי של מודלים אלה והשונות בתגובות שלהם לאורך זמן.

מה קורה עכשיו?

אנו מתמודדים עם סוג אחר של טכנולוגיה, שלא דומה לאף אחת שראינו בעבר בהיסטוריה של המחשוב, טכנולוגיה המפגינה התנהגות מתעוררת, סמויה בקנה מידה; הגישות של אתמול לאבטחה, פרטיות וסודיות אינן עובדות יותר.

מנהיגי התעשייה זורקים זהירות לרוחות, ומשאירים לרגולטורים ולקובעי מדיניות כל ברירה אלא להתערב.

בול זמן:

עוד מ CryptoSlate