כדי לווסת AI, התחל עם החומרה, טוענים בופינים

כדי לווסת AI, התחל עם החומרה, טוענים בופינים

כדי להסדיר את הבינה המלאכותית, התחל עם החומרה, טוענים הבופינים PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

במסענו להגביל את הפוטנציאל ההרסני של בינה מלאכותית, מאמר חדש מאוניברסיטת קיימברידג' הציע לאפות מתגי הרג ונעילה מרוחקים, כמו אלה שפותחו כדי לעצור שיגור לא מורשה של נשק גרעיני, לתוך החומרה שמניעה אותו.

הנייר [PDF], הכוללת קולות ממוסדות אקדמיים רבים וכמה מ-OpenAI, טוענת כי הסדרת החומרה שעליה מסתמכים המודלים עשויה להיות הדרך הטובה ביותר למנוע שימוש לרעה בה.

"מחשוב רלוונטי ל-AI הוא נקודת התערבות יעילה במיוחד: הוא ניתן לזיהוי, ניתן להחרגה וניתן לכימות, ומיוצר באמצעות שרשרת אספקה ​​מרוכזת ביותר", טוענים החוקרים.

אימון הדגמים הפוריים ביותר, שלדעתם עולים על טריליון פרמטרים, דורש תשתית פיזית עצומה: עשרות אלפי GPUs או מאיצים ושבועות או אפילו חודשים של זמן עיבוד. זה, אומרים החוקרים, מקשה על הסתרת קיומם וביצועם היחסי של משאבים אלה.

יתרה מכך, השבבים המתקדמים ביותר המשמשים לאימון הדגמים הללו מיוצרים על ידי מספר קטן יחסית של חברות, כמו Nvidia, AMD ואינטל, מה שמאפשר לקובעי מדיניות להגביל את מכירת הסחורות הללו לאנשים או למדינות דאגה.

גורמים אלה, יחד עם אחרים כמו אילוצי שרשרת אספקה ​​על ייצור מוליכים למחצה, מציעים לקובעי המדיניות את האמצעים להבין טוב יותר כיצד והיכן נפרסת תשתית AI, מי רשאי ואסור לגשת אליה, ולאכוף עונשים על שימוש לרעה בה, נטען בעיתון. .

שליטה על התשתית

המאמר מדגיש דרכים רבות שבהן קובעי מדיניות עשויים לגשת לרגולציה של חומרת בינה מלאכותית. רבות מההצעות - כולל אלו שנועדו לשפר את הנראות ולהגביל את מכירת מאיצי הבינה המלאכותית - כבר פועלות ברמה הלאומית.

בשנה שעברה הציג נשיא ארה"ב ג'ו ביידן א - הזמנה שמטרתה לזהות חברות המפתחות מודלים גדולים של AI דו-שימושי וכן את ספקי התשתית המסוגלים להכשיר אותם. אם אינך מכיר, "שימוש כפול" מתייחס לטכנולוגיות שיכולות לשרת כפל חובה ביישומים אזרחיים וצבאיים.

לאחרונה, משרד המסחר האמריקאי מוּצָע רגולציה שתחייב ספקי ענן אמריקאיים ליישם מדיניות מחמירה יותר של "הכר את הלקוח" כדי למנוע מאנשים או מדינות מדאיגות לעקוף את הגבלות הייצוא.

סוג זה של נראות הוא בעל ערך, מציינים החוקרים, שכן הוא יכול לעזור למנוע מרוץ חימוש נוסף, כמו זה שהופעל על ידי מחלוקת פער הטילים, שבו דיווחים שגויים הובילו להצטברות מסיבית של טילים בליסטיים. למרות שזה בעל ערך, הם מזהירים כי ביצוע על פי דרישות הדיווח הללו מסתכן בפלישה לפרטיות הלקוח ואף להוביל לדליפה של נתונים רגישים.

בינתיים, בחזית המסחר, מחלקת המסחר המשיכה לעשות זאת לעלות למעלה הגבלות, המגבילות את הביצועים של מאיצים שנמכרים לסין. אבל, כפי שדיווחנו בעבר, בעוד המאמצים הללו הקשו על מדינות כמו סין לשים את ידיהן על צ'יפס אמריקאי, הם רחוקים מלהיות מושלמים.

כדי להתמודד עם המגבלות הללו, הציעו החוקרים ליישם רישום גלובלי למכירות שבבי בינה מלאכותית שיעקוב אחריהם במהלך מחזור החיים שלהם, גם לאחר שיעזבו את ארץ המוצא שלהם. רישום כזה, הם מציעים, יכול לשלב מזהה ייחודי בכל שבב, מה שיכול לעזור בלחימה הברחה של רכיבים.

בקצה הקיצוני יותר של הספקטרום, חוקרים הציעו שניתן לאפות מתגי הרג לתוך הסיליקון כדי למנוע את השימוש בהם ביישומים זדוניים.

בתיאוריה, זה יכול לאפשר לרגולטורים להגיב מהר יותר לניצול לרעה של טכנולוגיות רגישות על ידי ניתוק גישה לשבבים מרחוק, אבל הכותבים מזהירים שעשייה זו אינה נטולת סיכון. המשמעות היא, אם מיושם בצורה לא נכונה, שמתג הרג כזה עלול להפוך למטרה עבור פושעי סייבר.

הצעה אחרת תחייב מספר צדדים לחתום על משימות אימון AI שעלולות להיות מסוכנות לפני שניתן יהיה לפרוס אותן בקנה מידה. "נשק גרעיני משתמש במנגנונים דומים הנקראים קישורי פעולה מתירניים", הם כתבו.

עבור נשק גרעיני, מנעולי אבטחה אלה נועדו למנוע מאדם אחד להתחרפן ולפתוח במכה ראשונה. עם זאת, עבור AI, הרעיון הוא שאם אדם או חברה רוצים לאמן מודל מעל סף מסוים בענן, הם יצטרכו קודם כל לקבל אישור לעשות זאת.

אף על פי שהוא כלי רב עוצמה, החוקרים מבחינים בכך שזה עלול לגרום לאחור על ידי מניעת פיתוח של AI רצוי. נראה שהטענה היא שבעוד שלשימוש בנשק גרעיני יש תוצאה די ברורה, AI לא תמיד כל כך שחור ולבן.

אבל אם זה מרגיש קצת דיסטופי מדי לטעמכם, העיתון מקדיש חלק שלם להקצאה מחדש של משאבי AI לשיפור החברה כולה. הרעיון הוא שקובעי מדיניות יכולים להתאחד כדי להפוך את מחשוב הבינה המלאכותית לנגיש יותר לקבוצות שסביר שלא ישתמשו בו לרע, מושג המתואר כ"הקצאה".

מה רע בוויסות פיתוח בינה מלאכותית?

למה ללכת לכל הצרות האלה? ובכן, מחברי המאמר טוענים שחומרה פיזית היא מטבעה קלה יותר לשליטה.

בהשוואה לחומרה, "תשומות ותפוקות אחרות של פיתוח בינה מלאכותית - נתונים, אלגוריתמים ומודלים מאומנים - הם מוצרים בלתי מוחשיים שניתן לשתף בקלות, שאינם מתחרים, מה שהופך אותם לקשים מטבעם לשליטה", נכתב בעיתון.

הטענה היא שברגע שדגם מתפרסם, בשטח פתוח או דלף, אין להחזיר את השד לבקבוק ולעצור את התפשטותו ברשת.

החוקרים הדגישו גם שהמאמצים למנוע שימוש לרעה במודלים הוכחו כלא אמינים. בדוגמה אחת, המחברים הדגישו את הקלות שבה הצליחו חוקרים לפרק אמצעי הגנה ב-Llama 2 של Meta שנועדו למנוע מהמודל ליצור שפה פוגענית.

אם נלקח לקצה, יש חשש שניתן להשתמש במודל דו-שימושי מתקדם מספיק כדי להאיץ את פיתוח של נשק כימי או ביולוגי.

המאמר מודה שרגולציה של חומרת AI אינה כדור כסף ואינה מבטלת את הצורך ברגולציה בהיבטים אחרים של התעשייה.

עם זאת, קשה להתעלם מהשתתפותם של כמה חוקרי OpenAI בהתחשב בהשתתפותו של המנכ"ל סם אלטמן ניסיונות לשלוט בנרטיב סביב רגולציה של AI. ®

בול זמן:

עוד מ הקופה