האיחוד האירופי מתכוון לאמץ את חקיקת הבינה המלאכותית הראשונה בעולם שתאסור על זיהוי פנים במקומות ציבוריים

האיחוד האירופי מתכוון לאמץ את חקיקת הבינה המלאכותית הראשונה בעולם שתאסור על זיהוי פנים במקומות ציבוריים

האיחוד האירופי מתכוון לאמץ את חקיקת הבינה המלאכותית הראשונה בעולם שתאסור על זיהוי פנים במקומות ציבוריים PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

האיחוד האירופי (EU) מוביל את המירוץ להסדרת בינה מלאכותית (AI). כשהם שמים קץ לשלושה ימים של משא ומתן, המועצה האירופית והפרלמנט האירופי הגיעו להסכם זמני מוקדם יותר היום על מה שעומד להפוך לרגולציה המקיפה הראשונה בעולם של AI.

כרמה ארטיגס, מזכירת המדינה הספרדית לדיגיטליזציה ובינה מלאכותית, כינתה את ההסכם "הישג היסטורי" בידיעה שהונפקה לתקשורת. ארטיגס אמר כי הכללים יצרו "איזון עדין ביותר" בין עידוד חדשנות ואימוץ בינה מלאכותית בטוחה ומהימנה ברחבי האיחוד האירופי לבין הגנה על "זכויות היסוד" של האזרחים.

טיוטת החקיקה-ה חוק בינה מלאכותית- הוצע לראשונה על ידי הנציבות האירופית באפריל 2021. הפרלמנט והמדינות החברות באיחוד האירופי יצביעו על אישור טיוטת החקיקה בשנה הבאה, אך הכללים לא ייכנסו לתוקף עד 2025.

גישה מבוססת סיכונים לוויסות AI

חוק הבינה המלאכותית תוכנן תוך שימוש בגישה מבוססת סיכונים, כאשר ככל שהסיכון שמערכת בינה מלאכותית מציבה גבוה יותר, כך הכללים מחמירים יותר. כדי להשיג זאת, הרגולציה תסווג AIs כדי לזהות את אלו המהווים 'סיכון גבוה'.

ה-AI שנחשבים כלא מאיימים ובעלי סיכון נמוך יהיו כפופים ל"חובות שקיפות קלות מאוד". לדוגמה, מערכות בינה מלאכותיות כאלה יידרשו לחשוף שהתוכן שלהן נוצר בינה מלאכותית כדי לאפשר למשתמשים לקבל החלטות מושכלות.

עבור AI בסיכון גבוה, החקיקה תוסיף מספר חובות ודרישות, כולל:

פיקוח אנושי: החוק מחייב גישה ממוקדת באדם, תוך שימת דגש על מנגנוני פיקוח אנושיים ברורים ויעילים על מערכות בינה מלאכותית בסיכון גבוה. משמעות הדבר היא שבני אדם נמצאים במעגל, מעקב פעיל ופיקוח על פעולת מערכת הבינה המלאכותית. תפקידם כולל להבטיח שהמערכת פועלת כמתוכנן, זיהוי והתייחסות לנזקים פוטנציאליים או השלכות לא מכוונות, ובסופו של דבר אחריות על החלטותיה ופעולותיה.

שקיפות והסבר: ביטול המסתורין של הפעילות הפנימית של מערכות בינה מלאכותית בסיכון גבוה הוא חיוני לבניית אמון ולהבטחת אחריות. מפתחים חייבים לספק מידע ברור ונגיש על האופן שבו המערכות שלהם מקבלות החלטות. זה כולל פרטים על האלגוריתמים הבסיסיים, נתוני אימון והטיות פוטנציאליות שעשויות להשפיע על תפוקות המערכת.

ממשל נתונים: חוק הבינה המלאכותית מדגיש נוהלי מידע אחראיים, במטרה למנוע אפליה, הטיה והפרות פרטיות. על המפתחים להבטיח שהנתונים המשמשים לאימון ותפעול מערכות בינה מלאכותית בסיכון גבוה מדויקים, מלאים ומייצגים. עקרונות מזעור נתונים הם קריטיים, איסוף המידע הדרוש לתפקוד המערכת בלבד ומצמצם את הסיכון של שימוש לרעה או הפרות. יתר על כן, ליחידים להיות זכויות ברורות לגשת, לתקן ולמחוק את הנתונים שלהם המשמשים במערכות בינה מלאכותית, מה שמאפשר להם לשלוט במידע שלהם ולהבטיח את השימוש האתי בו.

ניהול סיכונים: זיהוי והפחתת סיכונים יזומים יהפכו לדרישת מפתח עבור AI בסיכון גבוה. מפתחים חייבים ליישם מסגרות ניהול סיכונים חזקות שמעריכות באופן שיטתי נזקים פוטנציאליים, פגיעויות והשלכות לא מכוונות של המערכות שלהם.

בול זמן:

עוד מ CryptoSlate