משטרת דרום קוריאה פורס כלי זיהוי Deepfake לפני הבחירות

משטרת דרום קוריאה פורס כלי זיהוי Deepfake לפני הבחירות

משטרת דרום קוריאה פורסת כלי זיהוי Deepfake לפני הבחירות PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

על רקע עלייה תלולה בזיופים עמוקים על רקע פוליטי, סוכנות המשטרה הלאומית של דרום קוריאה (KNPA) פיתחה ופרסה כלי לזיהוי תוכן שנוצר בינה מלאכותית לשימוש בחקירות פליליות פוטנציאליות.

לפי נתוני משרד החקירות הלאומי של KNPA (NOI), תוכנית הלמידה העמוקה הוכשרה על ידי כ-5.2 מיליון פיסות נתונים שמקורן ב-5,400 אזרחים קוריאנים. זה יכול לקבוע אם סרטון (שהוא לא עבר אימון מראש) אמיתי או לא תוך חמש עד 10 דקות בלבד, עם קצב דיוק של כ-80%. הכלי מייצר אוטומטית גיליון תוצאות שבו המשטרה יכולה להשתמש בחקירות פליליות.

כפי שדווח בתקשורת הקוריאנית, תוצאות אלו ישמשו ליידע חקירות אך לא ישמשו כראיה ישירה במשפטים פליליים. המשטרה גם תפנה מקום לשיתוף פעולה עם מומחי בינה מלאכותית באקדמיה ובעסקים.

מומחי אבטחת בינה מלאכותית קראו להשתמש ב-AI לתמיד, כולל זיהוי מידע מוטעה וזיופים עמוקים.

"זו הנקודה: בינה מלאכותית יכולה לעזור לנו לנתח [תוכן כוזב] בכל קנה מידה", אמר גיל שויד, מנכ"ל צ'ק פוינט, בראיון ל-Dark Reading השבוע. למרות שבינה מלאכותית היא המחלה, הוא אמר, היא גם התרופה: "[גילוי הונאה] נדרש בעבר לטכנולוגיות מורכבות מאוד, אבל עם בינה מלאכותית אתה יכול לעשות את אותו הדבר עם כמות מינימלית של מידע - לא רק כמויות טובות וגדולות של מֵידָע."

בעיית Deepfake של קוריאה

בזמן ששאר העולם מחכה בציפייה לזיופים עמוקים פולשים לעונות בחירות, קוריאנים כבר התמודדו עם הבעיה מקרוב ואישי.

הקנרית במכרה הפחם התרחשה במהלך הבחירות המחוזיות בשנת 2022, כאשר סרטון הופץ ברשתות החברתיות שהראה את הנשיא יון סוק יאול תומך במועמד מקומי למפלגת השלטון.

סוג זה של הונאה הפך לאחרונה נפוץ יותר. בחודש שעבר חשפה ועדת הבחירות הלאומית במדינה כי בין ה-29 בינואר ל-16 בפברואר, היא זיהה 129 זיופים עמוקים תוך הפרה של חוקי הבחירות - נתון שצפוי לעלות רק ככל שמתקרב יום הבחירות שלו ב-10 באפריל. כל זאת למרות חוק מתוקן שנכנס לתוקף ב-29 בינואר, שקבע ששימוש בסרטונים, תמונות או אודיו מזויפים בקשר לבחירות עלול לזכות אזרח עד שבע שנות מאסר, וקנסות של עד 50 מיליון וון. (בסביבות 37,500 דולר). 

לא רק דיסאינפורמציה

Shwed של צ'ק פוינט הזהיר שכמו לכל טכנולוגיה חדשה, לבינה מלאכותית יש את הסיכונים שלה. "אז כן, יש דברים רעים שיכולים לקרות ואנחנו צריכים להתגונן מפניהם", אמר.

מידע מזויף הוא לא באותה מידה הבעיה, הוא הוסיף. "הנושא הגדול ביותר בסכסוך אנושי באופן כללי הוא שאנחנו לא רואים את כל התמונה - אנחנו בוחרים את האלמנטים [בחדשות] שאנחנו רוצים לראות, ואז על סמך אותם מקבלים החלטה", אמר.

"זה לא על דיסאינפורמציה, זה על מה שאתה מאמין בו. ועל סמך מה שאתה מאמין בו, אתה בוחר איזה מידע אתה רוצה לראות. לא בדרך האחרת."

בול זמן:

עוד מ קריאה אפלה