קו בין Real ו-AI Creation Thin for the Eye

קו בין Real ו-AI Creation Thin for the Eye

קו בין יצירה אמיתית ל-AI דק מדי עבור העין PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

ככל שמפתחי AI גנרטיבי ממשיכים לכוונן את המודלים שלהם לתחכום, זה גם הופך יותר ויותר קשה להבחין בין תמונות אמיתיות לבין יצירות בינה מלאכותית, מגלים חוקרים.

מחקר של חוקרים ב- אוניברסיטת ווטרלו קבע שאנשים מתקשים להבין תמונה של אדם אמיתי ושל אדם שנוצר בינה מלאכותית.

מתחת לסף הצפוי

בביצוע המחקר, חוקרים מאוניברסיטת ווטרלו סיפקו 20 תמונות ללא תווית ל-260 משתתפים. מחצית מהתמונות היו של אנשים אמיתיים שצולמו מ-Google Images ואילו המחצית השנייה נוצרה בינה מלאכותית באמצעות כלים כמו Dall-E ו דיפוזיה יציבה.

לאחר מכן התבקשו המשתתפים לסמן את התמונות, אם הן אמיתיות או שנוצרו בינה מלאכותית, להצדיק את תשובותיהם.

למרות ש-61% מהמשתתפים יכלו להבחין בהבדל בין תמונות אמיתיות לתמונות שנוצרו בינה מלאכותית, זה עדיין היה הרבה מתחת לסף הצפוי של 85%.

תוך כדי בדיקה מדוקדקת של התמונות, המשתתפים שמו לב לפרטים כמו עיניים, אצבעות, שיניים ואינדיקטורים אחרים לכך שאינדיקטורים בעת חיפוש AI יצרו תמונות, אבל "ההערכות שלהם לא תמיד היו נכונות".

"אנשים לא מיומנים לעשות את ההבחנה כפי שהם חושבים שהם", אמר המחברת הראשית של המחקר אנדריאה פוקול, שהיא גם מועמדת לדוקטורט במדעי המחשב באוניברסיטה.

בעוד שמשתמשי אינטרנט עשויים להסתכל על תמונות בדרך אגב, חוקרי ווטרלו אמרו שהם אפשרו למשתתפים לקחת את הזמן שלהם כדי לנתח את התמונות.

"אנשים שפשוט גוללים דין או שאין להם זמן לא יקבלו את הרמזים האלה", אמר פוקול.

גם לקרוא: מנכ"ל לאונרדו מדגיש את טיפשות המשתמשים על איומי בינה מלאכותית בדאבוס

ניצול לרעה של הטכנולוגיה

שלהם ללמוד, שכותרתו "Seeing Is Non More Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media", המופיע בכתב העת Advances in Computer Graphics, מדגיש גם את הסיכונים הקשורים להתקדמות בטכנולוגיית AI גנרטיבית .

החוקרים גם ציינו בדאגה את הקצב שבו טכנולוגיית הבינה המלאכותית הגנרטיבית משתנה במהירות, והולכת ומתוחכמת בכל יום שעובר. המחקר והחקיקה האקדמיים אינם מצליחים לעמוד בקצב ההתפתחויות בתעשייה הגנרטיבית.

Pocol אמר שתמונות בינה מלאכותיות הופכות יותר אמיתיות מה שמקשה על אנשים מסוימים להבחין בקלות בין תמונות אמיתיות לתמונות שנוצרו בינה מלאכותית. זה, אמר פוקול, יוצר כר פורה לשחקנים רעים שמנצלים את הטכנולוגיה כדי להפיץ זדון ולהנציח דיסאינפורמציה או לרמות אנשים.

"דיסאינפורמציה אינה חדשה, אבל הכלים של דיסאינפורמציה השתנו והתפתחו ללא הרף", אמר פוקול.

"זה עלול להגיע למצב שבו אנשים, לא משנה כמה הם יהיו מאומנים, עדיין ייאבקו להבדיל בין תמונות אמיתיות לזיופים. לכן אנחנו צריכים לפתח כלים לזהות ולהתמודד עם זה. זה כמו מרוץ חימוש חדש של AI."

החוקרים גם הכירו באתגרים שהטכנולוגיה מציבה במיוחד בכל הנוגע להפצת זיופים עמוקים.

הטכנולוגיה בידיים לא נכונות

עם קשיים שחווים אנשים רגילים להבחין בין תמונות אמיתיות למזויפות, גדל החשש מפני עלייה בהתפשטות של זיופים עמוקים. מומחים הזהירו ששחקנים רעים ינצלו את טכנולוגיית הבינה המלאכותית הגנרטיבית כדי להפיץ שקרי בחירות בניסיונותיהם להטעות את הבוחרים.

השמיים מרכז להתמודדות עם שנאה דיגיטלית (CCDH), עמותה שעוקבת אחר דברי שטנה מקוונים כבר מוזהר בדיווח שלהם שמחוללי תמונות המופעלים על ידי בינה מלאכותית מחמירים את המידע השגוי של בחירות 2024.

"הפוטנציאל של תמונות שנוצרות בינה מלאכותית כאלה לשמש 'ראיות צילום' עלול להחמיר את התפשטותן של טענות שווא, ולהוות אתגר משמעותי לשמירה על שלמות הבחירות", אמרו חוקרי CCDH בדו"ח שלהם.

עם זאת, זה מגיע על רקע הודעה שכ-20 חברות טכנולוגיה גדולות כולל OpenAI, Microsoft ו- Stability AI חתמו על הסכם לעבוד יחד כדי למנוע מתוכן מטעה בינה מלאכותית "להפריע לבחירות המתקיימות ברחבי העולם השנה.

בול זמן:

עוד מ מטא ניוז