הרובוט הזה חוזה מתי תחייך - ואז מחייך בחזרה מיד

הרובוט הזה חוזה מתי תחייך - ואז מחייך בחזרה מיד

הרובוט הזה חוזה מתי תחייך - ואז מחייך בחזרה ישירות על Cue PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

מועדוני קומדיה הם טיולי סוף השבוע האהובים עלי. אספו כמה חברים, קחו כמה משקאות, וכשהבדיחה נוחתת לכולנו - יש רגע קסום שבו העיניים שלנו נפגשות, ואנחנו חולקים חיוך חצוף.

חיוך יכול להפוך זרים לחברים היקרים ביותר. זה מדרבן לפגוש-חמוד הוליווד זוממת, מתקנת מערכות יחסים שבורות, וקשורה בל יינתק לרגשות מטושטשים וחמים של שמחה.

לפחות לאנשים. עבור רובוטים, הניסיונות שלהם לחיוכים אמיתיים נופלים לעתים קרובות לתוך העמק המדהים - קרוב מספיק כדי להידמות לאדם, אבל גורם למגע של אי נחת. באופן הגיוני, אתה יודע מה הם מנסים לעשות. אבל תחושות בטן אומרות לך שמשהו לא בסדר.

יכול להיות שזה בגלל התזמון. רובוטים מאומנים לחקות את הבעת הפנים של חיוך. אבל הם לא יודעים מתי להפעיל את החיוך. כשבני אדם מתחברים, אנחנו באמת מחייכים במקביל ללא כל תכנון מודע. לרובוטים לוקח זמן לנתח את הבעות הפנים של אדם כדי לשחזר חיוך. לאדם, אפילו אלפיות שניות של עיכוב מעלה שיער בעורף - כמו סרט אימה, משהו מרגיש מניפולטיבי ושגוי.

בשבוע שעבר, צוות באוניברסיטת קולומביה הראה אלגוריתם שמלמד רובוטים לחלוק חיוך עם המפעילים האנושיים שלהם. ה-AI מנתח שינויים קלים בפנים כדי לחזות את הבעות המפעילים שלו כ-800 אלפיות שניות לפני שהם קורים - מספיק זמן לרובוט לחייך בחזרה.

הצוות אימן פנים אנושיות רובוטיות רכות בשם Emo כדי לצפות ולהתאים את הבעותיו של בן לוויתו האנושי. עם פני סיליקון בגוון כחול, Emo נראה כמו חייזר מדע בדיוני משנות ה-60. אבל הוא חייך בקלות יחד עם בן זוגה האנושי על אותו אורך גל "רגשי".

רובוטים דמויי אדם הם לעתים קרובות מסורבלים ומעורפלים כאשר הם מתקשרים עם בני אדם, כתב ד"ר רייצ'ל ג'ק מאוניברסיטת גלזגו, שלא הייתה מעורבת במחקר. ChatGPT ואלגוריתמים גדולים אחרים של שפות כבר יכולים לגרום לדיבור של AI להישמע אנושי, אבל קשה לשכפל תקשורת לא מילולית.

תכנות מיומנויות חברתיות - לפחות להבעת פנים - לרובוטים פיזיים הוא צעד ראשון לקראת סיוע ל"רובוטים חברתיים להצטרף לעולם החברתי האנושי", היא כתבה.

מתחת למכסת המנוע

מ רובוטקסיס לשרתי רובו שמביאים לך אוכל ושתייה, רובוטים אוטונומיים נכנסים יותר ויותר לחיינו.

בלונדון, ניו יורק, מינכן וסיאול, אוטונומית רובוטים לרכוב דרך שדות תעופה כאוטיים ומציעים סיוע ללקוחות - צ'ק-אין, מציאת שער או שחזור מזוודות שאבדו. בסינגפור, כמה רובוטים בגובה שבעה מטרים עם ראייה של 360 מעלות לשוטט בשדה תעופה סימון בעיות אבטחה אפשריות. במהלך המגיפה, כלבי רובוט ריחוק חברתי נכפה.

אבל רובוטים יכולים לעשות יותר. עבור עבודות מסוכנות - כמו ניקוי הריסות של בתים או גשרים שנהרסו - הם יכולים להיות חלוצים במאמצי החילוץ ולהגביר את הבטיחות עבור המגיבים הראשונים. עם אוכלוסייה עולמית מזדקנת יותר ויותר, הם יכולים לעזור לאחיות לתמוך בקשישים.

נוֹכְחִי רובוטים דמויי אדם מקסימים בצורה מצוירת. אבל המרכיב העיקרי של רובוטים להיכנס לעולמנו הוא אמון. כאשר מדענים בונים רובוטים עם פנים יותר ויותר דמויות אדם, אנו רוצים שההבעות שלהם יתאימו לציפיות שלנו. זה לא רק חיקוי הבעת פנים. חיוך אמיתי משותף של "כן אני יודע" על בדיחה ראויה להתכווצות יוצר קשר.

תקשורת לא מילולית - הבעות, תנועות ידיים, תנוחות גוף - הן כלים שאנו משתמשים בהם כדי להביע את עצמנו. עם ChatGPT ואחרים AI ייצור, מכונות כבר יכולות "לתקשר בווידאו ובמילולית," אמר מחבר המחקר ד"ר הוד ליפסון ל מדע.

אבל כשזה מגיע לעולם האמיתי - שבו מבט, קריצה וחיוך יכולים לעשות את כל ההבדל - זה "ערוץ שחסר כרגע", אמר ליפסון. "חיוך בזמן הלא נכון עלול להזיק. [אם אפילו כמה אלפיות שניות מאוחר מדי], זה מרגיש כאילו אתה מזדהה אולי."

תגיד צ'יז

כדי לגרום לרובוטים לפעולה לא מילולית, הצוות התמקד בהיבט אחד - חיוך משותף. מחקרים קודמים תכנתו מראש רובוטים כדי לחקות חיוך. אבל בגלל שהם לא ספונטניים, זה גורם לעיכוב קל אך מורגש וגורם לחיוך להיראות מזויף.

"יש הרבה דברים שקשורים לתקשורת לא מילולית" שקשה לכמת אותם, אמר ליפסון. "הסיבה שאנחנו צריכים להגיד 'גבינה' כשאנחנו מצלמים היא כי חיוך לפי דרישה הוא למעשה די קשה."

המחקר החדש התמקד בתזמון.

הצוות הנדס אלגוריתם שמצפה לחיוך של אדם וגורם לפרצוף אנימטרוני דמוי אנוש לגחך במקביל. המכונה Emo, לפנים הרובוטים יש 26 הילוכים - חשבו שרירים מלאכותיים - עטופים ב"עור" סיליקון נמתח. כל ציוד מחובר ל"שלד" הרובוטי הראשי באמצעות מגנטים כדי להזיז את הגבות, העיניים, הפה והצוואר שלו. לעיניים של Emo יש מצלמות מובנות כדי לתעד את סביבתו ולשלוט בתנועות גלגל העין ובתנועות המצמוץ שלו.

כשלעצמו, Emo יכול לעקוב אחר הבעות הפנים שלו. מטרת המחקר החדש הייתה לעזור לו לפרש רגשות של אחרים. הצוות השתמש בטריק שכל נער מופנם עשוי לדעת: הם ביקשו מאמו להסתכל במראה כדי ללמוד כיצד לשלוט בהילוכים שלו וליצור הבעת פנים מושלמת, כמו חיוך. הרובוט למד בהדרגה להתאים את הבעותיו לפקודות מוטוריות - נניח, "הרם את הלחיים". לאחר מכן הצוות הסיר כל תכנות שעלול למתוח את הפנים יותר מדי, ולפצוע את עור הסיליקון של הרובוט.

"מסתבר ש...[ליצור] פרצוף רובוט שיכול לחייך היה מאתגר להפליא מנקודת מבט מכנית. זה יותר קשה מליצור יד רובוטית", אמר ליפסון. "אנחנו טובים מאוד בזיהוי חיוכים לא אותנטיים. אז אנחנו מאוד רגישים לזה".

כדי לנטרל את העמק המדהים, הצוות אימן את Emo לחזות תנועות פנים באמצעות סרטונים של בני אדם צוחקים, מופתעים, מזעיפים פנים, בוכים ומביעים הבעות אחרות. הרגשות הם אוניברסליים: כשאתה מחייך, זוויות הפה שלך מתפתלות לירח סהר. כשאתה בוכה, הגבות מתכווצות זו לזו.

ה-AI ניתח את תנועות הפנים של כל סצנה פריים אחר פריים. על ידי מדידת מרחקים בין העיניים, הפה ו"ציוני דרך" אחרים, הוא מצא סימנים מעידים התואמים לרגש מסוים - לדוגמה, עלייה בזווית הפה מרמזת על רמז לחיוך, בעוד שתנועה כלפי מטה עשויה לרדת לזעף.

לאחר הכשרה, לקח ל-AI פחות משנייה לזהות את ציוני הפנים הללו. בעת הפעלת Emo, פני הרובוט יכלו לצפות חיוך המבוסס על אינטראקציות אנושיות תוך שנייה, כך שהוא חייך עם המשתתף שלו.

שיהיה ברור, ה-AI לא "מרגיש". במקום זאת, הוא מתנהג כפי שאדם מתנהג כאשר הוא מצחקק לסטנד אפ מצחיק עם חיוך אמיתי לכאורה.

הבעות פנים אינן הרמזים היחידים שאנו שמים לב אליהם בעת אינטראקציה עם אנשים. תנודות ראש עדינות, הנהנים, גבות מורמות או תנועות ידיים מטביעים חותם. ללא קשר לתרבויות, "אממ", "אהה" ו"לייקים" - או המקבילות שלהם - משולבים באינטראקציות יומיומיות. לעת עתה, Emo הוא כמו תינוק שלמד איך לחייך. זה עדיין לא מבין הקשרים אחרים.

"יש עוד הרבה מה ללכת" אמר ליפסון. אנחנו רק מגרדים את פני השטח של תקשורת לא מילולית עבור AI. אבל "אם אתה חושב שהעיסוק ב-ChatGPT הוא מעניין, פשוט חכה עד שהדברים האלה יהפכו לפיזיים, וכל ההימורים כבויים."

תמונת אשראי: Yuhang Hu, Columbia Engineering באמצעות YouTube

בול זמן:

עוד מ רכזת הסינגולריות