אנשים שמדברים בקביעות עם צ'אטבוטים של AI מתחילים להאמין שהם מרגישים, אומר מנכ"ל PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

אנשים שמדברים בקביעות עם צ'אטבוטים של AI מתחילים להאמין שהם מרגישים, אומר המנכ"ל

בקיצור אנשים רבים מתחילים להאמין שהם מקיימים אינטראקציה עם משהו חיוני כשהם מדברים עם צ'אטבוטים של AI, על פי מנכ"ל Replika, אפליקציה המאפשרת למשתמשים לעצב שותפים וירטואליים משלהם.

אנשים יכולים להתאים אישית את האופן שבו הצ'אטבוטים שלהם נראים ולשלם עבור תכונות נוספות כמו תכונות אישיות מסוימות ב-Replika. מיליונים הורידו את האפליקציה ורבים מפטפטים בקביעות עם הבוטים המורכבים שלהם. חלקם אפילו מתחילים לחשוב שהחברים הדיגיטליים שלהם הם ישויות אמיתיות שחושבות.

"אנחנו לא מדברים על אנשים משוגעים או אנשים הוזים או שיש להם אשליות", מייסדת ומנכ"לית החברה, יוג'ניה קוידה, אמר לי רויטרס. "הם מדברים עם AI וזה הניסיון שיש להם."

מהנדס גוגל כותרות בחודש שעבר, כשאמר שהוא מאמין שאחד מדגמי השפה של החברה היה מודע. בלייק Lemoine זכה ללעג במידה רבה, אבל נראה שהוא לא לבד באנתרופומורפיזציה של AI.

עם זאת, מערכות אלו אינן חושיות, ובמקום זאת מרמות בני אדם לחשוב שיש להם אינטליגנציה מסוימת. הם מחקים שפה ומחזירים אותה באופן אקראי במידה מסוימת מבלי שהם מבינים כל שפה או העולם שהם מתארים.

ובכל זאת, קוידה אמר שבני אדם יכולים להיות מושפעים על ידי הטכנולוגיה.

"אנחנו צריכים להבין ש[זה] קיים, בדיוק כמו שאנשים מאמינים ברוחות רפאים", אמר קוידה. "אנשים בונים מערכות יחסים ומאמינים במשהו."

האיחוד האירופי צריך לאסור על גלאי שקר בינה מלאכותית, אומרים פעילים

חוק ה-AI של האיחוד האירופי, הצעה להסדרת הטכנולוגיה, עדיין נמצא בוויכוח וכמה מומחים קוראים לאסור על גלאי שקר אוטומטיים.

חברות פרטיות מספקות את הטכנולוגיה לפקידי ממשל לשימוש בגבולות. אלגוריתמי בינה מלאכותית מזהים ומנתחים דברים כמו תנועת עיניים של אדם, הבעת הפנים והטון כדי לנסות ולהבחין אם מישהו אולי לא דובר אמת. אבל פעילים ומומחים משפטיים מאמינים שיש לאסור את זה באיחוד האירופי במסגרת חוק הבינה המלאכותית הקרובה.

"אתה צריך להוכיח שאתה פליט, ומניחים שאתה שקרן אלא אם כן הוכח אחרת", פטרה מולנר, מנהלת שותפה של מעבדת חוק פליטים ללא מטרות רווח, אמר לי חוטי. "ההיגיון הזה עומד בבסיס הכל. זה תומך בגלאי שקר של בינה מלאכותית, והוא תומך יותר במעקב ודחיקה בגבולות".

הניסיון לזהות אם מישהו משקר באמצעות רמזים חזותיים ופיזיים זה לא בדיוק מדע. בדיקות פוליגרף סטנדרטיות מטלטלות, ולא ברור ששימוש בשיטות אוטומטיות יותר אומר בהכרח שהוא מדויק יותר. שימוש בטכנולוגיה כל כך מסוכנת על אנשים פגיעים כמו פליטים אינו אידיאלי.

האם AI באמת יכול לדעת בן כמה אתה נראה?

הפתעה, הפתעה - אלגוריתמי AI שנועדו לחזות את גילו של מישהו מתמונות לא תמיד מדויקים.

בניסיון לפגוע במשתמשים צעירים שמשקרים לגבי גילם בפלטפורמות המדיה החברתית, מטה הודיעה שהיא עובדת עם Yoti, סטארט-אפ לראייה ממוחשבת, כדי לאמת את הגילאים של אנשים. למי שמשנה ידנית את תאריך הלידה שלו כדי להירשם כמעל גיל 18 יש אפשרות להעלות צילום סלפי וידאו, ואז משתמשים בטכנולוגיה של Yoti כדי לחזות אם הם נראים בוגרים מספיק.

אבל האלגוריתמים שלו לא תמיד מדויקים. כתבים מ-CNN, מי נבדק הדגמה מקוונת של גרסה אחרת של התוכנה על הפנים שלהם, גילתה שהתוצאות היו פגיעה או החמצה. האלגוריתמים של Yoti חזו טווח גילאי יעד נכון עבור חלקם, אבל במקרה אחד ירד בכמה שנים - חיזוי שמישהו נראה 17-21 כשהיה למעשה באמצע שנות ה-30 לחייהם.

על פי הדיווחים, המערכת המנתחת סרטונים ממשתמשי Meta נאבקת יותר בהערכת הגילאים של בני נוער מ-13 עד 17 בעלי גווני עור כהים יותר. קשה לבני אדם לנחש את הגיל של מישהו רק על ידי התבוננות בו, ומכונות כנראה לא מצליחות הרבה יותר טוב. ®

בול זמן:

עוד מ הקופה