Meta הוטחה בשמונה תביעות בטענה שהמדיה החברתית פוגעת בילדים ב-PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

מטה הוטחה בשמונה תביעות בטענה שהמדיה החברתית פוגעת בילדים

בקיצור חברת האם של פייסבוק ואינסטגרם, Meta, נפגעה לא אחת, לא שתיים, אלא שמונה תביעות משפטיות שונות המאשימות את אלגוריתם המדיה החברתית שלה בגרימת נזק ממשי למשתמשים צעירים ברחבי ארה"ב. 

התלונות שהוגשו במהלך השבוע האחרון טוענות שפלטפורמות המדיה החברתיות של Meta תוכננו להיות ממכרות בצורה מסוכנת, להניע ילדים ובני נוער לצפות בתוכן שמגביר את הסיכון להפרעות אכילה, התאבדות, דיכאון והפרעות שינה. 

"צריך לראות בשימוש במדיה החברתית בקרב צעירים תורם מרכזי למשבר בריאות הנפש שאנו מתמודדים איתו במדינה", אמר אנדי בירצ'פילד, עורך דין המייצג את משרד עורכי הדין ביסלי אלן, המוביל את התיקים, בהצהרה.

"אפשר היה לעצב את האפליקציות האלה כדי למזער כל נזק פוטנציאלי, אבל במקום זאת, התקבלה החלטה להתמכר באגרסיביות למתבגרים בשם רווחי החברה. הגיע הזמן שהחברה הזו תכיר בדאגות ההולכות וגוברות סביב ההשפעה של המדיה החברתית על הבריאות הנפשית והרווחה של החלק הפגיע ביותר של החברה שלנו ותשנה את האלגוריתמים והיעדים העסקיים שגרמו כל כך הרבה נזק".

התביעות הוגשו בבתי משפט פדרליים בטקסס, טנסי, קולורדו, דלאוור, פלורידה, ג'ורג'יה, אילינוי ומיזורי, פי לבלומברג. 

עד כמה באמת רכבים אוטונומיים בטוחים?

קשה להעריך את הבטיחות של תוכנת מכוניות לנהיגה עצמית כמו הטייס האוטומטי של טסלה, בהתחשב בעובדה שיש מעט נתונים שפורסמו לציבור והמדדים המשמשים להערכות כאלה מטעים. 

חברות המפתחות רכבים אוטונומיים מדווחות בדרך כלל על מספר הקילומטרים שנסעו על ידי טכנולוגיה לנהיגה עצמית לפני שנהגים אנושיים צריכים להשתלט כדי למנוע שגיאות או תאונות. הנתונים, למשל, מראים שפחות תאונות מתרחשות כאשר מצב הטייס האוטומטי של טסלה מופעל. אבל זה לא בהכרח אומר שזה בטוח יותר, טוענים מומחים. 

סביר יותר שהטייס האוטומטי יהיה מכוון לנהיגה על הכביש המהיר, שבו התנאים פחות מורכבים עבור תוכנה להתמודד איתם מאשר להתנייד בעיר עמוסה. טסלה ועסקי רכב אחרים אינם חולקים נתונים עבור נסיעה בכבישים ספציפיים לשם השוואה טובה יותר. 

"אנחנו יודעים שמכוניות המשתמשות בטייס אוטומטי מתרסקות בתדירות נמוכה יותר מאשר כשלא משתמשים בטייס אוטומטי", נח גודול, חוקר במועצת המחקר של וירג'יניה. אמר לי הניו יורק טיימס. "אבל האם הם נוסעים באותה צורה, באותם כבישים, באותה שעה ביום, על ידי אותם נהגים?".

המינהל הלאומי לבטיחות בדרכים הורה לחברות לדווח על תאונות חמורות שבהן מעורבות מכוניות בנהיגה עצמית בתוך 24 שעות מהתרחשות התאונה, בשנה שעברה. אבל מידע עדיין לא פורסם.

מתקדם בינה מלאכותית הואשם בשימוש ערמומי בעבודה אנושית מאחורי טכנולוגיה אוטונומית

Nate, סטארט-אפ בשווי של למעלה מ-300 מיליון דולר שטוען להשתמש בבינה מלאכותית למילוי אוטומטי של פרטי תשלום של קונים באתרים קמעונאיים, למעשה משלם לעובדים כדי להזין את הנתונים באופן ידני תמורת 1 דולר.

קניית דברים באינטרנט יכולה להיות מייגעת. עליך להקליד את שמך, כתובתך, פרטי כרטיס האשראי שלך אם אתר אינטרנט לא שמר את המידע. Nate נבנה כדי לעזור לגולשים ברשת להימנע מהצורך לעשות זאת בכל פעם שהם ביקרו בחנות מקוונת. Nate, שתוארה כאפליקציה בינה מלאכותית, טענה שהיא השתמשה בשיטות אוטומטיות למילוי נתונים אישיים לאחר שצרכן ביצע הזמנה.

אבל התוכנה הייתה מסובכת לפיתוח, בהתחשב בשילובים השונים של כפתורים שעל האלגוריתמים ללחוץ עליהם ובאמצעי הזהירות הקיימים באתרי אינטרנט כדי לעצור בוטים וסקלפרים. כדי לנסות למשוך יותר צרכנים לאפליקציה, Nate הציע לאנשים 50 דולר להוציא באינטרנט בחנויות כמו Best Buy ו- Walmart. אבל הבכור נאבק כדי שהטכנולוגיה שלו תפעל כדי להגשים אותם כראוי. 

הדרך הכי טובה לעשות את זה? זייף את זה. במקום זאת, נייט פנה לשכור עובדים בפיליפינים כדי להזין ידנית את המידע הפרטי של הצרכן; הזמנות הושלמו לפעמים שעות לאחר ביצוען, פי למידע. כ-60 עד 100 אחוז מההזמנות טופלו באופן ידני, נטען. דובר מטעמו אמר כי הדיווח אינו נכון והטענות המטילות ספק בטכנולוגיה הקניינית שלנו חסרות בסיס לחלוטין.

DARPA רוצה שה-AI יהיה אמין יותר

זרוע המחקר של צבא ארה"ב, DARPA, השיקה תוכנית חדשה למימון פיתוח לאלגוריתמים נוירו-סמליים היברידיים של AI בתקווה שהטכנולוגיה תוביל למערכות אמינות יותר.

למידה עמוקה מודרנית מכונה לעתים קרובות "קופסה שחורה", הפעולות הפנימיות שלה אטומות ומומחים לרוב לא מבינים כיצד רשתות עצביות מגיעות לפלט בהינתן קלט ספציפי. חוסר השקיפות פירושו שהתוצאות קשות לפירוש, מה שהופך אותה למסוכנת בפריסה בתרחישים מסוימים. יש הסבורים ששילוב של טכניקות חשיבה סמליות מיושנות מסורתיות יותר עשוי להפוך את הדוגמניות לאמינות יותר. 

"הנעת חשיבה וגישות חדשות במרחב זה יסייעו להבטיח שמערכות אוטונומיות יפעלו בבטחה ויפעלו כמתוכנן", אמר Sandeep Neema, מנהלת התוכנית של התוכנית החדשה Assured Neuro Symbolic Learning and Reasoning של DARPA. "זה יהיה חלק בלתי נפרד מהאמון, שהוא המפתח לאימוץ האוטונומיה המוצלח של משרד ההגנה".

היוזמה תממן מחקר על ארכיטקטורות היברידיות המהוות תערובת של מערכות סמליות ובינה מלאכותית מודרנית. DARPA מתעניין במיוחד ביישומים שרלוונטיים לצבא, כמו מודל שיכול לזהות אם ישויות היו ידידותיות, יריבות או ניטרליות, למשל, כמו גם לזהות אזורים מסוכנים או בטוחים בלחימה. ®

בול זמן:

עוד מ הקופה