Meta โดนฟ้องร้องแปดคดี โดยอ้างว่าโซเชียลมีเดียทำร้ายเด็ก PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

Meta โดนฟ้อง XNUMX คดี อ้างโซเชียลทำร้ายเด็ก

โดยสังเขป Meta ซึ่งเป็นธุรกิจแม่ของ Facebook และ Instagram ไม่ได้ถูกโจมตีด้วยคดีฟ้องร้องถึง XNUMX คดี โดยกล่าวหาว่าอัลกอริธึมโซเชียลมีเดียของตนก่อให้เกิดอันตรายอย่างแท้จริงต่อผู้ใช้ที่อายุน้อยในสหรัฐอเมริกา 

การร้องเรียนที่ยื่นในช่วงสัปดาห์ที่ผ่านมาอ้างว่าแพลตฟอร์มโซเชียลมีเดียของ Meta ได้รับการออกแบบมาให้เสพติดอย่างอันตราย ทำให้เด็กและวัยรุ่นดูเนื้อหาที่เพิ่มความเสี่ยงต่อความผิดปกติของการกิน การฆ่าตัวตาย ภาวะซึมเศร้า และความผิดปกติของการนอนหลับ 

“การใช้โซเชียลมีเดียของคนหนุ่มสาวควรถูกมองว่าเป็นปัจจัยสำคัญที่ทำให้เกิดวิกฤตสุขภาพจิตที่เราเผชิญในประเทศ” กล่าวว่า Andy Birchfield ทนายความที่เป็นตัวแทนของสำนักงานกฎหมาย Beasley Allen ซึ่งเป็นผู้นำคดีนี้ในแถลงการณ์

“แอปพลิเคชันเหล่านี้อาจได้รับการออกแบบมาเพื่อลดอันตรายที่อาจเกิดขึ้น แต่มีการตัดสินใจเพื่อเสพติดวัยรุ่นอย่างจริงจังในนามของผลกำไรขององค์กร ถึงเวลาแล้วที่บริษัทนี้จะต้องรับทราบถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับผลกระทบของโซเชียลมีเดียที่มีต่อสุขภาพจิตและความเป็นอยู่ที่ดีของส่วนที่เปราะบางที่สุดในสังคมของเรา และปรับเปลี่ยนอัลกอริทึมและวัตถุประสงค์ทางธุรกิจที่สร้างความเสียหายอย่างมาก”

คดีนี้ยื่นฟ้องในศาลรัฐบาลกลางในรัฐเท็กซัส เทนเนสซี โคโลราโด เดลาแวร์ ฟลอริดา จอร์เจีย อิลลินอยส์ และมิสซูรี ตาม ไปที่ Bloomberg 

รถยนต์ไร้คนขับปลอดภัยจริงหรือ?

ความปลอดภัยของซอฟต์แวร์รถยนต์ที่ขับเคลื่อนด้วยตนเอง เช่น Autopilot ของเทสลานั้นยากต่อการประเมิน เนื่องจากมีข้อมูลเพียงเล็กน้อยที่เปิดเผยต่อสาธารณะ และตัวชี้วัดที่ใช้สำหรับการประเมินดังกล่าวทำให้เข้าใจผิด 

บริษัทต่างๆ ที่พัฒนายานยนต์ไร้คนขับมักจะรายงานจำนวนไมล์ที่ขับเคลื่อนโดยเทคโนโลยีที่ขับเคลื่อนด้วยตนเอง ก่อนที่คนขับที่เป็นมนุษย์จะต้องรับช่วงต่อ เพื่อป้องกันข้อผิดพลาดหรือการชน ตัวอย่างเช่น ข้อมูลแสดงให้เห็นว่าเกิดอุบัติเหตุน้อยลงเมื่อเปิดใช้งานโหมด Autopilot ของ Tesla แต่ไม่จำเป็นต้องหมายความว่าปลอดภัยกว่าเสมอไป ผู้เชี่ยวชาญโต้แย้ง 

ระบบ Autopilot มีแนวโน้มที่จะปรับแต่งให้เหมาะกับการขับรถบนทางหลวง ซึ่งเงื่อนไขต่างๆ ที่ซอฟต์แวร์จะรับมือได้ไม่ซับซ้อนกว่าการเดินทางในเมืองที่พลุกพล่าน เทสลาและธุรกิจรถยนต์อื่นๆ ไม่แชร์ข้อมูลสำหรับการขับรถลงถนนที่เฉพาะเจาะจงเพื่อการเปรียบเทียบที่ดีขึ้น 

Noah Goodall นักวิจัยจาก Virginia Transportation Research Council บอก เดอะนิวยอร์กไทม์ส “แต่พวกเขากำลังถูกขับในทางเดียวกัน บนถนนเดียวกัน ในเวลาเดียวกันของวัน โดยคนขับคนเดียวกันหรือไม่”

การบริหารความปลอดภัยการจราจรบนทางหลวงแห่งชาติได้สั่งให้บริษัทต่างๆ รายงานอุบัติเหตุร้ายแรงเกี่ยวกับรถยนต์ที่ขับด้วยตนเองภายใน 24 ชั่วโมงของอุบัติเหตุที่เกิดขึ้นเมื่อปีที่แล้ว แต่ยังไม่มีการเปิดเผยข้อมูลต่อสาธารณะ

AI พุ่งพรวดถูกกล่าวหาว่าแอบใช้แรงงานมนุษย์เบื้องหลังเทคโนโลยีอิสระ

Nate สตาร์ทอัพที่มีมูลค่ากว่า 300 ล้านเหรียญสหรัฐ ซึ่งอ้างว่าใช้ AI กรอกข้อมูลการชำระเงินของผู้ซื้อบนเว็บไซต์ของร้านค้าปลีกโดยอัตโนมัติ จริง ๆ แล้วจ่ายเงินให้พนักงานป้อนข้อมูลด้วยตนเองเป็นเงิน 1 เหรียญ

การซื้อของทางอินเทอร์เน็ตอาจเป็นเรื่องน่าเบื่อ คุณต้องพิมพ์ชื่อ ที่อยู่ รายละเอียดบัตรเครดิต หากเว็บไซต์ไม่ได้บันทึกข้อมูล Nate ถูกสร้างมาเพื่อช่วยให้ชาวเน็ตไม่ต้องทำสิ่งนี้ทุกครั้งที่มาที่ร้านค้าออนไลน์ Nate อธิบายว่าเป็นแอป AI อ้างว่าใช้วิธีการอัตโนมัติเพื่อเติมข้อมูลส่วนบุคคลหลังจากที่ผู้บริโภคสั่งซื้อ

แต่ซอฟต์แวร์นั้นพัฒนาได้ยาก เมื่อพิจารณาจากปุ่มต่างๆ ที่อัลกอริธึมต้องกดและข้อควรระวังบนเว็บไซต์เพื่อหยุดบอทและสแกปเปอร์ ในการพยายามดึงดูดผู้บริโภคให้มาที่แอปมากขึ้น Nate ได้เสนอเงิน $50 เพื่อใช้จ่ายออนไลน์ที่ร้านค้าอย่าง Best Buy และ Walmart แต่คนหัวโล้นพยายามดิ้นรนเพื่อให้เทคโนโลยีทำงานเพื่อเติมเต็มอย่างเหมาะสม 

วิธีที่ดีที่สุดที่จะทำให้มัน? ปลอม. เนทหันไปจ้างคนงานในฟิลิปปินส์เพื่อป้อนข้อมูลส่วนตัวของผู้บริโภคด้วยตนเอง คำสั่งซื้อบางครั้งอาจเสร็จสมบูรณ์หลังจากวางคำสั่งซื้อ ตาม สู่ข้อมูล มีการกล่าวหาว่าคำสั่งซื้อประมาณ 60 ถึง 100 เปอร์เซ็นต์ได้รับการประมวลผลด้วยตนเอง โฆษกของกลุ่มคนดังกล่าวกล่าวว่ารายงานดังกล่าว "ไม่ถูกต้องและการอ้างสิทธิ์ที่ตั้งคำถามเกี่ยวกับเทคโนโลยีที่เป็นกรรมสิทธิ์ของเรานั้นไม่มีมูลความจริงเลย"

DARPA อยากให้ AI มีความน่าเชื่อถือมากขึ้น

DARPA ซึ่งเป็นหน่วยงานวิจัยด้านการทหารของสหรัฐฯ ได้เปิดตัวโปรแกรมใหม่เพื่อสนับสนุนการพัฒนาอัลกอริธึม AI ที่สื่อถึงระบบประสาทและสมองแบบไฮบริด ด้วยความหวังว่าเทคโนโลยีนี้จะนำไปสู่ระบบที่น่าเชื่อถือยิ่งขึ้น

การเรียนรู้เชิงลึกสมัยใหม่มักถูกเรียกว่า "กล่องดำ" การทำงานภายในของมันนั้นไม่ชัดเจน และผู้เชี่ยวชาญมักไม่เข้าใจว่าโครงข่ายประสาทเทียมไปถึงผลลัพธ์ที่ได้รับจากอินพุตที่เจาะจงได้อย่างไร การขาดความโปร่งใสหมายความว่าผลลัพธ์นั้นตีความได้ยาก ทำให้มีความเสี่ยงในการปรับใช้ในบางสถานการณ์ บางคนเชื่อว่าการผสมผสานเทคนิคการให้เหตุผลเชิงสัญลักษณ์ที่ล้าสมัยแบบดั้งเดิมเข้าไว้ด้วยกันจะทำให้แบบจำลองน่าเชื่อถือมากขึ้น 

“การจูงใจให้คิดและแนวทางใหม่ๆ ในพื้นที่นี้จะช่วยให้มั่นใจได้ว่าระบบอัตโนมัติจะทำงานได้อย่างปลอดภัยและทำงานได้ตามที่ตั้งใจไว้” กล่าวว่า Sandeep Neema ผู้จัดการโปรแกรมของโปรแกรม Assured Neuro Symbolic Learning and Reasoning ใหม่ของ DARPA “สิ่งนี้จะเป็นส่วนสำคัญของความไว้วางใจ ซึ่งเป็นกุญแจสำคัญในการนำเอกราชของกระทรวงกลาโหมมาใช้อย่างประสบความสำเร็จ”

ความคิดริเริ่มนี้จะให้ทุนสนับสนุนการวิจัยสถาปัตยกรรมไฮบริดที่ผสมผสานระหว่างระบบสัญลักษณ์และ AI สมัยใหม่ DARPA มีความสนใจเป็นพิเศษในการใช้งานที่เกี่ยวข้องกับการทหาร เช่น แบบจำลองที่สามารถตรวจจับได้ว่าหน่วยงานที่เป็นมิตร ฝ่ายตรงข้าม หรือเป็นกลาง เช่นเดียวกันกับการตรวจจับพื้นที่อันตรายหรือปลอดภัยในการสู้รบ ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน