Meta는 소셜 미디어가 어린이 PlatoBlockchain 데이터 인텔리전스에 해를 끼친다고 주장하는 8건의 소송으로 비난을 받았습니다. 수직 검색. 일체 포함.

메타, 소셜 미디어가 아이들에게 상처를 준다고 주장하는 XNUMX건의 소송으로 난리

요컨대 페이스북과 인스타그램의 모기업인 메타(Meta)는 소셜 미디어 알고리즘이 미국 전역의 젊은 사용자들에게 실질적인 피해를 입히고 있다고 비난하는 소송이 한 건도 아니고 두 건도 아닌 XNUMX건의 소송에 휘말렸다. 

지난 주에 제기된 불만 사항은 Meta의 소셜 미디어 플랫폼이 위험한 중독성을 갖도록 설계되어 어린이와 십대가 섭식 장애, 자살, 우울증 및 수면 장애의 위험을 증가시키는 콘텐츠를 보도록 유도한다고 주장합니다. 

"청소년의 소셜 미디어 사용은 우리가 국가에서 직면한 정신 건강 위기에 대한 주요 기여자로 간주되어야 합니다." 말했다 사건을 주도하고 있는 Beasley Allen Law Firm을 대표하는 변호사 Andy Birchfield는 성명을 통해 다음과 같이 말했습니다.

“이러한 응용 프로그램은 잠재적인 피해를 최소화하도록 설계될 수 있었지만 대신 기업의 이익이라는 명목으로 청소년을 공격적으로 중독시키기로 결정했습니다. 이제 이 회사가 소셜 미디어가 우리 사회에서 가장 취약한 부분의 정신 건강과 웰빙에 미치는 영향에 대한 증가하는 우려를 인정하고 많은 피해를 야기한 알고리즘과 비즈니스 목표를 변경해야 할 때입니다.”

소송은 텍사스, 테네시, 콜로라도, 델라웨어, 플로리다, 조지아, 일리노이, 미주리의 연방 법원에 접수됐다. 따라 Bloomberg에. 

자율주행차는 과연 얼마나 안전한가?

Tesla의 Autopilot과 같은 자율 주행 자동차 소프트웨어의 안전성은 공개된 데이터가 거의 없고 이러한 평가에 사용된 측정항목이 오해의 소지가 있기 때문에 평가하기 어렵습니다. 

자율 주행 차량을 개발하는 회사는 일반적으로 인간 운전자가 오류나 충돌을 방지하기 위해 인계받기 전에 자율 주행 기술로 주행한 마일 수를 보고합니다. 예를 들어 데이터는 Tesla의 Autopilot 모드가 활성화될 때 사고가 더 적게 발생함을 보여줍니다. 그러나 그것이 반드시 더 안전한 것은 아니라고 전문가들은 주장합니다. 

자동 조종 장치는 복잡한 도시를 돌아다니는 것보다 소프트웨어가 다루기 어려운 조건인 고속도로에서 운전하도록 조정될 가능성이 더 큽니다. Tesla 및 기타 자동차 회사는 더 나은 비교를 위해 특정 도로를 주행하는 데이터를 공유하지 않습니다. 

버지니아 교통 연구 위원회(Virginia Transportation Research Council)의 연구원인 노아 구달(Noah Goodall)은 "자동 조종 장치를 사용하는 자동차가 자동 조종 장치를 사용하지 않을 때보다 충돌 빈도가 적다는 것을 알고 있습니다."라고 말했습니다. 이야기 뉴욕 타임즈. “하지만 그들은 같은 길, 같은 시간, 같은 운전자들에 의해 같은 방식으로 운전되고 있습니까?”

도로교통안전국은 지난해 자율주행차와 관련된 중대 충돌사고를 업체들에 사고 발생 24시간 이내에 신고하라고 지시했다. 하지만 아직까지 공개된 정보는 없습니다.

AI 신생 기업, 자율 기술 뒤에 인간 노동을 몰래 사용했다는 혐의로 기소

AI를 사용하여 소매 웹사이트에서 쇼핑객의 결제 정보를 자동으로 채운다고 주장하는 300억 달러 이상의 가치가 있는 스타트업 Nate는 실제로 직원에게 1달러에 데이터를 수동으로 입력하도록 지불합니다.

인터넷에서 물건을 사는 것은 지루할 수 있습니다. 웹사이트에 정보가 저장되지 않은 경우 이름, 주소, 신용 카드 정보를 입력해야 합니다. Nate는 네티즌들이 온라인 상점을 방문할 때마다 이것을 하지 않아도 되도록 돕기 위해 만들어졌습니다. AI 앱으로 설명되는 Nate는 소비자가 주문한 후 자동화된 방법을 사용하여 개인 데이터를 채웠다고 주장했습니다.

그러나 알고리즘이 눌러야 하는 다양한 버튼 조합과 봇과 스캘퍼를 중지하기 위한 웹사이트의 예방 조치를 고려할 때 소프트웨어를 개발하기가 까다로웠습니다. 더 많은 소비자를 앱으로 끌어들이기 위해 Nate는 사람들에게 Best Buy 및 Walmart와 같은 상점에서 온라인으로 사용할 수 있는 50달러를 제안했습니다. 그러나 신생 기업은 기술이 제대로 작동하도록 하는 데 어려움을 겪었습니다. 

가장 좋은 방법은? 가짜. 대신 Nate는 필리핀에서 직원을 고용하여 소비자의 개인 정보를 수동으로 입력했습니다. 주문이 접수된 후 몇 시간 후에 완료되는 경우도 있었습니다. 따라 정보에. 주문의 약 60~100%가 수동으로 처리된 것으로 알려졌다. 이 신생 기업의 대변인은 보고서가 "잘못되었으며 우리의 독점 기술에 의문을 제기하는 주장은 완전히 근거가 없다"고 말했습니다.

DARPA는 AI가 더 신뢰할 수 있기를 원합니다

미군 연구 기관인 DARPA는 이 기술이 보다 신뢰할 수 있는 시스템으로 이어질 수 있기를 바라며 하이브리드 신경 기호 AI 알고리즘 개발 자금을 지원하는 새로운 프로그램을 시작했습니다.

현대의 딥 러닝은 종종 "블랙 박스"라고 하며 내부 작동은 불투명하며 전문가들은 특정 입력이 주어지면 신경망이 출력에 도달하는 방법을 이해하지 못하는 경우가 많습니다. 투명성이 부족하면 결과를 해석하기 어려워 일부 시나리오에서 배포하는 것이 위험합니다. 일부는 더 전통적인 구식 기호 추론 기술을 통합하면 모델을 더 신뢰할 수 있다고 믿습니다. 

"이 분야에서 새로운 사고와 접근 방식에 대한 동기 부여는 자율 시스템이 안전하게 작동하고 의도한 대로 작동하도록 하는 데 도움이 될 것입니다." 말했다 DARPA의 새로운 Assured Neuro Symbolic Learning and Reasoning 프로그램의 프로그램 관리자인 Sandeep Neema는 다음과 같이 말했습니다. “이는 국방부의 성공적인 자율성 채택의 핵심인 신뢰에 필수적입니다.”

이 이니셔티브는 상징적 시스템과 현대 AI가 혼합된 하이브리드 아키텍처에 대한 연구에 자금을 지원할 것입니다. DARPA는 예를 들어 엔티티가 우호적인지, 적대적인지, 중립적인지 감지할 수 있는 모델과 같이 군대와 관련된 애플리케이션에 특히 관심이 있습니다. ®

타임 스탬프 :

더보기 등록