メタは、ソーシャルメディアが子供たちを傷つけると主張するXNUMX件の訴訟で非難されました PlatoBlockchain Data Intelligence. 垂直検索。 あい。

ソーシャルメディアが子供を傷つけると主張するXNUMX件の訴訟でメタを非難

手短に FacebookとInstagramの親企業であるMetaは、XNUMXつではなく、XNUMXつではなく、XNUMXつの異なる訴訟に見舞われました。 

先週提出された苦情は、メタのソーシャルメディアプラットフォームが危険なほど中毒性があるように設計されており、子供やティーンエイジャーが摂食障害、自殺、うつ病、睡眠障害のリスクを高めるコンテンツを見るように駆り立てていると主張しています。 

「若者の間でのソーシャルメディアの使用は、私たちが国で直面しているメンタルヘルスの危機の主な原因と見なされるべきです。」 ビースリー・アレン法律事務所を代表する弁護士であり、事件を主導しているアンディ・バーチフィールドは声明の中で述べている。

「これらのアプリケーションは、潜在的な危害を最小限に抑えるように設計されている可能性がありますが、代わりに、企業の利益という名目で青少年を積極的に中毒することが決定されました。 この会社は、ソーシャルメディアが私たちの社会のこの最も脆弱な部分のメンタルヘルスと幸福に与える影響についての懸念の高まりを認識し、多大な損害を引き起こしたアルゴリズムとビジネス目標を変更する時が来ました。」

訴訟は、テキサス州、テネシー州、コロラド州、デラウェア州、フロリダ州、ジョージア州、イリノイ州、ミズーリ州の連邦裁判所で提起されました。 従った ブルームバーグへ 

自動運転車は本当にどれほど安全ですか?

テスラのオートパイロットのような自動運転車のソフトウェアの安全性は、公開されているデータがほとんどなく、そのような評価に使用される指標が誤解を招く可能性があることを考えると、評価が困難です。 

自動運転車を開発している企業は、通常、エラーやクラッシュを防ぐために人間のドライバーが引き継ぐ前に、自動運転技術によって運転されたマイル数を報告します。 たとえば、データは、テスラの自動操縦モードがアクティブになっているときに発生する事故が少ないことを示しています。 しかし、それは必ずしもそれがより安全であることを意味するわけではない、と専門家は主張します。 

オートパイロットは、忙しい街を移動するよりもソフトウェアが処理する条件がそれほど複雑でない高速道路での運転に合わせて調整される可能性が高くなります。 テスラと他の自動車会社は、より良い比較のために特定の道路を運転するためのデータを共有していません。 

「オートパイロットを使用している車は、オートパイロットを使用していないときよりもクラッシュする頻度が少ないことを私たちは知っています」と、バージニア交通研究評議会の研究者であるノア・グッドールは、 言われ ニューヨークタイムズ。 「しかし、彼らは同じ方法で、同じ道路で、同じ時刻に、同じドライバーによって運転されていますか?」

国道交通安全局は、昨年、事故発生から24時間以内に、自動運転車に関連する重大な事故を報告するよう企業に命じました。 しかし、まだ情報は公開されていません。

自律技術の背後にある人間の労働力をこっそりと使用していると非難されたAIの新興企業

AIを使用して小売ウェブサイトの買い物客の支払い情報を自動的に入力すると主張する300億ドル以上のスタートアップであるネイトは、実際には労働者に1ドルのデータを手動で入力するように支払います。

インターネットで物を買うのは面倒です。 Webサイトに情報が保存されていない場合は、名前、住所、クレジットカードの詳細を入力する必要があります。 Nateは、ネチズンがオンラインストアにアクセスするたびにこれを行う必要がないようにするために構築されました。 AIアプリとして説明されているネイトは、消費者が注文した後、自動化された方法を使用して個人データを入力したと主張しました。

しかし、アルゴリズムが押す必要のあるボタンのさまざまな組み合わせと、ボットやスカルパーを阻止するためのWebサイトでの予防措置を考慮すると、ソフトウェアの開発には注意が必要でした。 より多くの消費者をアプリに引き付けようとするために、ネイトは人々にベストバイやウォルマートのような店でオンラインで使うために50ドルを提供しました。 しかし、新興企業は、テクノロジーを機能させてそれらを適切に実現するのに苦労しました。 

それを作るための最良の方法は? ごまかす。 代わりに、ネイトはフィリピンで労働者を雇い、消費者の個人情報を手動で入力するようになりました。 注文が出されてから数時間後に注文が完了することもありましたが、 従った 情報へ。 注文の約60から100パーセントは手動で処理されたと言われています。 新興企業のスポークスパーソンは、この報告は「不正確であり、当社の専有技術に疑問を呈する主張は完全に根拠がない」と述べた。

DARPAはAIがより信頼できるものになることを望んでいます

米軍の研究部門であるDARPAは、この技術がより信頼できるシステムにつながることを期待して、ハイブリッド神経記号AIアルゴリズムの開発に資金を提供する新しいプログラムを立ち上げました。

現代の深層学習はしばしば「ブラックボックス」と呼ばれ、その内部動作は不透明であり、専門家は特定の入力が与えられたときにニューラルネットワークがどのように出力に到達するかを理解していないことがよくあります。 透明性の欠如は、結果の解釈が困難であることを意味し、一部のシナリオで展開するのは危険です。 より伝統的な昔ながらの象徴的な推論手法を組み込むことで、モデルの信頼性を高めることができると考える人もいます。 

「この分野で新しい考え方やアプローチを動機付けることは、自律システムが安全に動作し、意図したとおりに機能することを保証するのに役立ちます。」 Sandeep Neema、DARPAの新しいAssured Neuro Symbolic LearningandReasoningプログラムのプログラムマネージャー。 「これは信頼に不可欠であり、国防総省が自律性をうまく採用するための鍵となります。」

このイニシアチブは、シンボリックシステムと最新のAIが混在するハイブリッドアーキテクチャの研究に資金を提供します。 DARPAは、実体が友好的、敵対的、または中立であるかどうかを検出できるモデルや、戦闘中の危険または安全な領域を検出できるモデルなど、軍隊に関連するアプリケーションに特に関心があります。 ®

タイムスタンプ:

より多くの 登録