Deepmindの新しいAIは、人間がPlatoBlockchainデータインテリジェンスであるよりも、社会のリソースを配布するのに優れている可能性があります。 垂直検索。 愛。

Deepmindの新しいAIは、人間よりも社会のリソースを配布するのに優れている可能性があります

DeepMindAIが資源社会に手を差し伸べる

協力して働く人間のグループが、彼らが生み出す富をどのように再分配すべきかは、哲学者、経済学者、政治学者を長年悩ませてきた問題です。 DeepMindの新しい研究によると、AIは人間よりも優れた意思決定を行うことができる可能性があります。

AIは、ビジネスから生物医学に至るまで、あらゆる分野で複雑な課題を解決することにますます熟練していることが証明されているため、AIを使用して社会問題のソリューションを設計するのに役立つというアイデアは魅力的です。 しかし、そうすることは難しいです。なぜなら、これらの種類の質問に答えるには、公平性、正義、責任などの非常に主観的なアイデアに頼る必要があるからです。

AIソリューションが機能するためには、それが扱っている社会の価値観と一致する必要がありますが、今日存在する政治的イデオロギーの多様性は、これらが均一にはほど遠いことを示唆しています。 そのため、何を最適化する必要があるかを判断するのが難しくなり、開発者の価値観がプロセスの結果にバイアスをかける危険性が生じます。

人間社会がそのようなことに関する避けられない意見の不一致に対処するために見つけた最良の方法 問題は民主主義です、大多数の見解が公共政策を導くために使用されています。 そのため、Deepmindの研究者は、AIと人間の民主的な審議を組み合わせて、社会的ジレンマに対するより良い解決策を考え出す新しいアプローチを開発しました。

彼らのアプローチをテストするために、研究者は、ユーザーが相互利益のためにリソースを共有する方法を決定する簡単なゲームを使用して、概念実証研究を実施しました。 この実験は、さまざまなレベルの富を持つ人々が協力して公正で繁栄した社会を構築する必要がある人間社会の縮図として機能するように設計されています。

このゲームには、それぞれ異なる金額を受け取るXNUMX人のプレーヤーが関与し、それぞれが異なる金額を受け取り、それを自分で保持するか、投資の見返りを生み出す公的資金に支払うかを決定する必要があります。 ただし、この投資収益率の再配分方法は、一部のプレーヤーが他のプレーヤーよりも利益を得るように調整できます。

考えられるメカニズムには、公的資金の収益が拠出に関係なく平等に分配される厳格な平等主義が含まれます。 支払いが寄付に比例するリバタリアン。 そしてリベラルな平等主義者。各プレーヤーの支払いは、彼らが寄付する私的資金の割合に比例します。

研究で に発表され 自然人間行動, 研究者たちは、さまざまなレベルの不平等の下で、さまざまな再配布メカニズムを使用して、人間のグループにこのゲームの多くのラウンドをプレイさせる方法について説明しています。 次に、彼らは彼らが好む利益を分割する方法について投票するように求められました。

このデータは、プレイヤーの投票方法など、ゲーム内の人間の行動を模倣するようにAIをトレーニングするために使用されました。 研究者たちは、数千のゲームでこれらのAIプレーヤーを互いに競い合い、別のAIシステムがAIプレーヤーの投票方法に基づいて再配布メカニズムを微調整しました。

このプロセスの終わりに、AIはリベラルな平等主義者に似た再分配メカニズムに落ち着きましたが、彼らが私的財産の約半分を寄付しない限り、プレーヤーにはほとんど何も返しませんでした。 人間がこのアプローチを確立されたXNUMXつの主要なメカニズムに対抗するゲームをプレイしたとき、AIが設計したメカニズムが一貫して投票に勝ちました。 また、人間の審判がリターンを共有する方法を決定したゲームよりもうまくいきました。

研究者は、絶対的な貢献ではなく相対的な貢献に基づいて支払いを行うことは初期の富の不均衡を是正するのに役立つため、AI設計のメカニズムはおそらくうまくいったと言いますが、最小限の貢献を強制すると、裕福でないプレーヤーが裕福なプレーヤーの貢献に単にフリーライディングすることを防ぎます。

アプローチを単純なXNUMX人用ゲームから大規模な経済システムに変換することは明らかに非常に困難であり、このようなトイプロブレムでの成功が現実の世界でどのようにうまくいくかを示すものであるかどうかは不明です。

研究者たちは、いくつかの潜在的な問題を自ら特定しました。 民主主義の問題のXNUMXつは、「多数派の暴政」である可能性があります。これにより、少数派に対する既存の差別や不公平のパターンが持続する可能性があります。 彼らはまたの問題を提起します 説明可能性 AIが設計したソリューションを現実世界のジレンマに適用する場合、これは非常に重要です。

チームは、説明できるメカニズムを出力するようにAIモデルを明示的に設計しましたが、このアプローチをより複雑な問題に適用すると、これはますます困難になる可能性があります。 また、AIによって再配布が制御されている場合、プレーヤーには通知されませんでした。研究者は、この知識が投票方法に影響を与える可能性があることを認めています。

しかし、原理の最初の証明として、この研究は、人工知能と人間の知能の両方の長所を組み合わせた、社会問題を解決するための有望な新しいアプローチを示しています。 公共政策の設定を支援するマシンからはまだ遠いですが、AIはいつの日か、確立されたイデオロギーを超える新しいソリューションを見つけるのに役立つ可能性があります。

画像のクレジット: harishs/41画像

タイムスタンプ:

より多くの 特異点ハブ