大規模な言語モデルは嘘をつく可能性があります - この教授は、嘘をつくときはあなたに知ってもらいたいと考えています - Mass Tech Leadership Council

大規模な言語モデルは嘘をつく可能性があります – この教授は、嘘をつくときはあなたに知ってもらいたいと考えています – Mass Tech Leadership Council

大規模な言語モデルは嘘をつく可能性があります - この教授は、嘘をつくときはあなたに知ってもらいたいと考えています - Mass Tech Leadership Council PlatoBlockchain Data Intelligence。垂直検索。あい。

ほぼ誰とでも、つまり人間であれば誰でもと話すと、会話で何が起こるかわかりません。 マリヘ・アリハニ これは、会話における自分の目標とパートナーの目標が衝突する瞬間、説明が必要な瞬間、混乱を引き起こしたり、意見の相違につながる瞬間を「健全な摩擦」と呼んでいます。

大規模な言語モデルではそうではありません。

ノースイースタン大学クーリー コンピューター サイエンス大学の助教授であるアリカニ氏は、ChatGPT のような大規模な言語モデルには確実性という点で深刻な問題があると述べています。

Alikhani 氏の新しいプロジェクトは、Friction for Accountability in Conversational Transactions (FACT) と呼ばれ、ノースイースタン大学、イリノイ大学アーバナ シャンペーン校、南カリフォルニア大学の共同研究によるものです。

FACT プロジェクトは、国防高等研究プロジェクト庁を通じた人工知能探査助成金を通じて資金提供されており、より透明性が高く公平な人工知能ツールを開発することを目的としています。

「人間のコミュニケーションを実りあるツールにしているものの 1 つは、私たちが自分の不確実性をスピーチや口調で表現しているという事実です」とアリハーニは言います。私たちはそれを表情に表しています。」

人間同士のコミュニケーションにおける不確実性から生じる健全な摩擦は、意見や視点の多様性を維持するのに役立つ、と彼女は続けます。

しかし、大規模な言語モデル (LLM) は不確実性を表現することに興味がなく、その結果、アリハーニ氏が「おべっかな行動」と呼ぶ結果が生じます。大規模な言語モデルは、ユーザーの「満足度を最大化したい」と考えており、そのステートメントに「[モデルが]自信を持っているかどうかにかかわらず、会話に摩擦を決して持ち込まない」と彼女は言います。

大規模な言語モデルでは、幻覚を起こす傾向があるため、さらなる問題が発生します。 LLM は「事実をでっち上げます。彼らはでっち上げられた事実について人々を説得するのがとても上手です。」

これらの問題にもかかわらず、人間はこれらの人工知能モデルによって生成された「事実」に過度に依存する傾向があり、それが「あなたを幸せにするために事実をでっち上げている可能性がある」ともアリハーニ氏は言う。

ユーザーが LLM に過度に依存する原因の 1 つは、LLM の「人間らしい動作」であると彼女は言います。 「それは私たちの認知を操作するでしょう。」

また、大規模な言語モデルは応答を瞬時に生成するようですが、これもユーザーが正しいと思い込むもう 1 つの要因です。 「私たちAI科学者にとって、人々に『はい、それは一貫しています』と言うのは難しいことです。はい、速いです。はい、あなたのスタイルに合わせています。しかし、それは幻覚です」とアリハーニは言います。

新しい助成金の下で、Alikhani 氏とそのチームは、LLM が発言について保持する確実性のレベルを実証し、人間と AI の会話に健全な摩擦を導入するツールを設計します。

「システムの信頼性をどのように予測して言語化できるでしょうか?」アリハーニは尋ねる。 AI モデルが「信頼度が 2% しかない場合、それを外部化する必要があります」。

「研究の主な目標の 1 つは、不確実性をモデル化し、不確実性を外部化すること」であり、人間と AI の会話の中でその不確実性を表現する方法を LLM に教えることです。これは、モデルの確実性のパーセンタイル スコアとしてユーザーのインターフェイスに表示される場合もあれば、モデルがより人間に近い方法で応答の不確実性を反映する場合もあります。

たとえば、Alikhani 氏は、患者が大規模な言語モデルに自分の健康について質問する状況を想像します。現世代の LLM は、たとえその答えが危険であることが判明したとしても、答えを提供しようとします。アリハーニ氏は、こう言えるモデルを構築したいと考えている。看護師に電話したほうがいいよ。』

「AI における説明責任の鍵となるのは堅牢性です」と Alikhani 氏は言います。現時点では、LLM がクエリに対して質問時に 1 つの回答を返し、数分後にはまったく異なる回答が返されるのが一般的です。

安全で説明責任のある AI の設計となると、単純なタスクを支援する可能性のある以前の AI システムは「他の多くのデータセットにアクセスできませんでした」とアリカニ氏は言います。なぜなら、それは彼らのデータになかったからです。」

これらのデータセットに何が含まれるか、または何が除外されるかが、LLM が「ジェンダー」に対して示すバイアスを克服する鍵となりますが、さらに、[大規模言語] モデルに反映される、逆グループとアウトグループやさまざまな認知バイアスなど、より微妙なバイアスも含まれます。

現在、アリハーニさんは「異なるアフォーダンスと好み」を持つ人々にサービスを提供するモデルを設計したいと考えていると彼女は言う。

「私たちは、データを持っている人口のためのシステムを構築し続けることだけを望んでいません。しかし、誰を置き去りにするのかを考え、この大きな不平等を悪化させるのではなく、どのようにして止めることができるでしょうか?」彼女は尋ねます。 「私の研究室の目標は、その方向に進むことです。」

タイムスタンプ:

より多くの 質量TLC