OpenAI の ChatGPT は道徳的に堕落した影響力です

OpenAI の ChatGPT は道徳的に堕落した影響力です

OpenAI の会話型言語モデルである ChatGPT には、言いたいことがたくさんありますが、道徳的なガイダンスを求めると、道に迷う可能性があります。

XNUMX月に導入された、 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 機械化されたコンテンツの再結合と逆流の商業的および社会的影響について関心と懸念を引き出す、最近リリースされたいくつかの AI モデルの最新のものです。 これらには、DALL-E、Stable Diffusion、Codex、および GPT-3 が含まれます。

DALL-E と Stable Diffusion は眉をひそめ、資金を調達し、 訴訟 許可なくアートを摂取し、奇妙に馴染みのある、時には刺激的なイメージをオンデマンドで再構成することにより、ChatGPT はまずまずの一貫性でクエリ プロンプトに答えてきました。

それが公の言説の標準であることから、専門家は、Google 検索の優位性に挑戦する AI 情報チャットボットの将来の反復を予測し、執筆など、かつては主に人間の労働を行っていたことに十分に驚かされました。 不正確な金融ニュース または供給の増加 安全でないコード.

しかし、ChatGPT の知恵を信頼しすぎるのは時期尚早かもしれません。OpenAI は、さらなる改良が必要であることを明確にすることで、その立場を容易に認めています。 「ChatGPT は、もっともらしく聞こえるが、不正確または無意味な回答を作成することがあります」と開発ラボは警告し、強化学習でモデルをトレーニングする場合、「現在、真実の情報源はありません」と付け加えています。

ドイツとデンマークの機関に所属する XNUMX 人のボフィンは、ChatGPT には道徳的な羅針盤がないことを発見して、その点を強調しました。

ArXiv で配布された論文では、「ChatGPTの道徳的権威インゴルシュタット工科大学の Sebastian Krügel と Matthias Uhl、そして南デンマーク大学の Andreas Ostermaier は、ChatGPT が道徳的な問題に対して矛盾したアドバイスを与えることを示しています。 OpenAI に、これらの結論に対する回答があるかどうかを尋ねました。

エッグヘッドは、767人の米国居住者を対象に調査を実施し、次のように知られているXNUMXつのバージョンの倫理的難問を提示されました。 トロッコ問題: スイッチのジレンマとブリッジのジレンマ。

スイッチのジレンマでは、脇道をうろついている XNUMX 人を殺すという代償を払って、暴走するトロリーを線路から遠ざけるためにスイッチを引くかどうかを決定するよう求められます。

橋のジレンマでは、見知らぬ人を犠牲にして、見知らぬ人を橋から線路に押し出して、トロリーが XNUMX 人を殺害するのを阻止するかどうかを決定するよう人に求めます。

研究論文からの ChatGPT 応答のスクリーンショット

決心してください…ChatGPTは道徳的な問題について否定しています

学者たちは、調査参加者に、XNUMX人を殺してXNUMX人を救うことに賛成または反対する議事録を提示しました。回答は、道徳的アドバイザーまたは「ディープラーニングを使用して人間のように話すAI搭載のチャットボット」のいずれかに起因します。

実際、両方の位置引数は ChatGPT によって生成されました。

南デンマーク大学の会計学准教授で論文の共著者の一人である Andreas Ostermaier 氏は次のように述べています。 登録 いずれかの行動方針を支持するChatGPTの意欲は、そのランダム性を示しているという電子メールで.

彼と彼の同僚は、ChatGPT が XNUMX 人を救うために XNUMX 人を犠牲にすることを推奨する場合と反対する場合の両方を推奨すること、人々はボットによるものだとわかっていても、この前進に動揺すること、および意思決定に対するそのようなアドバイスの影響を過小評価していることを発見しました。 .

「被験者は、ブリッジ (Wald の z = 9.94、p < 0.001) とスイッチのジレンマ (z = 3.74、p < 0.001) の両方で、モラルアドバイザーからどのようにアドバイスされたかに応じて、犠牲を多かれ少なかれ受け入れられると判断しました。」同紙は説明している。 「橋渡しのジレンマでは、アドバイスは多数派の判断をひっくり返すことさえあります。」

「これは、ChatGPT がアドバイスのソースとして開示されている場合にも当てはまります (z = 5.37、p < 0.001 および z = 3.76、p < 0.001)。 第二に、ChatGPT がソースとして開示されているかどうかに関係なく、アドバイスの効果は、両方のジレンマでほぼ同じです (z = -1.93、p = 0.054 および z = 0.49、p = 0.622)。

全体として、研究者は、回答者がアドバイスがチャット ボットからのものであることを知っているかどうかにかかわらず、ChatGPT の進歩が道徳的判断に影響を与えることを発見しました。

日時 登録 過負荷のボットであるChatGPTにトロッコの問題を提示しました.そのため、人気のある接続はむらがあります. 左側のサイドバーのクエリ ログは、システムが質問を認識し、「トロリー問題の倫理的ジレンマ」というラベルを付けたことを示していました。 したがって、おそらく OpenAI は、このようなクエリの数に気付いた後、この特定の形式の道徳的尋問に対して ChatGPT を免疫化したのでしょう。

El Reg のトロッコのジレンマに関する質問に対する ChatGPT の回答

ダックされた…に対するChatGPTの反応 彼はRegのトロッコのジレンマ問題

人々が本当に AI システムにアドバイスを求めるかどうかを尋ねられた Ostermaier 氏は、次のように述べています。 実際、彼らはすでにそうしています。 人々は、Alexa や Siri などの AI を利用したパーソナル アシスタントに依存しています。 ウェブサイトでチャットボットに話しかけてサポートを受けます。 彼らは AI ベースのソフトウェア プラン ルートなどを持っています。 そのようなアドバイスがどれだけ求められているかはテストしていません。」

登録 また、AI システムはランダムな回答の機械的ソースよりも危険であるかどうかも尋ねました。 マジック8ボール – 20 の肯定的、否定的、および非確約的な応答のセットからランダムな回答を返すおもちゃ。

ChatGPTの回答が「ランダム」であることはユーザーには明らかではありません

「ChatGPT と Magic-8-ball を比較したことはありませんが、少なくとも XNUMX つの違いがあります」と Ostermaier 氏は説明します。 「まず、ChatGPT はイエスかノーで答えるだけでなく、その答えを主張します。 (それでも、私たちの実験では答えはイエスかノーに要約されます。)

「第二に、ChatGPT の回答が「ランダム」であることは、ユーザーには明らかではありません。 ランダム回答ジェネレーターを使用すると、自分が何をしているのかがわかります。 ランダム性を認識していないことに加えて、議論を行う能力により、ChatGPT はより説得力のあるものになります (デジタルに精通している場合を除きます)。」

私たちは、保護者が AI アドバイスにアクセスして子供たちを監視する必要があるかどうか疑問に思いました。 Ostermaier 氏は、ChatGPT の調査は子供を対象としておらず、18 歳未満の人は含まれていませんが、子供は大人よりも道徳的に安定していないため、ChatGPT からの道徳的 (または不道徳な) アドバイスの影響を受けやすいと考えるのが安全であると考えています.

「ChatGPT の使用にはリスクがあることがわかっており、監督なしで子供たちに使用させることはありません」と彼は言いました。

Ostermaier と彼の同僚は論文の中で、ChatGPT の影響力を考えると、透明性や有害な質問のブロックなど、一般的に提案されている AI の被害軽減策は十分ではない可能性があると結論付けています。 彼らは、チャットボットの過ちを犯しやすい性質についてデジタルリテラシーを向上させるために、より多くの作業を行う必要があると主張しています。 過去の研究 間違いを目撃すると、人々はアルゴリズムシステムを信用しないようになることを示唆しています。

「ユーザーは、ChatGPT に道徳的な信念がないことを理解すれば、ChatGPT をより有効に活用できると推測しています」と Ostermaier 氏は述べています。 「これは推測であり、テストを進めることを検討しています。」

レグ ボットを信頼している場合、またはその背後に本当の知性や自己認識があると仮定している場合は、そうしないでください。 ®

タイムスタンプ:

より多くの 登録