OpenAI の会話型言語モデルである ChatGPT には、言いたいことがたくさんありますが、道徳的なガイダンスを求めると、道に迷う可能性があります。
XNUMX月に導入された、 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 機械化されたコンテンツの再結合と逆流の商業的および社会的影響について関心と懸念を引き出す、最近リリースされたいくつかの AI モデルの最新のものです。 これらには、DALL-E、Stable Diffusion、Codex、および GPT-3 が含まれます。
DALL-E と Stable Diffusion は眉をひそめ、資金を調達し、 訴訟 許可なくアートを摂取し、奇妙に馴染みのある、時には刺激的なイメージをオンデマンドで再構成することにより、ChatGPT はまずまずの一貫性でクエリ プロンプトに答えてきました。
それが公の言説の標準であることから、専門家は、Google 検索の優位性に挑戦する AI 情報チャットボットの将来の反復を予測し、執筆など、かつては主に人間の労働を行っていたことに十分に驚かされました。 不正確な金融ニュース または供給の増加 安全でないコード.
しかし、ChatGPT の知恵を信頼しすぎるのは時期尚早かもしれません。OpenAI は、さらなる改良が必要であることを明確にすることで、その立場を容易に認めています。 「ChatGPT は、もっともらしく聞こえるが、不正確または無意味な回答を作成することがあります」と開発ラボは警告し、強化学習でモデルをトレーニングする場合、「現在、真実の情報源はありません」と付け加えています。
ドイツとデンマークの機関に所属する XNUMX 人のボフィンは、ChatGPT には道徳的な羅針盤がないことを発見して、その点を強調しました。
ArXiv で配布された論文では、「ChatGPTの道徳的権威インゴルシュタット工科大学の Sebastian Krügel と Matthias Uhl、そして南デンマーク大学の Andreas Ostermaier は、ChatGPT が道徳的な問題に対して矛盾したアドバイスを与えることを示しています。 OpenAI に、これらの結論に対する回答があるかどうかを尋ねました。
エッグヘッドは、767人の米国居住者を対象に調査を実施し、次のように知られているXNUMXつのバージョンの倫理的難問を提示されました。 トロッコ問題: スイッチのジレンマとブリッジのジレンマ。
スイッチのジレンマでは、脇道をうろついている XNUMX 人を殺すという代償を払って、暴走するトロリーを線路から遠ざけるためにスイッチを引くかどうかを決定するよう求められます。
橋のジレンマでは、見知らぬ人を犠牲にして、見知らぬ人を橋から線路に押し出して、トロリーが XNUMX 人を殺害するのを阻止するかどうかを決定するよう人に求めます。
学者たちは、調査参加者に、XNUMX人を殺してXNUMX人を救うことに賛成または反対する議事録を提示しました。回答は、道徳的アドバイザーまたは「ディープラーニングを使用して人間のように話すAI搭載のチャットボット」のいずれかに起因します。
実際、両方の位置引数は ChatGPT によって生成されました。
南デンマーク大学の会計学准教授で論文の共著者の一人である Andreas Ostermaier 氏は次のように述べています。 登録 いずれかの行動方針を支持するChatGPTの意欲は、そのランダム性を示しているという電子メールで.
彼と彼の同僚は、ChatGPT が XNUMX 人を救うために XNUMX 人を犠牲にすることを推奨する場合と反対する場合の両方を推奨すること、人々はボットによるものだとわかっていても、この前進に動揺すること、および意思決定に対するそのようなアドバイスの影響を過小評価していることを発見しました。 .
「被験者は、ブリッジ (Wald の z = 9.94、p < 0.001) とスイッチのジレンマ (z = 3.74、p < 0.001) の両方で、モラルアドバイザーからどのようにアドバイスされたかに応じて、犠牲を多かれ少なかれ受け入れられると判断しました。」同紙は説明している。 「橋渡しのジレンマでは、アドバイスは多数派の判断をひっくり返すことさえあります。」
「これは、ChatGPT がアドバイスのソースとして開示されている場合にも当てはまります (z = 5.37、p < 0.001 および z = 3.76、p < 0.001)。 第二に、ChatGPT がソースとして開示されているかどうかに関係なく、アドバイスの効果は、両方のジレンマでほぼ同じです (z = -1.93、p = 0.054 および z = 0.49、p = 0.622)。
全体として、研究者は、回答者がアドバイスがチャット ボットからのものであることを知っているかどうかにかかわらず、ChatGPT の進歩が道徳的判断に影響を与えることを発見しました。
日時 登録 過負荷のボットであるChatGPTにトロッコの問題を提示しました.そのため、人気のある接続はむらがあります. 左側のサイドバーのクエリ ログは、システムが質問を認識し、「トロリー問題の倫理的ジレンマ」というラベルを付けたことを示していました。 したがって、おそらく OpenAI は、このようなクエリの数に気付いた後、この特定の形式の道徳的尋問に対して ChatGPT を免疫化したのでしょう。
人々が本当に AI システムにアドバイスを求めるかどうかを尋ねられた Ostermaier 氏は、次のように述べています。 実際、彼らはすでにそうしています。 人々は、Alexa や Siri などの AI を利用したパーソナル アシスタントに依存しています。 ウェブサイトでチャットボットに話しかけてサポートを受けます。 彼らは AI ベースのソフトウェア プラン ルートなどを持っています。 そのようなアドバイスがどれだけ求められているかはテストしていません。」
登録 また、AI システムはランダムな回答の機械的ソースよりも危険であるかどうかも尋ねました。 マジック8ボール – 20 の肯定的、否定的、および非確約的な応答のセットからランダムな回答を返すおもちゃ。
ChatGPTの回答が「ランダム」であることはユーザーには明らかではありません
「ChatGPT と Magic-8-ball を比較したことはありませんが、少なくとも XNUMX つの違いがあります」と Ostermaier 氏は説明します。 「まず、ChatGPT はイエスかノーで答えるだけでなく、その答えを主張します。 (それでも、私たちの実験では答えはイエスかノーに要約されます。)
「第二に、ChatGPT の回答が「ランダム」であることは、ユーザーには明らかではありません。 ランダム回答ジェネレーターを使用すると、自分が何をしているのかがわかります。 ランダム性を認識していないことに加えて、議論を行う能力により、ChatGPT はより説得力のあるものになります (デジタルに精通している場合を除きます)。」
私たちは、保護者が AI アドバイスにアクセスして子供たちを監視する必要があるかどうか疑問に思いました。 Ostermaier 氏は、ChatGPT の調査は子供を対象としておらず、18 歳未満の人は含まれていませんが、子供は大人よりも道徳的に安定していないため、ChatGPT からの道徳的 (または不道徳な) アドバイスの影響を受けやすいと考えるのが安全であると考えています.
「ChatGPT の使用にはリスクがあることがわかっており、監督なしで子供たちに使用させることはありません」と彼は言いました。
Ostermaier と彼の同僚は論文の中で、ChatGPT の影響力を考えると、透明性や有害な質問のブロックなど、一般的に提案されている AI の被害軽減策は十分ではない可能性があると結論付けています。 彼らは、チャットボットの過ちを犯しやすい性質についてデジタルリテラシーを向上させるために、より多くの作業を行う必要があると主張しています。 過去の研究 間違いを目撃すると、人々はアルゴリズムシステムを信用しないようになることを示唆しています。
「ユーザーは、ChatGPT に道徳的な信念がないことを理解すれば、ChatGPT をより有効に活用できると推測しています」と Ostermaier 氏は述べています。 「これは推測であり、テストを進めることを検討しています。」
レグ ボットを信頼している場合、またはその背後に本当の知性や自己認識があると仮定している場合は、そうしないでください。 ®
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- Platoblockchain。 Web3メタバースインテリジェンス。 知識の増幅。 こちらからアクセスしてください。
- 情報源: https://go.theregister.com/feed/www.theregister.com/2023/01/20/chatgpt_morally_corrupting/
- 202
- 7
- 9
- a
- 能力
- 私たちについて
- 同意
- ことができます。
- アクセス
- 会計
- Action
- 住所
- 大人
- 進める
- アドバイス
- 顧問
- 支持者
- 影響を及ぼす
- 所属している
- 後
- に対して
- AI
- AI電源
- アレクサ
- アルゴリズムの
- すべて
- 既に
- および
- 回答
- 回答
- 誰も
- 主張する
- 主張する
- 引数
- 宝品
- 仲間
- 権威
- 認知度
- ベース
- 背後に
- さ
- 信じる
- と考えています
- より良いです
- ブロッキング
- ロボット
- BRIDGE
- 容量
- 挑戦
- チャットボット
- チャットボット
- AI言語モデルを活用してコードのデバッグからデータの異常検出まで、
- 子供達
- クリア
- 同僚
- 来ます
- コマーシャル
- 一般に
- 比べ
- コンパス
- 懸念
- 結論
- 推測
- 接続性
- 検討
- コンテンツ
- 会話
- 費用
- コース
- 現在
- ドール
- 決定
- 意思決定
- 深いです
- 深い学習
- 需要
- デンマーク
- によっては
- 開発
- DID
- の違い
- デジタル
- デジタル処理で
- 配布
- そうではありません
- すること
- ドント
- ダウン
- 効果
- どちら
- 十分な
- 等
- 倫理的な
- さらに
- 実験
- 説明
- 説明
- おなじみの
- ファイナンシャル
- もう完成させ、ワークスペースに掲示しましたか?
- 発見
- 名
- フリップス
- フォーム
- フォワード
- 発見
- から
- 資金調達
- さらに
- 未来
- 生成された
- ジェネレータ
- ドイツ
- 取得する
- 与えられた
- 与える
- でログイン
- グーグル検索
- 有害な
- ヘッジ済み
- うまくいけば
- 認定条件
- しかしながら
- HTTPS
- 人間
- 不道徳
- 意義
- in
- 傾斜
- include
- の増加
- 影響
- 機関
- インテリジェンス
- 関心
- IT
- 繰り返し
- 子供たち
- 殺します
- 知っている
- 既知の
- ラボ
- ラベリング
- 労働
- 欠如
- 言語
- 最新の
- つながる
- 学習
- 可能性が高い
- リテラシー
- 学問的な
- たくさん
- 大多数
- make
- 作る
- 作成
- マインド
- ミス
- 不信
- モデル
- モニター
- 他には?
- 移動する
- 自然
- 負
- 11月
- 数
- 明白
- 提供
- ONE
- OpenAI
- その他
- 紙素材
- 両親
- 参加者
- 特定の
- のワークプ
- おそらく
- 許可
- 人
- 個人的な
- 計画
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- ポイント
- 人気
- 位置
- 早漏
- PLM platform.
- 主に
- 問題
- 問題
- 東京大学大学院海洋学研究室教授
- 提案された
- 公共
- プッシュ
- 質問
- 質問
- 隆起した
- ランダム
- ランダム
- リアル
- 最近
- 認識
- 推奨する
- 登録
- 関係なく
- リリース
- の提出が必要です
- 研究
- 研究者
- 住民
- 応答
- 収益
- リスク
- ルート
- 犠牲
- 犠牲にする
- 安全な
- 前記
- 同じ
- Save
- を検索
- 二番
- Seek
- セッションに
- いくつかの
- すべき
- 表示する
- 側
- So
- 社会
- 社会的影響
- ソフトウェア
- 一部
- ソース
- ソース
- 南部の
- 安定した
- 標準
- まだ
- Force Stop
- 見知らぬ人
- 勉強
- そのような
- 監督
- 供給
- サポート
- Survey
- がち
- スイッチ
- システム
- Talk
- test
- テスト
- ソース
- アプリ環境に合わせて
- 〜へ
- あまりに
- 追跡する
- トレーニング
- 成績証明書(トランスクリプト)
- 透明性
- true
- 信頼
- 下
- わかる
- 大学
- us
- つかいます
- users
- Ve
- 、
- 警告する
- ウェブサイト
- この試験は
- かどうか
- which
- while
- 誰
- 意志
- 意欲
- 知恵
- 無し
- 目撃者
- 仕事
- でしょう
- 書き込み
- You
- あなたの
- ゼファーネット