研究によると、検索エンジンにアクセスしても、クエリに対する正確で最新の回答を生成する AI チャットボットの能力は向上しない傾向にあります。つまり、開発者は対話をより便利にするための新しい技術を見つける必要があるということです。
ChatGPT の基礎である GPT-3.5 のような大規模言語モデル (LLM) は、2021 年 XNUMX 月までインターネットから収集されたテキストでトレーニングされています。Google や Microsoft などの企業は、検索エンジンで LLM を強化し、現在の Web の知識にアクセスできるようにしようとしています。ページ。
それぞれが実証しているように、 吟遊詩人 および ビング チャットボット、Google、Microsoft は、たとえ正しい答えがインターネットのどこかにあるとしても、検索クエリに対する正確な応答を生成することに依然として苦労しています。
「検索エンジンと ChatGPT を接続することは完璧な解決策だと考える人もいるかもしれませんが、検索結果の精度には限界があるため、現実はさらに困難です」と MIT コンピュータ サイエンス & 人工知能研究所の博士研究員であるホンイン ルオ氏は語ります。 登録.
ルオ氏は、検索エンジンはキーワードベースの検索システムであり、ほとんどの質問に対して必ずしも直接的な答えが得られるわけではないと説明します。 また、異なる Web ページには、無関係な情報、矛盾した情報、または虚偽の情報が含まれている可能性があります。 Bing の主張が間違っている アドルフ・ヒトラーはレディオヘッドというバンドのメンバーだった たとえば、ある検索結果で。
ネチズン 推測 エラーが原因で発生した可能性があるかどうか ページ レディオヘッドとアドルフ・ヒトラーについて言及したウィキデータ。
Bard と Bing が役立つのであれば、開発者は、ノイズが多く、混乱し、一貫性のないテキストの海から LLM に最も有益な情報を抽出させる方法を見つける必要があります。 MIT と香港中文大学の Luo 氏とその同僚は、Web 検索の応答を生成する方法の指示によりよく従うことができるように、モデルをさらに微調整する必要があると考えています。
チームはメタの微調整を行った ラマ、52,000 億パラメータの LLM であり、GPT-4 によって生成された XNUMX 組のテキストベースの命令と対応する応答を含むデータベース上で微調整されます。 研究者らはまた、各指示に関連付けられた上位 XNUMX つの Web ページを含む別のデータセットを構築し、適切な応答との関連性および緊密な一致度に基づいてソースをランク付けすることで、正しい応答を生成するようにモデルをトレーニングしました。
ルオ氏は、この微調整されたモデルは愛称で呼ばれていると語った。 セイル-7Bは検索拡張命令学習の略で、気が散る検索結果や信頼できない検索結果を無視することに優れ、より質の高い回答を生成します。 詳細は次のとおりです。 公表 arXiv で公開された論文の [PDF] とモデルの コード は GitHub 上にあります。 で遊ぶこともできます デモ Hugging Face でホストされているシステムの。
「私たちのモデルは、ノイズの多い検索結果から役立つ情報を見つけて、できるだけ正確な応答を生成することを学習します。 その結果、検索エンジンがうまく処理できない場合でも、私たちのモデルは貴重な情報をより適切に要約し、さまざまな検索クエリに対してより適切な答えを生成することができます」とルオ氏は述べています。
「私たちのトレーニングには、各検索結果が役立つかどうかを明確にするステップが明示的に含まれており、言語モデルは選択された役立つ情報に従います。 このプロセスにより、信頼性が低く関連性のない検索結果のほとんどが除外され、平均的な命令追従パフォーマンスが向上します。」
初期実験では、SAIL-7B が GPT-3.5 や、さまざまなタスクにおいてより多くのパラメーターを含む他のモデルよりも優れたパフォーマンスを発揮することが示されました。 実験では、常識的な質問や自由形式の質問に答える能力、事実確認、ヘイトスピーチの検出能力を評価しました。 モデルには、回答候補のリストから正しい回答を選択できるように、Wikipedia の Web ページと DuckDuckGo の検索結果が与えられました。 ただし、GPT-4 は SAIL-7B よりも優れていました。
「課題は、より大きなモデルはより強力な知識、記憶力、推論能力を備えているため、私たちのモデルはまだ GPT-4 ほど優れていないことです。 ただし、SAIL-7B は「小さな」モデルを使用した概念実証であり、次のステップは、提案した戦略を使用してより大きなモデルをトレーニングすることです」と Luo 氏は語った。
ただし、現在の検索拡張命令学習技術で微調整されたモデルは完璧ではありません。 研究者らは説明できないと指摘した なぜ 検索結果が信頼できるかどうか。 彼らは、将来的に精度と信頼性を高めるための別の戦略を考え出すことを望んでいます。 ®
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- EVMファイナンス。 分散型金融のための統一インターフェイス。 こちらからアクセスしてください。
- クォンタムメディアグループ。 IR/PR増幅。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 データ インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- 情報源: https://go.theregister.com/feed/www.theregister.com/2023/06/07/search_engines_make_chatbots_inaccurate/
- :は
- :not
- $UP
- 000
- 2021
- 7
- a
- 能力
- 能力
- アクセス
- 従った
- 精度
- 正確な
- AI
- AIチャットボット
- 整列した
- また
- 常に
- an
- および
- 別の
- 回答
- 回答
- です
- 人工の
- 人工知能
- AS
- 評価された
- 仲間
- 関連する
- At
- 平均
- BAND
- 基礎
- BE
- なぜなら
- き
- 信じる
- より良いです
- ビング
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- 缶
- 候補者
- 生じました
- 挑戦する
- 挑戦
- チャットボット
- チャットボット
- AI言語モデルを活用してコードのデバッグからデータの異常検出まで、
- 点検
- 中国語
- 主張した
- 密接に
- CO
- 同僚
- 来ます
- コマンドと
- 企業
- コンピュータ
- コンピュータサイエンス
- コンセプト
- 紛らわしい
- 接続する
- 含む
- 正しい
- 対応する
- 可能性
- 電流プローブ
- データベース
- 実証
- 細部
- 開発者
- 異なります
- 直接
- do
- doesnの
- ドン
- 各
- エンジン
- エンジン
- エラー
- さらに
- 例
- 実験
- 説明する
- 説明
- エキス
- 顔
- 実際
- false
- FRBは
- フィギュア
- フィルター
- もう完成させ、ワークスペースに掲示しましたか?
- 次
- から
- さらに
- 未来
- 生成する
- 生成された
- 生成
- GitHubの
- 与え
- 良い
- でログイン
- ハンドル
- 持ってる
- 助けます
- 役立つ
- より高い
- 彼の
- ホン
- 香港
- 希望
- 主催
- 認定条件
- How To
- しかしながら
- HTTPS
- if
- 改善します
- in
- 含ま
- 間違って
- 増える
- 情報
- 説明書
- インテリジェンス
- 相互作用
- インターネット
- IT
- JPG
- 知識
- 香港
- 実験室
- 言語
- より大きい
- 学習
- ような
- 限定的
- リスト
- LLM
- make
- 五月..
- 手段
- メンバー
- 言及した
- Meta
- Microsoft
- かもしれない
- マサチューセッツ工科大学(MIT)
- モデル
- 他には?
- 最も
- ずっと
- 必要
- 新作
- 次の
- 注意
- of
- on
- ONE
- or
- その他
- 私たちの
- でる
- 足
- 紙素材
- パラメータ
- 完璧
- パフォーマンス
- PHP
- 選ぶ
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- プレイ
- 可能
- プロセス
- 作り出す
- 証明
- 概念実証
- 提案された
- 提供します
- 品質
- クエリ
- 質問
- 範囲
- ランキング
- 現実
- リリース
- 関連した
- 信頼性
- 研究
- 研究者
- それらの
- 応答
- 回答
- 結果
- 結果
- 右
- s
- 前記
- 科学
- SEA
- を検索
- 検索エンジン
- 検索エンジン
- 選択
- センス
- 別
- 9月
- 示されました
- 小さい
- So
- 溶液
- どこか
- ソース
- スピーチ
- スタンド
- 手順
- まだ
- 戦略
- 強い
- 奮闘
- まとめる
- システム
- タスク
- チーム
- テクニック
- より
- それ
- 未来
- アプリ環境に合わせて
- それら
- 彼ら
- 考える
- この
- しかし?
- 〜へ
- top
- 訓練された
- トレーニング
- 信頼できる
- 試します
- 大学
- まで
- 最新
- us
- 貴重な
- さまざまな
- 非常に
- ました
- we
- ウェブ
- WELL
- した
- いつ
- かどうか
- which
- Wikipedia
- 意志
- まだ
- You
- ゼファーネット