AI チャットボットに感覚があるとすれば、リスにもなる可能性があります PlatoBlockchain Data Intelligence. 垂直検索。 あい。

AI チャットボットに知性がある場合、リスにもなる可能性があります

簡単に言えば いいえ、AIチャットボットは知覚力がありません。

すぐに ストーリー 感性のある言語モデルであると主張したことについて口笛を吹いたグーグルのエンジニアは、バイラルになり、複数の出版物が彼が間違っていると言って介入した。

  議論 会社のかどうかについて LaMDAチャットボット 意識があるか魂を持っているかどうかは、あまり良いものではありません。 ほとんどの大規模な言語モデルと同様に、LaMDA には数十億のパラメーターがあり、インターネットからスクレイピングされたテキストでトレーニングされています。 モデルは単語間の関係を学習し、どの単語が隣り合って出現する可能性が高いかを学習します。

それは十分に知的なように見え、時々質問に正しく答えることができます。 しかし、それはそれが何を言っているかについて何も知らず、言語や実際には何も理解していません。 言語モデルはランダムに動作します。 それが感情を持っているかどうかそれを尋ねてください、そしてそれはイエスまたはと言うかもしれません いいえ。 それが リス、はいまたはいいえとも言うかもしれません。 AI チャットボットが実際にリスである可能性はありますか?

FTCは、コンテンツのモデレーションにAIを使用することについて警告を発します

AIはインターネットを変えています。 ソーシャルメディア上の偽のアカウントのプロファイルにリアルな写真が使用され、女性のポルノディープフェイクビデオが流通し、アルゴリズムによって生成された画像とテキストがオンラインに投稿されます。

専門家は、これらの機能が詐欺、ボット、誤った情報、嫌がらせ、および操作のリスクを高める可能性があると警告しています。 プラットフォームは、不正なコンテンツを自動的に検出して削除するために、ますますAIアルゴリズムに目を向けています。

現在、FTCは、これらの方法が問題を悪化させる可能性があることを警告しています。 「私たちのレポートは、有害なオンラインコンテンツの拡散に対する解決策としてAIを扱うべきではないことを強調しています」とFTCの消費者保護局のディレクターであるSamuelLevineは次のように述べています。 声明インチ

残念ながら、このテクノロジーは「設計上、不正確で、偏りがあり、差別的である」可能性があります。 「オンラインでの危害と戦うには、幅広い社会的努力が必要であり、有用で危険な新しいテクノロジーがこれらの問題を私たちの手から取り除くという過度に楽観的な信念ではありません」とレバイン氏は述べています。

Spotifyがディープフェイクの音声スタートアップをスナップアップ

オーディオストリーミングの巨人であるSpotifyは、完全に構成された音声を生成できるAIソフトウェアの構築に焦点を当てたロンドンを拠点とする新興企業であるSonanticを買収しました。

ソナンティックのテクノロジーは、ゲームやハリウッド映画で使用されており、俳優のヴァルキルマーに声を届けるのに役立っています。 トップガン:マーベリック。 キルマーはアクション映画でアイスマンを演じました。 喉のガンと闘った後、話すのが困難だったため、彼のセリフは機械によって発声されました。

現在、同じテクノロジーがSpotifyにも採用されているようです。 明らかなアプリケーションは、AI音声を使用してオーディオブックを読むことです。 結局のところ、Spotifyは 取得 昨年XNUMX月にオーディオブックプラットフォームであるFindaway。 リスナーが自分のマシンナレーターのサウンドをどのようにカスタマイズできるかを確認するのは興味深いことです。 恐らく、ホラーストーリーと比べて、子供向けの本を声に出して読むための声は異なるでしょう。

「SonanticのAI音声テクノロジーをSpotifyプラットフォームに導入し、ユーザーに新しいエクスペリエンスを提供できる可能性に非常に興奮しています」と、Spotifyのパーソナライズ担当バイスプレジデントであるZiadSultanは次のように述べています。 ステートメントで。 「この統合により、新しい、さらにパーソナライズされた方法でユーザーを引き付けることができます」と彼はほのめかしました。

荷物を自動的にスキャンするTSAテストAIソフトウェア

米国運輸保安局は、コンピュータービジョンソフトウェアが荷物を自動的にスクリーニングして、奇妙に見えるアイテムやフライトで許可されていないアイテムを探すことができるかどうかをテストします。

トライアルはラボで行われ、実際の空港ではまだ準備ができていません。 このソフトウェアは、TSAの職員が現在セキュリティチェックポイントで人々の鞄を覗くために使用している既存の3Dコンピューター断層撮影(CT)画像と連動します。 エージェントが疑わしいものを見つけた場合、エージェントは荷物を片側に持って行き、ライフルでそれを通り抜けます。

AIアルゴリズムは、そのプロセスの一部を自動化できます。 オブジェクトを識別し、特定のアイテムを検出したインスタンスにフラグを立てることができます。

「TSAや他のセキュリティ機関がCTを採用するにつれて、このAIのアプリケーションは、航空保安の潜在的に変革的な飛躍を表し、TSAの高度な訓練を受けた役員が最大のリスクをもたらすバッグに集中できるようにしながら、空の旅をより安全で一貫性のあるものにします。」 行政と協力しているテクノロジー企業であるPangiamの製品ディレクターであるAlexisLong氏。

「私たちの目的は、AIとコンピュータービジョン技術を利用して、TSAとセキュリティ担当者に、航空セキュリティに脅威を与える可能性のある禁止事項を検出する強力なツールを提供することでセキュリティを強化することです。これは、世界的な影響を与える新しいセキュリティ基準を設定するための重要なステップです。」 ®

タイムスタンプ:

より多くの 登録