今日 AI が直面しているデータ プライバシー問題トップ 3 - The Daily Hodl

今日 AI が直面しているデータ プライバシー問題トップ 3 – The Daily Hodl

HodlXゲストポスト  あなたの投稿を提出する

 

AI(人工知能)は消費者と企業の間で同様に熱狂的な興奮を引き起こしています LLM (大規模言語モデル) と ChatGPT のようなツールが私たちの勉強、仕事、生活の方法を変えるだろうという情熱的な信念に突き動かされています。

しかし、インターネットの黎明期と同じように、ユーザーは自分の個人データがどのように使用されるかを考慮せずに飛びついてきています。 - Aそして、これがプライバシーに与える影響についても説明します。

AI 分野では、すでに無数のデータ侵害の例が発生しています。 2023 年 XNUMX 月、OpenAI が ChatGPT を一時的に引き継ぎました オンライン 「重大な」エラーの後、ユーザーは見知らぬ人の会話履歴を見ることができました。

同じバグが購読者の支払い情報を意味していました 名前、メールアドレス、クレジットカード番号の一部を含む もパブリックドメインでした。

2023 年 38 月、XNUMX テラバイトという驚異的な Microsoft データが誤って流出しました。 漏れた 従業員によるもので、サイバーセキュリティの専門家は、これにより攻撃者が悪意のあるコードをAIモデルに侵入させる可能性があると警告している。

研究者らはまた、 操作する AI システムによる機密記録の開示

わずか数時間のうちに、Robust Intelligence と呼ばれるグループが Nvidia ソフトウェアから個人を特定できる情報を要求し、システムが特定のトピックについて議論するのを防ぐように設計された安全装置を回避することができました。

これらすべてのシナリオで教訓が得られましたが、それぞれの侵害は、AI が私たちの生活において信頼できる存在となるためには克服する必要がある課題を力強く示しています。

Google のチャットボットである Gemini は、すべての会話が人間のレビュー担当者によって処理されていることを認めています その制度の透明性の欠如を強調している。

ユーザーへの警告には「レビューや使用されたくない内容は入力しないでください」と警告されている。

AI は、学生が宿題に使用したり、観光客がローマ旅行中におすすめ情報を求めて頼りにしたりするツールを急速に超えています。

機密性の高い議論においてますます依存されています 医学的な質問から仕事のスケジュールまで、あらゆるものを提供してくれました。

このため、一歩下がって、今日 AI が直面しているトップ 3 のデータ プライバシー問題と、それが私たち全員にとってなぜ重要なのかを考えることが重要です。

1. プロンプトは非公開ではありません

ChatGPT のようなツールは、後で参照できるように過去の会話を記憶します。これによりユーザー エクスペリエンスが向上し、LLM のトレーニングに役立ちますが、リスクも伴います。

システムのハッキングが成功した場合、プロンプトが公開フォーラムに公開されるという現実的な危険があります。

AI が業務目的で導入されている場合、商業上の機密情報だけでなく、ユーザーの履歴から恥ずかしい詳細が漏洩する可能性もあります。

Google で見てきたように、すべての提出物が開発チームによって精査される可能性もあります。

サムスンは2023年XNUMX月にこれに対して措置を講じ、従業員による生成AIツールの使用を全面的に禁止した。それは従業員の後に来た アップロード 機密ソース コードを ChatGPT に送信します。

テクノロジー大手は、この情報の取得や削除が困難になること、つまり IP (知的財産) が一般に公開されてしまう可能性があることを懸念していました。

Apple、Verizon、JPMorganも同様の措置を取っており、ChatGPTからの回答が自社の内部データと類似していたためにAmazonが取り締まりを開始したとの報道もある。

ご覧のとおり、懸念はデータ侵害が発生した場合に何が起こるかを超えて、AI システムに入力された情報が再利用され、より幅広いユーザーに配布される可能性があるという見通しにまで広がっています。

OpenAI のような企業はすでに 向い 同社のチャットボットが著作権で保護された素材を使用して訓練されたとの申し立ての中で、複数の訴訟が起きた。

2. 組織によってトレーニングされたカスタム AI モデルは非公開ではありません

これで次のポイントにきちんと進みます 個人や企業は独自のデータ ソースに基づいてカスタム LLM モデルを確立できますが、ChatGPT のようなプラットフォームの範囲内に存在する場合、完全にプライベートではありません。

これらの大規模システムのトレーニングに入力が使用されているかどうかを知る方法は最終的にはありません。 あるいは将来のモデルで個人情報が使用される可能性があるかどうか。

ジグソーパズルのように、複数のソースからのデータ ポイントをまとめて、誰かのアイデンティティと背景についての包括的で心配なほど詳細な洞察を形成できます。

主要なプラットフォームでは、ユーザーが不快に思う機能をオプトアウトできないため、このデータがどのように保存および処理されるかについての詳細な説明が提供されていない場合もあります。

AI システムは、ユーザーのプロンプトに応答するだけでなく、行間を読み取り、人の位置から性格に至るまであらゆるものを推測する能力をますます備えています。

データ侵害が発生した場合、悲惨な結果が生じる可能性があります。信じられないほど高度なフィッシング攻撃が組織化される可能性がある そしてユーザーは、秘密裏に AI システムに入力した情報をターゲットにしていました。

他の潜在的なシナリオには、銀行口座を開設するためのアプリケーションやディープフェイク動画など、誰かの身元を偽るためにこのデータが使用されることが含まれます。

消費者は、たとえ自分自身が AI を使用していなくても、引き続き警戒する必要があります。 AI は、監視システムを強化し、公共の場所での顔認識技術を強化するためにますます使用されています。

このようなインフラが真にプライベートな環境で確立されていない場合、無数の国民の市民的自由とプライバシーが知らないうちに侵害される可能性があります。

3. AI システムのトレーニングにはプライベート データが使用されます

主要な AI システムが無数の Web ページをくまなく調べて情報を収集しているのではないかとの懸念があります。

ChatGPT のトレーニングには 300 億語が使用されたと推定されています それは 570 ギガバイトのデータです データセットには書籍や Wikipedia のエントリが含まれます。

アルゴリズムがソーシャル メディア ページやオンライン コメントに依存していることも知られています。

これらの情報源のいくつかを考慮すると、この情報の所有者はプライバシーに対して合理的な期待を持っていたであろうと主張することができます。

しかし、ここからが問題です 私たちが毎日やり取りするツールやアプリの多くは、すでに AI の影響を大きく受けています。 そして私たちの行動に反応します。

iPhone の Face ID は AI を使用して、外見の微妙な変化を追跡します。

TikTok と Facebook の AI を活用したアルゴリズムは、ユーザーが過去に閲覧したクリップや投稿に基づいてコンテンツを推奨します。

Alexa や Siri などの音声アシスタントも機械学習に大きく依存しています。

目もくらむような AI スタートアップ企業が数多く存在しており、それぞれが特定の目的を持っています。ただし、ユーザー データがどのように収集、保存、適用されるかについて、他のものよりも透明性が高いものもあります。

AI が医療分野に影響を与えるため、これは特に重要です 医療画像処理や診断から記録管理や医薬品まで。

近年プライバシースキャンダルに巻き込まれたインターネットビジネスから教訓を学ぶ必要がある。

女性向け健康アプリ「Flo」は、 告発された 2010年代には規制当局がユーザーに関する個人情報をFacebookやGoogleなどに共有することを禁じた。

ここからどこにいきますか

AI は今後数年間で私たちの生活すべてに消えない影響を与えるでしょう。 LLM は日を追うごとに改良されており、新しい使用例が生まれ続けています。

しかし、業界が猛烈なスピードで動いているため、規制当局が対応するのに苦労するという現実のリスクがあります。

つまり、消費者は自分のデータを保護し、その使用方法を監視し始める必要があるということです。

ここでは分散化が重要な役割を果たし、大量のデータが主要プラットフォームの手に渡ることを防ぎます。

DePIN (分散型物理インフラストラクチャ ネットワーク) は、日常のユーザーがプライバシーを侵害されることなく AI のメリットを最大限に体験できるようにする可能性を秘めています。

暗号化されたプロンプトは、はるかにパーソナライズされた結果を提供できるだけでなく、プライバシーを保護する LLM により、ユーザーがいつでも自分のデータを完全に制御できるようになります。 そしてそれが悪用されないように保護します。


Chris Were 氏は CEO です。 ベリダ、個人が自分のデジタル アイデンティティと個人データを制御できるようにする、分散型の自己主権データ ネットワークです。 Chris はオーストラリアを拠点とするテクノロジー起業家で、革新的なソフトウェア ソリューションの開発に 20 年以上を費やしてきました。

 

HodlXの最新の見出しをチェック

フォローする Twitter Facebook Telegram

チェックアウトします 最新の業界発表  

今日 AI が直面しているトップ 3 のデータ プライバシー問題 - The Daily Hodl PlatoBlockchain Data Intelligence。垂直検索。あい。

免責条項:Daily Hodlで述べられている意見は、投資に関するアドバイスではありません。 投資家はBitcoin、暗号侵害またはデジタル資産にハイリスクの投資を行う前に、デューデリジェンスを行うべきです。 あなたの譲渡と取引は自己責任で行ってください、あなたが負う可能性のある喪失はあなたの責任です。 Daily Hodlは、あらゆる暗号化の通貨やデジタル資産の売買を推奨しておらず、The Daily Hodlは投資顧問でもありません。 The Daily Hodlはアフィリエイトマーケティングに参加しています。

生成画像: 旅の途中

タイムスタンプ:

より多くの 毎日のホドル