プライバシー監視機関は企業に対し、感情分析AIソフトウェア「PlatoBlockchain Data Intelligence」の使用を中止するよう促している。垂直検索。あい。

プライバシー監視機関が企業に感情分析 AI ソフトウェアの廃止を要請

英国の情報コミッショナー事務局 (ICO) は今週、企業は AI を利用した感情分析システムを展開する前によく考えて、体系的な偏見やその他の問題が発生しやすいと警告しました。

組織が人々を危険にさらすこの標準以下の技術を押し進めて使用する場合、組織は調査に直面する、とウォッチドッグは付け加えた.

人の気分や反応を予測することを目的とした機械学習アルゴリズムは、コンピューター ビジョンを使用して視線、顔の動き、音声処理を追跡し、抑揚と全体的な感情を測定します。 ご想像のとおり、それは必ずしも正確または公平であるとは限らず、トレーニングと推論のためのデータを処理する際にプライバシーの問題が発生する可能性があります。

実際、ICOの副コミッショナーであるスティーブン・ボナー氏は、この技術は絶対確実なものではなく、特定の社会集団に対する体系的な偏見、不正確さ、または差別につながると述べています. 「バイオメトリクスと感情 AI 市場の発展は未熟です。 それらはまだ機能しないか、まったく機能しない可能性があります」と彼は言いました。 声明インチ 

「チャンスはありますが、リスクは現在より大きくなっています。 ICO では、データの不正確な分析が、個人に関する不正確な仮定や判断につながり、差別につながる可能性があることを懸念しています」と彼の声明は続けました。

Bonner 氏は、感情分析ソフトウェアは生体認証システムと組み合わせて使用​​されることが多く、顔画像以外にもさまざまな個人情報を収集して保存していると述べています。 ソフトウェア プロバイダーは、多くの場合、この個人データがどのように処理または保存されるかについて透明ではありません。 

「持続可能なバイオメトリクスの展開は、完全に機能し、説明責任があり、科学に裏打ちされたものだけです」と彼は言いました。 「現状では、データ保護要件を満たす方法で感情 AI 技術が開発されたことはまだ見られず、この分野の比例性、公平性、透明性について、より一般的な疑問が生じています。」

これは丁寧な言い方に思えます: ICO が期待するように機能する感情読み取り AI モデルのみを使用する必要があり、それらのモデルは存在しないため、自分がしていることをやめるべきです。

英国のデータプライバシー監視機関は、顔認識、指紋識別、音声認識などの生体認証データを企業がどのように扱うべきかを詳述した報告書を来年春に発行する予定です。

「ICOは引き続き市場を精査し、これらのテクノロジーの作成または展開を模索している利害関係者を特定し、データのプライバシーとコンプライアンスの強化の重要性を説明すると同時に、これらのシステムがどのように機能するかについて信頼と信頼を奨励します」とボナーは付け加えました.

専門家は何年もの間、センチメントと感情の分析に警鐘を鳴らしてきました。 感情は主観的なものであり、正確に解釈することは困難です。 多くの場合、人間は自分自身や他の人のためにこれを効果的に行うことはできません。機械は言うまでもありません。 ®

タイムスタンプ:

より多くの 登録