AI ユーザーが不正行為を行い、AI が自分のものであると主張する: 研究

AI ユーザーが不正行為を行い、AI が自分のものであると主張する: 研究

AI ユーザーが不正行為をし、AI が自分のものであると主張する: PlatoBlockchain データ インテリジェンスを研究してください。垂直検索。あい。

Salesforceの調査によると、生成型AIが勢いを増すにつれ、そのユーザーは詐欺師と化し、64%がAIの仕事を自分のものだと主張している。

生成 AI スナップショット調査シリーズ「職場における AI の約束と落とし穴」に関する調査では、労働者の 41% が雇用機会を確保するために自分の生成 AI スキルを水増しし、誇張していることがさらに明らかになりました。 調査には14,000か国の14人以上の労働者が対象となった。

また、お読みください。 アリーナ・グループ、スポーツ・イラストレーテッドのAI記事スキャンダルを受けてCEOを解任

倫理的に疑わしい

  Salesforce 調査によると、調査対象となった従業員の XNUMX 分の XNUMX 以上が雇用主からの正式な承認を得ずに生成 AI を使用しており、倫理的な問題が生じています。

これには、XNUMX 年前に OpenAI の ChatGPT が発表されて以来、世界を席巻したテクノロジーの使用に関する雇用主からの正式なトレーニングや指導が欠如していることも含まれます。

これは、従業員がテクノロジーをますます受け入れ、パフォーマンスの最適化やキャリアアップにテクノロジーがいかに役立つかを認識するようになったことによるものです。

「さらに 32% の労働者が間もなく職場で生成 AI を使い始めると予想されており、監視の有無にかかわらず、テクノロジーの普及が続くことは明らかです」と調査報告書の一部には書かれています。

しかし、雇用主からの指導が欠如しているため、テクノロジーが責任を持って使用されることを保証するための信頼できる明確なガイドラインを作成する余地が生じます。

未承認のツール

AI の使用が増加し続けるにつれて、従業員も AI の役割を認識しています。 generative AI 彼らの仕事で。 しかし、これは未承認のシステムやツールの増加にもつながります。 による記事 エコノミック·タイムズ 労働者も生成型 AI の使用に伴う倫理的懸念を認識していることを示しています。

しかし、倫理に従うということは、雇用主が提供する会社承認のシステムやツールを利用することを意味します。

  Salesforce これらの発見は、責任ある開発と使用を促進しながら AI のリスクに対処するための規則や規制に関する議論に世界が巻き込まれているときにもたらされます。 米国、EU、中国は取り組んでいる レギュレータ AI のフレームワークは、ユーザーの安全とプライバシーを保護しながらイノベーションを促進することを目的としています。

しかし、エコノミック・タイムズの記事は、企業が職場での AI 政策枠組みにおいて後追いではなく、後れを取っていることを示唆しています。

ビジネスが遅れている

調査結果は、「世界中の労働者の 7 人中 10 人近くが、職場で倫理的に生成 AI を使用する方法に関するトレーニングを一度も受講したことがない、または受けたことがない」ことを示しています。

一部の企業では AI ポリシーがない, 一部の業界は他の業界よりも遅れています。 この調査では、世界中の医療従事者の 87% が、雇用主に明確な AI ポリシーがないと回答していることが浮き彫りになっています。

「この業界やその他の業界で保持されている機密データのレベルを考えると、責任ある使用に関する労働者のスキルアップが急務となっています…実際、世界の労働者の 4 人に 10 人近く (39%) が、雇用主が生成データについて意見を持っていないと答えています。」職場での AI の使用」とレポートの一部は述べています。

Salesforce の最高倫理・人道的利用責任者のポーラ・ゴールドマン氏は、企業がテクノロジーの可能性を最大限に発揮するために生成 AI に投資する必要性を強調しました。

ゴールドマン氏は、「明確なガイドラインがあれば、従業員はAIのリスクを理解し、対処できると同時に、AIのイノベーションを活用して自分のキャリアを強化することができる」と述べた。

タイムスタンプ:

より多くの メタニュース