هيئة مراقبة الخصوصية تحث الشركات على التخلي عن التحليل العاطفي لبرنامج الذكاء الاصطناعي PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

هيئة مراقبة الخصوصية تحث الشركات على التخلي عن برامج الذكاء الاصطناعي للتحليل العاطفي

حذر مكتب مفوض المعلومات البريطاني (ICO) هذا الأسبوع من أن الشركات يجب أن تفكر مليًا قبل نشر أنظمة التحليل العاطفي المدعومة بالذكاء الاصطناعي والمعرضة للتحيزات النظامية وغيرها من اللقطات.

وأضافت الوكالة أن المنظمات تواجه التحقيق إذا ضغطت على هذه التكنولوجيا دون المستوى الذي تعرض الناس للخطر واستخدمتها.

تستخدم خوارزميات التعلم الآلي التي تهدف إلى التنبؤ بمزاج الشخص وردود أفعاله رؤية الكمبيوتر لتتبع النظرات وحركات الوجه ومعالجة الصوت لقياس الانعطاف والمشاعر العامة. كما قد يتخيل المرء ، فإنه ليس بالضرورة دقيقًا أو عادلًا ، وقد تكون هناك مشكلات تتعلق بالخصوصية في التعامل مع البيانات من أجل التدريب والاستدلال.

في الواقع ، قال نائب مفوض ICO ستيفن بونر إن التكنولوجيا ليست مضمونة ، مما يؤدي إلى تحيز منهجي أو عدم دقة أو تمييز ضد مجموعات اجتماعية معينة. "التطورات في سوق المقاييس الحيوية والذكاء الاصطناعي العاطفي غير ناضجة. قد لا يعملون بعد ، أو في الواقع على الإطلاق " محمد بالوضع الحالي. 

بينما توجد فرص ، فإن المخاطر أكبر حاليًا. في ICO ، نشعر بالقلق من أن التحليل غير الصحيح للبيانات يمكن أن يؤدي إلى افتراضات وأحكام حول شخص غير دقيقة وتؤدي إلى التمييز ".

أشار بونر إلى أن برنامج التحليل العاطفي غالبًا ما يقترن بأنظمة القياسات الحيوية ، حيث يجمع ويخزن نطاقًا أوسع من المعلومات الشخصية يتجاوز صور الوجه. غالبًا ما لا يتسم موفرو البرامج بالشفافية بشأن كيفية معالجة هذه البيانات الشخصية أو حفظها. 

وقال "إن عمليات نشر القياسات الحيوية المستدامة الوحيدة ستكون تلك التي تعمل بكامل طاقتها وخاضعة للمساءلة ومدعومة بالعلم". "كما هو الحال ، لم نشهد بعد أي تقنية للذكاء الاصطناعي تتطور بطريقة تلبي متطلبات حماية البيانات ، ولدينا المزيد من الأسئلة العامة حول التناسب والإنصاف والشفافية في هذا المجال."

وهو ما يبدو طريقة مهذبة للقول: يجب أن تستخدم فقط نماذج الذكاء الاصطناعي لقراءة المشاعر التي تعمل كما يتوقع ICO ، وهذه النماذج غير موجودة ، لذلك يجب عليك فقط التوقف عما تفعله.

من المتوقع أن تنشر هيئة مراقبة خصوصية البيانات في بريطانيا تقريرًا يوضح بالتفصيل كيفية تعامل الشركات مع البيانات البيومترية ، بما في ذلك التعرف على الوجه ، والتعرف على بصمات الأصابع ، والتعرف على الصوت ، في العام المقبل في الربيع.

وأضاف بونر: "سيستمر ICO في فحص السوق ، وتحديد أصحاب المصلحة الذين يسعون إلى إنشاء أو نشر هذه التقنيات ، وشرح أهمية خصوصية البيانات المحسّنة والامتثال ، مع تشجيع الثقة في كيفية عمل هذه الأنظمة".

دق الخبراء ناقوس الخطر بشأن تحليل المشاعر والعاطفة لسنوات. المشاعر ذاتية ومن الصعب تفسيرها بدقة. لا يستطيع البشر في كثير من الأحيان القيام بذلك بشكل فعال لأنفسهم أو للآخرين ، ناهيك عن الآلات. ®

الطابع الزمني:

اكثر من السجل