ناظر حریم خصوصی از شرکت‌ها می‌خواهد که نرم‌افزار هوش مصنوعی PlatoBlockchain Data Intelligence را از تحلیل احساسی کنار بگذارند. جستجوی عمودی Ai.

سازمان دیده بان حریم خصوصی از شرکت ها می خواهد که نرم افزار هوش مصنوعی تحلیل عاطفی را کنار بگذارند

دفتر کمیسر اطلاعات بریتانیا (ICO) این هفته هشدار داد که شرکت‌ها باید قبل از استقرار سیستم‌های تجزیه و تحلیل احساسی مبتنی بر هوش مصنوعی که مستعد سوگیری‌های سیستمی و سایر مشکلات هستند، دو بار فکر کنند.

سازمان دیده بان اضافه کرد که اگر بر روی این فناوری پایین تر از سطحی که مردم را در معرض خطر قرار می دهد، فشار بیاورند و از آن استفاده کنند، با تحقیقات مواجه می شوند.

الگوریتم‌های یادگیری ماشینی که مدعی پیش‌بینی حالات و واکنش‌های یک فرد هستند، از بینایی رایانه‌ای برای ردیابی نگاه‌ها، حرکات صورت و پردازش صدا برای سنجش عطف و احساسات کلی استفاده می‌کنند. همانطور که ممکن است تصور شود، لزوماً دقیق یا منصفانه نیست، و ممکن است مشکلات حریم خصوصی در مدیریت داده ها برای آموزش و استنتاج وجود داشته باشد.

در واقع، استفان بونر، معاون کمیسر ICO، گفت که این فناوری غیرقابل خطا نیست و منجر به سوگیری سیستماتیک، عدم دقت یا تبعیض علیه گروه‌های اجتماعی خاص می‌شود. «توسعه‌ها در بازار هوش مصنوعی بیومتریک و احساسات نابالغ است. آنها ممکن است هنوز کار نکنند، یا در واقع هرگز.» گفت: در بیانیه ای. 

"در حالی که فرصت های موجود وجود دارد، خطرات در حال حاضر بیشتر است. در ICO، ما نگران هستیم که تجزیه و تحلیل نادرست داده ها منجر به فرضیات و قضاوت هایی در مورد یک فرد شود که نادرست است و منجر به تبعیض می شود.

Bonner اشاره کرد که نرم افزار تجزیه و تحلیل احساسی اغلب با سیستم های بیومتریک جفت می شود و طیف وسیع تری از اطلاعات شخصی را فراتر از تصاویر چهره جمع آوری و ذخیره می کند. ارائه دهندگان نرم افزار اغلب در مورد نحوه پردازش یا ذخیره این داده های شخصی شفاف نیستند. 

او گفت: «تنها استقرار بیومتریک پایدار آنهایی خواهند بود که کاملاً کاربردی، پاسخگو و با پشتوانه علمی باشند». همانطور که وجود دارد، ما هنوز شاهد پیشرفت فناوری هوش مصنوعی احساساتی نیستیم که الزامات حفاظت از داده ها را برآورده کند و سوالات کلی تری در مورد تناسب، انصاف و شفافیت در این زمینه داشته باشیم.

که به نظر روشی مودبانه برای گفتن است: شما فقط باید از مدل‌های هوش مصنوعی خواننده احساسات استفاده کنید که مطابق انتظار ICO عمل می‌کنند، و این مدل‌ها وجود ندارند، بنابراین باید کاری را که انجام می‌دهید متوقف کنید.

انتظار می‌رود سازمان دیده‌بان حریم خصوصی داده‌های بریتانیا در بهار سال آینده گزارشی درباره نحوه مدیریت داده‌های بیومتریک از جمله تشخیص چهره، شناسایی اثر انگشت و تشخیص صدا توسط شرکت‌ها منتشر کند.

بونر افزود: «ICO به بررسی دقیق بازار، شناسایی ذینفعانی که به دنبال ایجاد یا استقرار این فناوری‌ها هستند، و توضیح اهمیت افزایش حریم خصوصی و انطباق داده‌ها، و در عین حال تشویق اعتماد و اطمینان به نحوه عملکرد این سیستم‌ها، ادامه خواهد داد».

کارشناسان سال ها زنگ خطر را در مورد تجزیه و تحلیل احساسات و عواطف به صدا درآورده اند. احساسات ذهنی هستند و تفسیر دقیق آنها دشوار است. انسان ها اغلب نمی توانند این کار را برای خود یا دیگران به طور موثر انجام دهند، چه برسد به ماشین ها. ®

تمبر زمان:

بیشتر از ثبت نام