دفتر کمیسر اطلاعات بریتانیا (ICO) این هفته هشدار داد که شرکتها باید قبل از استقرار سیستمهای تجزیه و تحلیل احساسی مبتنی بر هوش مصنوعی که مستعد سوگیریهای سیستمی و سایر مشکلات هستند، دو بار فکر کنند.
سازمان دیده بان اضافه کرد که اگر بر روی این فناوری پایین تر از سطحی که مردم را در معرض خطر قرار می دهد، فشار بیاورند و از آن استفاده کنند، با تحقیقات مواجه می شوند.
الگوریتمهای یادگیری ماشینی که مدعی پیشبینی حالات و واکنشهای یک فرد هستند، از بینایی رایانهای برای ردیابی نگاهها، حرکات صورت و پردازش صدا برای سنجش عطف و احساسات کلی استفاده میکنند. همانطور که ممکن است تصور شود، لزوماً دقیق یا منصفانه نیست، و ممکن است مشکلات حریم خصوصی در مدیریت داده ها برای آموزش و استنتاج وجود داشته باشد.
در واقع، استفان بونر، معاون کمیسر ICO، گفت که این فناوری غیرقابل خطا نیست و منجر به سوگیری سیستماتیک، عدم دقت یا تبعیض علیه گروههای اجتماعی خاص میشود. «توسعهها در بازار هوش مصنوعی بیومتریک و احساسات نابالغ است. آنها ممکن است هنوز کار نکنند، یا در واقع هرگز.» گفت: در بیانیه ای.
"در حالی که فرصت های موجود وجود دارد، خطرات در حال حاضر بیشتر است. در ICO، ما نگران هستیم که تجزیه و تحلیل نادرست داده ها منجر به فرضیات و قضاوت هایی در مورد یک فرد شود که نادرست است و منجر به تبعیض می شود.
Bonner اشاره کرد که نرم افزار تجزیه و تحلیل احساسی اغلب با سیستم های بیومتریک جفت می شود و طیف وسیع تری از اطلاعات شخصی را فراتر از تصاویر چهره جمع آوری و ذخیره می کند. ارائه دهندگان نرم افزار اغلب در مورد نحوه پردازش یا ذخیره این داده های شخصی شفاف نیستند.
او گفت: «تنها استقرار بیومتریک پایدار آنهایی خواهند بود که کاملاً کاربردی، پاسخگو و با پشتوانه علمی باشند». همانطور که وجود دارد، ما هنوز شاهد پیشرفت فناوری هوش مصنوعی احساساتی نیستیم که الزامات حفاظت از داده ها را برآورده کند و سوالات کلی تری در مورد تناسب، انصاف و شفافیت در این زمینه داشته باشیم.
که به نظر روشی مودبانه برای گفتن است: شما فقط باید از مدلهای هوش مصنوعی خواننده احساسات استفاده کنید که مطابق انتظار ICO عمل میکنند، و این مدلها وجود ندارند، بنابراین باید کاری را که انجام میدهید متوقف کنید.
انتظار میرود سازمان دیدهبان حریم خصوصی دادههای بریتانیا در بهار سال آینده گزارشی درباره نحوه مدیریت دادههای بیومتریک از جمله تشخیص چهره، شناسایی اثر انگشت و تشخیص صدا توسط شرکتها منتشر کند.
بونر افزود: «ICO به بررسی دقیق بازار، شناسایی ذینفعانی که به دنبال ایجاد یا استقرار این فناوریها هستند، و توضیح اهمیت افزایش حریم خصوصی و انطباق دادهها، و در عین حال تشویق اعتماد و اطمینان به نحوه عملکرد این سیستمها، ادامه خواهد داد».
کارشناسان سال ها زنگ خطر را در مورد تجزیه و تحلیل احساسات و عواطف به صدا درآورده اند. احساسات ذهنی هستند و تفسیر دقیق آنها دشوار است. انسان ها اغلب نمی توانند این کار را برای خود یا دیگران به طور موثر انجام دهند، چه برسد به ماشین ها. ®
- AI
- آی هنر
- مولد هنر ai
- ربات ai
- هوش مصنوعی
- گواهی هوش مصنوعی
- هوش مصنوعی در بانکداری
- ربات هوش مصنوعی
- ربات های هوش مصنوعی
- نرم افزار هوش مصنوعی
- بلاکچین
- کنفرانس بلاک چین ai
- coingenius
- هوش مصنوعی محاوره ای
- کنفرانس کریپتو ai
- دل-ه
- یادگیری عمیق
- گوگل ai
- فراگیری ماشین
- افلاطون
- افلاطون آی
- هوش داده افلاطون
- بازی افلاطون
- PlatoData
- بازی پلاتو
- مقیاس Ai
- نحو
- ثبت نام
- زفیرنت