پرائیویسی واچ ڈاگ نے کمپنیوں پر زور دیا ہے کہ وہ جذباتی تجزیہ AI سافٹ ویئر پلیٹو بلاکچین ڈیٹا انٹیلی جنس چھوڑ دیں۔ عمودی تلاش۔ عی

پرائیویسی واچ ڈاگ کمپنیوں پر زور دیتا ہے کہ وہ جذباتی تجزیہ AI سافٹ ویئر چھوڑ دیں۔

یوکے کے انفارمیشن کمشنر آفس (آئی سی او) نے اس ہفتے خبردار کیا کہ کمپنیوں کو AI سے چلنے والے جذباتی تجزیہ کے نظام کو تعینات کرنے سے پہلے دو بار سوچنا چاہیے جو نظامی تعصبات اور دیگر خرابیوں کا شکار ہیں۔

واچ ڈاگ نے مزید کہا کہ تنظیموں کو تحقیقات کا سامنا کرنا پڑتا ہے اگر وہ اس ذیلی برابر ٹیکنالوجی کو استعمال کرتے ہیں جو لوگوں کو خطرے میں ڈالتی ہے۔

مشین لرننگ الگورتھم جو کسی شخص کے مزاج اور رد عمل کی پیشن گوئی کرنے کے لیے کمپیوٹر وژن کا استعمال کرتے ہوئے نگاہوں، چہرے کی حرکات، اور آڈیو پروسیسنگ کا استعمال کرتے ہوئے موڑ اور مجموعی جذبات کا اندازہ لگاتے ہیں۔ جیسا کہ کوئی تصور کر سکتا ہے، یہ ضروری نہیں کہ درست یا منصفانہ ہو، اور تربیت اور تخمینہ کے لیے ڈیٹا کو سنبھالنے میں رازداری کے مسائل ہو سکتے ہیں۔

درحقیقت، ICO کے ڈپٹی کمشنر سٹیفن بونر نے کہا کہ ٹیکنالوجی فول پروف نہیں ہے، جس کی وجہ سے مخصوص سماجی گروہوں کے خلاف نظامی تعصب، غلطیاں یا امتیازی سلوک ہوتا ہے۔ "بائیو میٹرکس اور جذباتی AI مارکیٹ میں ترقی ناپختہ ہے۔ ہوسکتا ہے کہ وہ ابھی تک کام نہ کریں، یا درحقیقت کبھی،" وہ نے کہا ایک بیان میں. 

"جبکہ مواقع موجود ہیں، خطرات فی الحال زیادہ ہیں۔ ICO میں، ہمیں تشویش ہے کہ اعداد و شمار کے غلط تجزیے کے نتیجے میں کسی شخص کے بارے میں ایسے مفروضے اور فیصلے ہو سکتے ہیں جو غلط ہیں اور امتیازی سلوک کا باعث بن سکتے ہیں،" ان کا بیان جاری رہا۔

بونر نے نوٹ کیا کہ جذباتی تجزیہ کا سافٹ ویئر اکثر بایومیٹرک سسٹم کے ساتھ جوڑا جاتا ہے، جو چہرے کی تصویروں کے علاوہ ذاتی معلومات کی وسیع رینج کو اکٹھا اور محفوظ کرتا ہے۔ سافٹ ویئر فراہم کرنے والے اکثر اس بارے میں شفاف نہیں ہوتے ہیں کہ اس ذاتی ڈیٹا کو کیسے پروسیس یا محفوظ کیا جاتا ہے۔ 

انہوں نے کہا، "صرف پائیدار بائیو میٹرک تعیناتیاں وہ ہوں گی جو مکمل طور پر فعال، جوابدہ اور سائنس کی حمایت یافتہ ہوں۔" "جیسا کہ یہ کھڑا ہے، ہم نے ابھی تک کسی بھی جذباتی AI ٹیکنالوجی کو اس انداز میں تیار کرتے ہوئے نہیں دیکھا ہے جو ڈیٹا کے تحفظ کی ضروریات کو پورا کرتا ہے، اور اس علاقے میں متناسب، انصاف پسندی اور شفافیت کے بارے میں عام سوالات ہیں۔"

جو کہنے کا ایک شائستہ طریقہ لگتا ہے: آپ کو صرف جذبات کو پڑھنے والے AI ماڈلز کا استعمال کرنا چاہئے جو ICO کی توقع کے مطابق کام کرتے ہیں، اور وہ ماڈل موجود نہیں ہیں، لہذا آپ کو جو کچھ آپ کر رہے ہیں اسے روکنا چاہیے۔

برطانیہ کے ڈیٹا پرائیویسی واچ ڈاگ سے توقع کی جاتی ہے کہ وہ ایک رپورٹ شائع کرے گا جس میں بتایا گیا ہے کہ بایومیٹرک ڈیٹا، بشمول چہرے کی شناخت، فنگر پرنٹ کی شناخت، اور آواز کی شناخت کو اگلے سال موسم بہار میں کمپنیوں کے ذریعے ہینڈل کیا جانا چاہیے۔

بونر نے مزید کہا، "آئی سی او مارکیٹ کی جانچ پڑتال جاری رکھے گا، ان اسٹیک ہولڈرز کی نشاندہی کرے گا جو ان ٹیکنالوجیز کو بنانے یا ان کو تعینات کرنے کی کوشش کر رہے ہیں، اور ڈیٹا پرائیویسی اور تعمیل کو بہتر بنانے کی اہمیت کی وضاحت کرتے ہوئے، جب کہ یہ سسٹم کیسے کام کرتے ہیں اس پر اعتماد اور اعتماد کی حوصلہ افزائی کرے گا،" بونر نے مزید کہا۔

ماہرین نے برسوں سے جذبات اور جذبات کے تجزیے پر خطرے کی گھنٹی بجا دی ہے۔ احساسات موضوعی ہوتے ہیں اور ان کی درست تشریح کرنا مشکل ہے۔ انسان اکثر یہ اپنے یا دوسروں کے لیے مؤثر طریقے سے نہیں کر سکتے، مشینوں کو چھوڑ دیں۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر