गोपनीयता प्रहरी ने कंपनियों से भावनात्मक विश्लेषण एआई सॉफ्टवेयर प्लेटोब्लॉकचेन डेटा इंटेलिजेंस को छोड़ने का आग्रह किया है। लंबवत खोज. ऐ.

प्राइवेसी वॉचडॉग ने कंपनियों से भावनात्मक विश्लेषण एआई सॉफ्टवेयर छोड़ने का आग्रह किया

यूके के सूचना आयुक्त कार्यालय (आईसीओ) ने इस सप्ताह चेतावनी दी थी कि प्रणालीगत पूर्वाग्रहों और अन्य तड़क-भड़क से ग्रस्त एआई-संचालित भावनात्मक विश्लेषण प्रणालियों को तैनात करने से पहले कंपनियों को दो बार सोचना चाहिए।

वॉचडॉग ने कहा कि अगर वे इस सब-पैरा तकनीक का इस्तेमाल करते हैं और लोगों को जोखिम में डालते हैं तो संगठनों को जांच का सामना करना पड़ता है।

मशीन-लर्निंग एल्गोरिदम किसी व्यक्ति के मूड और प्रतिक्रियाओं की भविष्यवाणी करने के लिए कंप्यूटर विज़न का उपयोग गेज, चेहरे की गतिविधियों और ऑडियो प्रोसेसिंग को ट्रैक करने के लिए और समग्र भावना को मापने के लिए करते हैं। जैसा कि कोई कल्पना कर सकता है, यह आवश्यक रूप से सटीक या निष्पक्ष नहीं है, और प्रशिक्षण और अनुमान के लिए डेटा को संभालने में गोपनीयता की समस्याएं हो सकती हैं।

दरअसल, ICO के डिप्टी कमिश्नर स्टीफन बोनर ने कहा कि तकनीक फुलप्रूफ नहीं है, जिससे विशिष्ट सामाजिक समूहों के खिलाफ प्रणालीगत पूर्वाग्रह, अशुद्धि या भेदभाव होता है। "बायोमेट्रिक्स और भावना एआई बाजार में विकास अपरिपक्व हैं। वे अभी तक काम नहीं कर सकते हैं, या वास्तव में कभी भी, "वह कहा गवाही में। 

"जबकि अवसर मौजूद हैं, जोखिम वर्तमान में अधिक हैं। आईसीओ में, हम चिंतित हैं कि डेटा के गलत विश्लेषण के परिणामस्वरूप किसी व्यक्ति के बारे में धारणाएं और निर्णय हो सकते हैं जो गलत हैं और भेदभाव का कारण बनते हैं, "उनका बयान जारी रहा।

बोनर ने कहा कि भावनात्मक विश्लेषण सॉफ्टवेयर को अक्सर बायोमेट्रिक सिस्टम के साथ जोड़ा जाता है, जो चेहरे की छवियों से परे व्यक्तिगत जानकारी की एक विस्तृत श्रृंखला को एकत्रित और संग्रहीत करता है। सॉफ़्टवेयर प्रदाता अक्सर इस बारे में पारदर्शी नहीं होते हैं कि यह व्यक्तिगत डेटा कैसे संसाधित या सहेजा जाता है। 

"एकमात्र स्थायी बायोमेट्रिक तैनाती वे होंगे जो पूरी तरह कार्यात्मक, जवाबदेह और विज्ञान द्वारा समर्थित हैं," उन्होंने कहा। "जैसा कि यह खड़ा है, हम अभी तक किसी भी भावना एआई तकनीक को इस तरह से विकसित होते हुए नहीं देख रहे हैं जो डेटा सुरक्षा आवश्यकताओं को पूरा करती है, और इस क्षेत्र में आनुपातिकता, निष्पक्षता और पारदर्शिता के बारे में अधिक सामान्य प्रश्न हैं।"

जो कहने का एक विनम्र तरीका लगता है: आपको केवल इमोशन-रीडिंग AI मॉडल का उपयोग करना चाहिए जो ICO की अपेक्षा के अनुसार काम करते हैं, और वे मॉडल मौजूद नहीं हैं, इसलिए आपको बस वही करना चाहिए जो आप कर रहे हैं।

ब्रिटेन के डेटा प्राइवेसी वॉचडॉग से एक रिपोर्ट प्रकाशित करने की उम्मीद है, जिसमें बताया गया है कि अगले साल वसंत ऋतु में कंपनियों द्वारा चेहरे की पहचान, फिंगरप्रिंट पहचान और आवाज पहचान सहित बायोमेट्रिक डेटा को कैसे संभाला जाना चाहिए।

बोनर ने कहा, "आईसीओ बाजार की जांच करना जारी रखेगा, उन हितधारकों की पहचान करेगा जो इन प्रौद्योगिकियों को बनाने या तैनात करने की मांग कर रहे हैं, और इन प्रणालियों के काम करने के तरीके में विश्वास और विश्वास को प्रोत्साहित करते हुए डेटा गोपनीयता और अनुपालन के महत्व को समझाते हैं।"

विशेषज्ञों ने वर्षों से भावना और भावना विश्लेषण पर अलार्म बजाया है। भावनाएं व्यक्तिपरक होती हैं और उनकी सटीक व्याख्या करना मुश्किल होता है। मनुष्य अक्सर इसे अपने या दूसरों के लिए प्रभावी ढंग से नहीं कर सकता, मशीनों की तो बात ही छोड़ दें। ®

समय टिकट:

से अधिक रजिस्टर