माइक्रोसॉफ्ट ने डीपफेक तकनीक का अनावरण किया जो रिलीज करने के लिए बहुत अच्छी है

माइक्रोसॉफ्ट ने डीपफेक तकनीक का अनावरण किया जो रिलीज करने के लिए बहुत अच्छी है

माइक्रोसॉफ्ट ने डीपफेक तकनीक का अनावरण किया जो प्लेटोब्लॉकचेन डेटा इंटेलिजेंस जारी करने के लिए बहुत अच्छी है। लंबवत खोज. ऐ.

Microsoft ने इस सप्ताह VASA-1 का प्रदर्शन किया, जो स्थिर छवि, ऑडियो नमूना और टेक्स्ट स्क्रिप्ट से बात कर रहे लोगों के वीडियो बनाने के लिए एक रूपरेखा है, और दावा करता है - सही है - इसे जनता के लिए जारी करना बहुत खतरनाक है।

ये एआई-जनरेटेड वीडियो, जिसमें लोगों को क्लोन आवाज में स्क्रिप्टेड शब्दों को बोलने के लिए एनिमेटेड किया जा सकता है, अमेरिकी संघीय व्यापार आयोग की तरह ही हैं के बारे में चेतावनी दी पिछले महीने, पहले के बाद एक नियम का प्रस्ताव प्रतिरूपण धोखाधड़ी के लिए एआई प्रौद्योगिकी का उपयोग रोकने के लिए।

माइक्रोसॉफ्ट की टीम भी इसे स्वीकार करती है घोषणा, जो बताता है कि नैतिक विचारों के कारण प्रौद्योगिकी जारी नहीं की जा रही है। वे इस बात पर जोर देते हैं कि वे आभासी इंटरैक्टिव चरित्र उत्पन्न करने के लिए शोध प्रस्तुत कर रहे हैं, न कि किसी का प्रतिरूपण करने के लिए। इस प्रकार, कोई उत्पाद या एपीआई योजनाबद्ध नहीं है।

रेडमंड बोफिन्स कहते हैं, "हमारा शोध सकारात्मक अनुप्रयोगों के लक्ष्य के साथ आभासी एआई अवतारों के लिए दृश्य प्रभावशाली कौशल पैदा करने पर केंद्रित है।" “इसका उद्देश्य ऐसी सामग्री बनाना नहीं है जिसका उपयोग गुमराह करने या धोखा देने के लिए किया जाता है।

“हालांकि, अन्य संबंधित सामग्री निर्माण तकनीकों की तरह, इसका अभी भी संभावित रूप से मनुष्यों का प्रतिरूपण करने के लिए दुरुपयोग किया जा सकता है। हम वास्तविक व्यक्तियों के बारे में भ्रामक या हानिकारक सामग्री बनाने के किसी भी व्यवहार का विरोध करते हैं, और जालसाजी का पता लगाने के लिए अपनी तकनीक को लागू करने में रुचि रखते हैं।

बायोमेट्रिक प्रमाणीकरण व्यवसाय, टोकन के अध्यक्ष और जेनरेटिव एआई पर लगातार वक्ता केविन सुरेस ने बताया रजिस्टर एक ईमेल में कहा गया है कि जबकि स्थिर फ्रेम और क्लोन वॉयस फ़ाइल से एनिमेटेड चेहरों के पहले प्रौद्योगिकी प्रदर्शन हुए हैं, माइक्रोसॉफ्ट का प्रदर्शन कला की स्थिति को दर्शाता है।

उन्होंने कहा, "ईमेल और अन्य व्यावसायिक जनसंचार को निजीकृत करने के निहितार्थ शानदार हैं।" “यहां तक ​​कि पुरानी तस्वीरों को भी एनिमेट कर रहा हूं। कुछ हद तक यह सिर्फ मनोरंजन है और दूसरी ओर इसमें ठोस व्यावसायिक अनुप्रयोग हैं जिनका उपयोग हम सभी आने वाले महीनों और वर्षों में करेंगे।

डीपफेक का "मज़ा" 96 प्रतिशत गैर-सहमति वाला पोर्न था, जब आकलन किया [पीडीएफ] 2019 में साइबर सुरक्षा फर्म डीपट्रेस द्वारा।

बहरहाल, माइक्रोसॉफ्ट के शोधकर्ताओं का सुझाव है कि यथार्थवादी दिखने वाले लोगों को बनाने और उनके मुंह में शब्द डालने में सक्षम होने के सकारात्मक उपयोग हैं।

"ऐसी तकनीक डिजिटल संचार को समृद्ध करने, संचार संबंधी अक्षमताओं वाले लोगों के लिए पहुंच बढ़ाने, शिक्षा में बदलाव, इंटरैक्टिव एआई ट्यूशन के साथ तरीकों और स्वास्थ्य देखभाल में चिकित्सीय सहायता और सामाजिक संपर्क प्रदान करने का वादा करती है," वे एक प्रस्ताव में प्रस्ताव करते हैं। शोध पत्र इसमें "पोर्न" या "गलत सूचना" शब्द शामिल नहीं हैं।

हालांकि यह तर्कपूर्ण है कि एआई जनित वीडियो डीपफेक के समान नहीं है परिभाषित जनरेटिव विधि के विपरीत डिजिटल हेरफेर द्वारा, जब कट-एंड-पेस्ट ग्राफ्टिंग के बिना एक ठोस नकली तैयार किया जा सकता है, तो भेद महत्वहीन हो जाता है।

यह पूछे जाने पर कि वह इस तथ्य के बारे में क्या सोचते हैं कि माइक्रोसॉफ्ट दुरुपयोग के डर से इस तकनीक को जनता के लिए जारी नहीं कर रहा है, सुरेस ने प्रतिबंधों की व्यवहार्यता के बारे में संदेह व्यक्त किया।

उन्होंने कहा, "माइक्रोसॉफ्ट और अन्य ने गोपनीयता और उपयोग के मुद्दों पर काम करने तक इसे फिलहाल रोक रखा है।" "कोई इसे कैसे नियंत्रित करेगा जो इसका उपयोग सही कारणों से करता है?"

सुरेस ने कहा कि पहले से ही ओपन सोर्स मॉडल मौजूद हैं जो समान रूप से परिष्कृत हैं, जो इंगित करता है भावनाएं. उन्होंने कहा, "कोई भी GitHub से सोर्स कोड खींच सकता है और उसके चारों ओर एक ऐसी सेवा बना सकता है जो यकीनन Microsoft के आउटपुट को टक्कर देगी।" "अंतरिक्ष की खुली स्रोत प्रकृति के कारण, इसे विनियमित करना किसी भी मामले में असंभव होगा।"

उन्होंने कहा, दुनिया भर के देश एआई-निर्मित लोगों को विनियमित करने की कोशिश कर रहे हैं। कनाडा, चीन, और UKअन्य देशों के अलावा, सभी देशों में ऐसे नियम हैं जिन्हें डीपफेक पर लागू किया जा सकता है, जिनमें से कुछ व्यापक राजनीतिक लक्ष्यों को पूरा करते हैं। ब्रिटेन बस इसी हफ्ते इसे अवैध बना दिया सहमति के बिना स्पष्ट यौन डीपफेक छवि बनाना। यूके के ऑनलाइन सुरक्षा अधिनियम 2023 के तहत ऐसी छवियों को साझा करने की पहले ही अनुमति नहीं दी गई थी।

जनवरी में, अमेरिकी सांसदों का एक द्विदलीय समूह शुरू की स्पष्ट जाली छवियों और गैर-सहमतिपूर्ण संपादन को बाधित करने वाला अधिनियम 2024 (अवज्ञा अधिनियम), एक विधेयक जो गैर-सहमति वाली डीपफेक छवियों के पीड़ितों के लिए अदालत में नागरिक दावा दायर करने का एक रास्ता बनाता है।

और मंगलवार, 16 अप्रैल को, न्यायपालिका पर अमेरिकी सीनेट समिति, गोपनीयता, प्रौद्योगिकी और कानून पर उपसमिति ने बैठक की एक सुनवाई शीर्षक "एआई की निगरानी: चुनाव डीपफेक।"

डीपफेक का पता लगाने वाली कंपनी डीपमीडिया के सीईओ रिजुल गुप्ता ने तैयार टिप्पणियों में कहा:

[टी] डीपफेक का सबसे खतरनाक पहलू बुरे अभिनेताओं को प्रशंसनीय अस्वीकार्यता प्रदान करने की उनकी क्षमता है, जिससे वे वास्तविक सामग्री को नकली के रूप में खारिज कर सकते हैं। जनता के विश्वास का यह क्षरण हमारे सामाजिक ताने-बाने और हमारे लोकतंत्र की नींव पर आघात करता है। मानव मस्तिष्क, जो देखता और सुनता है उस पर विश्वास करता है, विशेष रूप से डीपफेक के धोखे के प्रति संवेदनशील है। जैसे-जैसे ये प्रौद्योगिकियां तेजी से परिष्कृत होती जा रही हैं, वे हमारे समाज को रेखांकित करने वाली वास्तविकता की साझा भावना को कमजोर करने की धमकी देती हैं, जिससे अनिश्चितता और संदेह का माहौल बनता है, जहां नागरिक उनके सामने आने वाली हर जानकारी की सत्यता पर सवाल उठाते हैं।

लेकिन विपणन अनुप्रयोगों के बारे में सोचें। ®

समय टिकट:

से अधिक रजिस्टर