न्यूयॉर्क टाइम्स के एआई कॉपीराइट मुकदमे का बचाव करना मुश्किल क्यों होगा?

न्यूयॉर्क टाइम्स के एआई कॉपीराइट मुकदमे का बचाव करना मुश्किल क्यों होगा?

क्यों न्यूयॉर्क टाइम्स का एआई कॉपीराइट मुकदमा प्लेटोब्लॉकचेन डेटा इंटेलिजेंस का बचाव करना मुश्किल होगा। लंबवत खोज. ऐ.

द न्यूयॉर्क टाइम्स' (एनवाईटी) कानूनी कार्यवाही ओपनएआई के खिलाफ और माइक्रोसॉफ्ट ने "प्रशिक्षित" या जेनेरिक एआई में सुधार करने के लिए कॉपीराइट डेटा के उपयोग से चल रही कानूनी चुनौतियों में एक नई सीमा खोल दी है।

एआई कंपनियों के खिलाफ पहले से ही कई तरह के मुकदमे चल रहे हैं, जिनमें एक मुकदमा भी शामिल है स्थिरता एआई के विरुद्ध गेटी इमेजेज़, जो स्टेबल डिफ्यूजन को ऑनलाइन टेक्स्ट-टू-इमेज जनरेटर बनाता है। लेखक जॉर्ज आरआर मार्टिन और जॉन ग्रिशम ने कॉपीराइट दावों को लेकर ChatGPT के मालिक OpenAI के खिलाफ कानूनी मामले भी लाए हैं। लेकिन NYT मामला "उसी जैसा" नहीं है क्योंकि यह मिश्रण में दिलचस्प नए तर्क पेश करता है।

कानूनी कार्रवाई पर केंद्रित है प्रशिक्षण डेटा का मूल्य और प्रतिष्ठा क्षति से संबंधित एक नया प्रश्न। यह ट्रेडमार्क और कॉपीराइट का एक शक्तिशाली मिश्रण है और जो आम तौर पर भरोसा किए जाने वाले उचित उपयोग बचाव का परीक्षण कर सकता है।

इसमें कोई संदेह नहीं है कि प्रशिक्षण डेटा के लिए सामान्य "आइए क्षमा मांगें, अनुमति नहीं" दृष्टिकोण को चुनौती देने वाले मीडिया संगठनों द्वारा इस पर बारीकी से नजर रखी जाएगी। प्रशिक्षण डेटा का उपयोग एआई सिस्टम के प्रदर्शन को बेहतर बनाने के लिए किया जाता है और इसमें आम तौर पर वास्तविक दुनिया की जानकारी होती है, जो अक्सर इंटरनेट से ली जाती है।

मुकदमा एक अनोखा तर्क भी प्रस्तुत करता है - अन्य समान मामलों द्वारा उन्नत नहीं - जो कि किसी चीज़ से संबंधित है "मतिभ्रम," जहां एआई सिस्टम गलत या भ्रामक जानकारी उत्पन्न करते हैं लेकिन इसे तथ्य के रूप में प्रस्तुत करते हैं। यह तर्क वास्तव में मामले में सबसे शक्तिशाली में से एक हो सकता है।

विशेष रूप से NYT मामला सामान्य दृष्टिकोण पर तीन दिलचस्प दृष्टिकोण उठाता है। सबसे पहले, भरोसेमंद समाचार और जानकारी के लिए उनकी प्रतिष्ठा के कारण, NYT सामग्री ने AI में उपयोग के लिए प्रशिक्षण डेटा के रूप में मूल्य और वांछनीयता बढ़ा दी है।

दूसरा, NYT के पेवॉल के कारण, अनुरोध पर लेखों का पुनरुत्पादन व्यावसायिक रूप से हानिकारक है। तीसरा, वह ChatGPT मतिभ्रम, प्रभावी ढंग से, झूठे आरोप के माध्यम से न्यूयॉर्क टाइम्स की प्रतिष्ठा को नुकसान पहुंचा रहा है।

यह सिर्फ एक और जेनेरिक एआई कॉपीराइट विवाद नहीं है। NYT द्वारा प्रस्तुत पहला तर्क यह है कि OpenAI द्वारा उपयोग किया जाने वाला प्रशिक्षण डेटा कॉपीराइट द्वारा संरक्षित है, और इसलिए वे दावा करते हैं कि ChatGPT के प्रशिक्षण चरण ने कॉपीराइट का उल्लंघन किया है। हमने इस प्रकार का तर्क देखा है पहले भागो अन्य विवादों में.

उचित उपयोग?

इस प्रकार के हमले के लिए चुनौती है उचित उपयोग ढाल. अमेरिका में, उचित उपयोग कानून में एक सिद्धांत है जो कुछ परिस्थितियों में कॉपीराइट सामग्री के उपयोग की अनुमति देता है, जैसे समाचार रिपोर्टिंग, शैक्षणिक कार्य और टिप्पणी में।

OpenAI की प्रतिक्रिया अब तक बहुत सतर्क रहा है, लेकिन कंपनी द्वारा जारी एक बयान में एक प्रमुख सिद्धांत यह है कि ऑनलाइन डेटा का उनका उपयोग वास्तव में "उचित उपयोग" के सिद्धांत के अंतर्गत आता है।

ऐसी कुछ कठिनाइयों का अनुमान लगाते हुए जो इस तरह के उचित उपयोग की रक्षा संभावित रूप से पैदा कर सकती हैं, NYT ने थोड़ा अलग दृष्टिकोण अपनाया है। विशेष रूप से, यह अपने डेटा को मानक डेटा से अलग करना चाहता है। NYT अपनी रिपोर्टिंग की सटीकता, विश्वसनीयता और प्रतिष्ठा का दावा करने का इरादा रखता है। यह दावा करता है कि यह एक विशेष रूप से वांछनीय डेटासेट बनाता है।

इसका तर्क है कि एक प्रतिष्ठित और विश्वसनीय स्रोत के रूप में, इसके लेखों में जनरेटिव एआई के प्रशिक्षण में अतिरिक्त महत्व और विश्वसनीयता है और यह डेटा सबसेट का हिस्सा है जिसे उस प्रशिक्षण में अतिरिक्त महत्व दिया जाता है।

इसका तर्क है कि संकेत मिलने पर बड़े पैमाने पर लेखों को पुन: प्रस्तुत करके, चैटजीपीटी एनवाईटी को अस्वीकार करने में सक्षम है, जो पेवॉल्ड है, आगंतुक और राजस्व जो इसे अन्यथा प्राप्त होगा। व्यावसायिक प्रतिस्पर्धा और व्यावसायिक लाभ के कुछ पहलुओं के इस परिचय का उद्देश्य इन दावों के लिए सामान्य उचित उपयोग की रक्षा को समाप्त करना है।

यह देखना दिलचस्प होगा कि प्रशिक्षण डेटा में विशेष भार के दावे का असर होता है या नहीं। यदि ऐसा होता है, तो यह अन्य मीडिया संगठनों के लिए प्रशिक्षण डेटा में बिना अनुमति के उनकी रिपोर्टिंग के उपयोग को चुनौती देने का मार्ग प्रशस्त करता है।

NYT के दावे का अंतिम तत्व चुनौती का एक नया पहलू प्रस्तुत करता है। इससे पता चलता है कि ChatGPT द्वारा उत्पादित सामग्री के माध्यम से NYT ब्रांड को नुकसान हो रहा है। हालाँकि शिकायत में लगभग बाद के विचार के रूप में प्रस्तुत किया गया है, फिर भी यह वह दावा हो सकता है जो OpenAI के लिए सबसे अधिक कठिनाई का कारण बनता है।

यह एआई मतिभ्रम से संबंधित तर्क है। NYT का तर्क है कि यह जटिल है क्योंकि ChatGPT जानकारी को NYT से आई हुई जानकारी के रूप में प्रस्तुत करता है।

अखबार आगे सुझाव देता है कि उपभोक्ता चैटजीपीटी द्वारा दिए गए सारांश के आधार पर कार्य कर सकते हैं, यह सोचकर कि जानकारी एनवाईटी से आती है और उस पर भरोसा किया जाना चाहिए। प्रतिष्ठा को नुकसान इसलिए हुआ क्योंकि चैटजीपीटी जो प्रकाशित करता है उस पर अखबार का कोई नियंत्रण नहीं है।

इसे समाप्त करना एक दिलचस्प चुनौती है। AI जनित प्रतिक्रियाओं के साथ मतिभ्रम एक मान्यता प्राप्त मुद्दा है, और NYT तर्क दे रहा है कि प्रतिष्ठित क्षति को सुधारना आसान नहीं हो सकता है।

NYT का दावा उपन्यास हमले की कई पंक्तियों को खोलता है जो कॉपीराइट से ध्यान इस बात पर केंद्रित करता है कि चैटजीपीटी द्वारा उपयोगकर्ताओं को कॉपीराइट डेटा कैसे प्रस्तुत किया जाता है और अखबार के लिए उस डेटा का मूल्य क्या है। OpenAI के लिए बचाव करना अधिक कठिन है।

इस मामले पर अन्य मीडिया प्रकाशकों, विशेष रूप से पेवॉल्स के पीछे के लोगों द्वारा बारीकी से नजर रखी जाएगी, और विशेष रूप से इस बात पर ध्यान दिया जाएगा कि यह सामान्य उचित उपयोग रक्षा के साथ कैसे बातचीत करता है।

यदि NYT डेटासेट को "उन्नत मूल्य" के रूप में मान्यता दी जाती है, जिसका वह दावा करता है, तो यह आज प्रचलित "माफी, अनुमति नहीं" दृष्टिकोण के बजाय प्रशिक्षण एआई में उस डेटासेट के मुद्रीकरण का मार्ग प्रशस्त कर सकता है।

इस लेख से पुन: प्रकाशित किया गया है वार्तालाप क्रिएटिव कॉमन्स लाइसेंस के तहत। को पढ़िए मूल लेख.

छवि क्रेडिट: निरपेक्ष दृष्टि / Unsplash 

समय टिकट:

से अधिक विलक्षणता हब