• GPT-2 एक बड़े पैमाने का text generation AI है, जिसे 80 लाख वेबपेजों पर train किया गया था, और यह दिए गए वाक्य को स्वाभाविक रूप से आगे बढ़ाने की क्षमता दिखाता है
  • OpenAI ने कहा कि इस मॉडल का fake news या online impersonation जैसी चीजों में दुरुपयोग होने का जोखिम है, इसलिए पूरे मॉडल की जगह केवल एक छोटा version ही जारी किया गया
  • शोधकर्ताओं ने कहा कि इस तरह की गैर-प्रकाशन नीति सिर्फ अस्थायी प्रतिक्रिया है, और ऐसे मिलते-जुलते मॉडल जल्द ही दोबारा बनाए जा सकेंगे
  • कुछ लोगों ने OpenAI की आलोचना करते हुए कहा कि उसने जोखिम को बढ़ा-चढ़ाकर पेश कर ध्यान आकर्षित किया, जबकि अन्य विशेषज्ञों ने इसे AI ethics पर चर्चा शुरू कराने वाला एक महत्वपूर्ण क्षण माना
  • यह मामला AI को सार्वजनिक करने की जिम्मेदारी और तकनीक के फैलाव की अनिवार्यता के बीच संतुलन कैसे बनाया जाए, इसका एक महत्वपूर्ण turning point दिखाता है

OpenAI के GPT-2 को सार्वजनिक न करने का फैसला और AI ethics पर बहस

  • OpenAI ने नया text generation model GPT-2 विकसित किया, जो दिए गए विषय के अनुसार सुसंगत वाक्य बना सकता है, लेकिन safety और security कारणों से उसने पूरा मॉडल जारी करने को टाल दिया
  • इसके बजाय केवल छोटा version जारी किया गया, और training में इस्तेमाल किए गए dataset और training code को निजी रखा गया
  • मीडिया ने इसे “मानवता के लिए सील कर देने लायक AI” जैसी भाषा में पेश करते हुए अतिरंजित प्रतिक्रिया दी, और विशेषज्ञों ने कहा कि जोखिम को बढ़ा-चढ़ाकर पेश करने पर बहस हुई
  • इस फैसले ने यह बहस छेड़ दी कि संभावित रूप से खतरनाक AI algorithm को किस सीमा तक सार्वजनिक किया जाना चाहिए

GPT-2 की तकनीकी विशेषताएँ और प्रदर्शन

  • GPT-2 एक language model है, जिसे 80 लाख वेबपेजों के text पर train किया गया और जो वाक्य में अगला शब्द predict करने के तरीके से सीखा गया
  • यह दिए गए वाक्य के style और topic के अनुसार स्वाभाविक रूप से आगे बढ़ने वाले वाक्य बना सकता है
  • उदाहरण के तौर पर, “मैंने Andes पर्वतमाला में English बोलने वाले unicorns के एक समूह की खोज की” जैसा वाक्य देने पर GPT-2 ने काल्पनिक scientific article के रूप में text पूरा किया
  • यह novel, column, speech script जैसी अलग-अलग writing styles में भी text बना सकता है
  • बने हुए वाक्यों में कभी-कभी दोहराव, विषय परिवर्तन में अस्वाभाविकता, और अतार्किक सामग्री शामिल होती है, लेकिन पहले के मॉडलों की तुलना में इसकी context समझने की क्षमता और वाक्य-संगति काफी बेहतर मानी गई
  • GPT-2 शब्दों के अनेक अर्थों में भेद कर सकता है और दुर्लभ उपयोगों को पहचान सकता है, तथा इसका उपयोग translation, chatbot, writing assistance tools आदि में किया जा सकता है

सार्वजनिक न करने के फैसले और उस पर विवाद

  • OpenAI को चिंता थी कि GPT-2 का उपयोग fake news बनाने, online व्यक्तियों की नकल करने, और spam फैलाने में किया जा सकता है
  • इसी कारण पूरे मॉडल की जगह केवल छोटा version जारी किया गया, और training data तथा code को निजी रखा गया
  • लेकिन कई AI researchers ने कहा कि यह गैर-प्रकाशन नीति केवल अस्थायी प्रतिक्रिया है
    • Carnegie Mellon University के Robert Frederking ने कहा, “OpenAI ने जो तकनीक इस्तेमाल की है वह नई नहीं है, और दूसरे शोधकर्ता भी जल्द ऐसे मिलते-जुलते मॉडल बना सकते हैं”
  • यह भी राय दी गई कि अगर किसी संस्था के पास पर्याप्त पूंजी और जानकारी हो, तो वह AWS जैसी cloud services का उपयोग करके भी ऐसा मॉडल बना सकती है
  • कुछ शोधकर्ताओं ने OpenAI की आलोचना की कि उसने जोखिम को बढ़ा-चढ़ाकर पेश कर ध्यान खींचा, और इससे अकादमिक शोध के अवसर सीमित हुए
  • दूसरी ओर MIT के David Bau ने इस फैसले को AI ethics पर चर्चा शुरू कराने वाला एक gesture बताया और कहा, “OpenAI ने इस मुद्दे की ओर ध्यान खींचा, यह सकारात्मक है”

AI को सार्वजनिक करने और नैतिक निर्णय की समस्या

  • Harvard University के Berkman Klein Center के John Bowers ने समझाया कि AI तकनीक को सार्वजनिक करना है या नहीं, यह cost-benefit analysis का प्रश्न है
  • उन्होंने कहा कि वे natural language processing की प्रगति में योगदान देने वाले text generation algorithm को सार्वजनिक करने के पक्ष में हैं, लेकिन निगरानी या manipulation में दुरुपयोग हो सकने वाली image recognition technology को लेकर सावधानी ज़रूरी है
  • खास तौर पर उन्होंने कहा कि deepfake technology में “लाभ की तुलना में नुकसान कहीं अधिक है”
  • Bowers ने कहा कि यह स्थिति AI क्षेत्र की अपरिपक्वता को भी दिखाती है
    • अभी machine learning क्षेत्र में तकनीक के सामाजिक प्रभाव और ethical considerations का आकलन करने के लिए व्यवस्थित मानकों की कमी है

तकनीक के प्रसार को नियंत्रित करने की सीमाएँ और ऐतिहासिक समान मामले

  • हाल के इतिहास से स्पष्ट है कि AI tools के प्रसार को दबाने या नियंत्रित करने की कोशिशें असफल होने की संभावना अधिक होती हैं
  • Frederking ने 1990 के दशक में encryption technology को नियंत्रित करने की विफलता को एक समान उदाहरण के रूप में पेश किया
    • उस समय सरकार ने संचार की निगरानी के लिए backdoor installation bill आगे बढ़ाया था, लेकिन Phil Zimmerman ने PGP encryption tool विकसित कर दिया, जिससे यह प्रयास निष्प्रभावी हो गया
    • इसके बाद मजबूत encryption तकनीक विदेशों में भी आसानी से उपलब्ध हो गई और regulation व्यावहारिक रूप से असंभव हो गया
  • Frederking ने ज़ोर देकर कहा, “जब scientific progress का समय आ जाता है, तो उसे रोका नहीं जा सकता। हम केवल यह तय कर सकते हैं कि उसका जवाब कैसे देना है

निष्कर्ष

  • GPT-2 को पूरी तरह सार्वजनिक न करना AI तकनीक के जोखिम और उसे जारी करने की जिम्मेदारी से जुड़ा एक महत्वपूर्ण उदाहरण माना जाता है
  • OpenAI का यह फैसला AI ethics, transparency, और तकनीक के प्रसार की अनिवार्यता के बीच संतुलन की समस्या को सामने लाता है
  • लंबी अवधि में AI research की openness और सामाजिक safety के बीच सामंजस्य बनाने वाले मानक तैयार करने की आवश्यकता है

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.