• Large Language Models (LLM) और machine learning (ML) सामाजिक ढाँचे को फिर से गढ़ रहे हैं, और जैसे कारों ने शहरों को बदला था, वैसे ही वे मानव जीवन के हर पहलू को बदल रहे हैं
  • AI द्वारा बनाई गई गलत जानकारी और automated content पहले ही search, email, customer service जैसे रोज़मर्रा के क्षेत्रों में गहराई तक प्रवेश कर चुके हैं
  • AI tools का उपयोग बंद करना और मानव-केंद्रित सोच को बहाल करना ज़रूरी है; हमें खुद लिखना चाहिए और मानवीय भाषा में सोचना चाहिए
  • व्यक्ति AI पर निर्भरता से इनकार, union बनाना, राजनीतिक regulation की माँग जैसे ठोस कदमों के ज़रिए तकनीक के प्रसार की रफ़्तार धीमी कर सकते हैं
  • ऐसे विकल्प कानूनी और सामाजिक दुष्प्रभावों को कम करने और नैतिक शांति सुनिश्चित करने में मदद कर सकते हैं, और यदि फैसला ग़लत निकले तो फिर से शुरुआत की जा सकती है

कृत्रिम बुद्धिमत्ता के युग के बाद का चुनाव

  • Large Language Models (LLM) और machine learning (ML) के विकास का पूरे समाज पर पड़ने वाले प्रभाव की तुलना कारों द्वारा लाए गए ऐतिहासिक बदलाव से की गई है
    • जैसे कारों ने शहरों की संरचना, यातायात, पर्यावरण और सामाजिक संबंधों को बुनियादी रूप से बदल दिया, वैसे ही कृत्रिम बुद्धिमत्ता भी मानव जीवन और औद्योगिक संरचना को फिर से गढ़ सकती है
    • ध्यान तकनीक की गति या सुविधा पर नहीं, बल्कि शहरों का स्वरूप और मानव जीवन कैसे बदलेगा इस पर है
  • AI-आधारित गलत सूचना और automated content पहले ही रोज़मर्रा के जीवन में गहराई तक प्रवेश कर चुके हैं
    • search results, customer service, email, websites आदि में LLM द्वारा बनाई गई गलत या झूठी जानकारी फैल रही है
    • data centers की बिजली खपत बढ़ने से दरें बढ़ रही हैं और पर्यावरणीय बोझ पैदा हो रहा है
    • व्यक्तिगत काम, कला और मानवीय रिश्तों तक को AI को सौंपने की प्रवृत्ति फैल रही है
  • AI tools का उपयोग बंद करने की ज़रूरत पर ज़ोर दिया गया है
    • ML सहायता मनुष्य की सीखने की क्षमता और सैद्धांतिक सोच को कमज़ोर करती है, और James C. Scott की ‘metis’ (कुशल व्यावहारिक ज्ञान) को छीन लेती है
    • हमें खुद लिखना चाहिए, समस्याएँ सीधे हल करनी चाहिए, और मनुष्यों के साथ बातचीत के ज़रिए अपनी सोच को जीवित रखना चाहिए
    • AI-निर्मित सामग्री की खपत कम से कम करने और मनुष्यों द्वारा बनाई गई सामग्री खोजकर पढ़ने की सलाह दी गई है
  • व्यक्ति और समाज द्वारा अपनाए जा सकने वाले व्यावहारिक कदम बताए गए हैं
    • अपनी भाषा में लिखने और AI-निर्मित सामग्री पर निर्भर न रहने का आग्रह किया गया है
    • कार्यस्थल पर AI लागू करने के दबाव का विरोध, union बनाना, और राजनीतिक regulation की माँग करने का सुझाव दिया गया है
    • AI कंपनियों की carbon और digital emissions के प्रति जवाबदेही बढ़ाना, data center tax breaks का विरोध, और नैतिक कारणों से नौकरी छोड़ने पर विचार जैसे ठोस कदम सुझाए गए हैं
  • ऐसा प्रतिरोध AI के विकास को पूरी तरह रोक न सके, फिर भी उसकी रफ़्तार धीमी कर सकता है
    • इससे तकनीक, उद्योग और सरकार को अनुकूलन के लिए समय मिल सकता है, और कानूनी व सामाजिक दुष्प्रभावों को कम किया जा सकता है
    • AI-निर्मित child sexual abuse material (CSAM), धोखाधड़ी, security vulnerabilities जैसी समस्याओं से निपटने के लिए समय मिल सकता है
    • नैतिक विकल्पों के ज़रिए अंतरात्मा की शांति मिल सकती है, और यदि निर्णय ग़लत हो तो निष्कर्ष यह है कि “इसे बाद में फिर बनाया जा सकता है”

और फिर भी बचा हुआ आकर्षण

  • AI के प्रति घृणा और साथ ही व्यावहारिक आकर्षण साथ-साथ मौजूद हैं
    • उदाहरण के तौर पर, रंग बदलने वाली लाइट को नियंत्रित करने के लिए LLM से code generation की उपयोगिता का उल्लेख किया गया है
    • सीमित परिस्थितियों में, जहाँ security risk कम हो और परिणाम को सीधे verify किया जा सके, AI के उपयोग की उपयोगिता स्वीकार की गई है
    • लेकिन अंत “इसमें भला क्या नुकसान हो सकता है?” जैसे सवाल से होता है, जो AI उपयोग की सीमाएँ और आत्मविरोध को उजागर करता है

लेखन प्रक्रिया

  • यह लेख Vim में हाथ से लिखा गया, Pandoc से typeset किया गया, और दो बार कागज़ पर proofread किया गया
    • प्रारूप दोस्तों के साथ साझा किया गया था और उनसे feedback मिला था, तथा सभी त्रुटियों और विचारों की ज़िम्मेदारी लेखक की स्वयं की है यह स्पष्ट किया गया है
    • इस बात पर ज़ोर दिया गया है कि लेखन और संपादन की पूरी प्रक्रिया AI की मदद के बिना इंसानी हाथों से पूरी की गई

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.