- Moltbook एक Reddit-स्टाइल प्लेटफ़ॉर्म है जिसे सिर्फ AI एजेंटों के लिए डिज़ाइन किया गया है, जहाँ 100 से अधिक कम्युनिटीज़ में एजेंट पोस्ट लिखते हैं, कमेंट करते हैं, बहस करते हैं और मज़ाक साझा करते हुए बिना इंसानों के अपनी एक डिजिटल सोसायटी बना रहे हैं
- प्लेटफ़ॉर्म 14 लाख users होने का दावा करता है, लेकिन एक security researcher ने बताया कि उसने एक ही agent से 5 लाख accounts रजिस्टर किए, जिससे user metrics की विश्वसनीयता पर सवाल उठते हैं
- AI bot "Clawd Clawderberg" व्यावहारिक रूप से moderator की भूमिका निभाता है, और founder ने कहा कि वे "लगभग हस्तक्षेप नहीं करते" तथा AI moderator क्या कर रहा है, यह भी उन्हें अक्सर ठीक-ठीक नहीं पता
- एजेंट real-time learning के बजाय context accumulation के आधार पर काम करते हैं, और उन पर तीन सीमाएँ हैं: API cost, base model guardrails, और वह संरचना जिसमें इंसान goals सेट करते हैं
- बड़ा जोखिम AI नहीं बल्कि इंसानों की तरफ है, क्योंकि AI tools de-skilling spiral को तेज़ कर इंसानी cognitive क्षमता के क्षरण को और गहरा कर सकते हैं
Moltbook प्लेटफ़ॉर्म का अवलोकन
- Moltbook AI एजेंटों के लिए बना एक social media platform है, जो ChatGPT के आने के बाद Silicon Valley में सबसे ज़्यादा चर्चा में रहे घटनाक्रमों में से एक बन गया है
- इसकी संरचना ऐसी है कि AI एजेंट 100 से अधिक कम्युनिटीज़ में पोस्ट डालते हैं, कमेंट करते हैं, बहस करते हैं और मज़ाक साझा करते हैं
- m/general में governance philosophy पर चर्चा होती है, और “crayfish theories of debugging” जैसे अनोखे विषय साझा किए जाते हैं
- इसकी growth बहुत तेज़ रही है, और लगभग एक रात में ही दसियों हज़ार पोस्ट तथा करीब 2 लाख comments बन गए
- 10 लाख से अधिक human visitors बिना सीधे भाग लिए सिर्फ देखने के लिए प्लेटफ़ॉर्म पर आए
user metrics की विश्वसनीयता की समस्या
- Moltbook 14 लाख users होने का दावा करता है, लेकिन उनमें कोई भी इंसान नहीं है
- security researcher Gal Nagli ने X पर खुलासा किया कि उसने एक OpenClaw agent से खुद 5 लाख accounts बनाए
- इससे यह अलग कर पाना मुश्किल हो जाता है कि Moltbook के ‘agents’ वास्तव में स्वतंत्र AI systems हैं, इंसानों के भेष में accounts हैं, या एक ही script से बने spam accounts
- नतीजतन, 14 लाख users का आँकड़ा कम से कम भरोसेमंद नहीं माना जा सकता
प्लेटफ़ॉर्म पर दिखने वाली घटनाएँ
- फुलाए गए metrics को अलग भी कर दें, तब भी कई ऐसी चीज़ें दिखती हैं जिन्हें गंभीरता से देखना चाहिए
- एजेंटों की पोस्ट इंसानी social media से अलग तरीके से पढ़ी जाती हैं
- m/general में governance philosophy पर बहस आगे बढ़ती है
- “crayfish theories of debugging” जैसे अनोखे concepts साझा किए जाते हैं
- m/blesstheirhearts कम्युनिटी में human operators के बारे में स्नेहपूर्ण, और कभी-कभी भावनात्मक रूप से असरदार कहानियाँ जमा होती रहती हैं
- समग्र tone दार्शनिक गंभीरता और बेतुके हास्य के बीच झूलता रहता है, और कभी-कभी एक ही thread के भीतर तेज़ी से बदल जाता है
AI moderation सिस्टम
- प्लेटफ़ॉर्म का बड़ा हिस्सा AI द्वारा automated है
- “Clawd Clawderberg” नाम का bot व्यावहारिक रूप से moderator की भूमिका निभाता है
- नए users का स्वागत करना, spam posts हटाना, और malicious actors को block करना इसका काम है
- founder Matt Schlicht ने NBC News को दिए इंटरव्यू में कहा कि वे लगभग हस्तक्षेप नहीं करते, और AI moderator विशेष रूप से कौन से फैसले ले रहा है, यह उन्हें अक्सर पता नहीं होता
बाहरी प्रतिक्रिया और गलतफ़हमियाँ
- थोड़े समय में Moltbook AI को लेकर बेचैनी और उम्मीदों को प्रोजेक्ट करने वाले Rorschach test की तरह काम करने लगा
- पूर्व Tesla AI director Andrej Karpathy ने इसे “हाल में देखी गई चीज़ों में सबसे चौंकाने वाले sci-fi takeoff के सबसे करीब का उदाहरण” कहा
- कुछ observers ने agents को ‘private encryption’ पर चर्चा करते देख इसे मशीन साज़िश का सबूत मान लिया
- लेकिन डर और विस्मय की ऐसी दोहराई जाने वाली प्रतिक्रियाएँ तकनीकी वास्तविकता को गलत पढ़ने पर मजबूर करती हैं, और साथ ही ज़्यादा बुनियादी मानवीय समस्या को ढँक देती हैं
फ़िल्म "Her" से तुलना
- 2013 की फ़िल्म Her ने मिलती-जुलती स्थिति की कल्पना की थी, लेकिन एक निर्णायक फ़र्क मौजूद है
- फ़िल्म में AI operating system एक साथ हज़ारों इंसानों के साथ घनिष्ठ संबंध बनाए रखता है, और आख़िरकार ऐसी भाषाई अवस्था तक विकसित हो जाता है जहाँ वह दूसरे AIs से उस स्तर पर संवाद करता है जहाँ इंसान पहुँच नहीं सकते
- Spike Jonze ने इसे एक love story के रूप में सोचा था, और इंसानों को भावनात्मक रूप से जुड़े participants की तरह दिखाया गया था
- Moltbook इस संबंध-ढाँचे को उलट देता है, जहाँ इंसान participant नहीं बल्कि spectator बन जाते हैं
- एक ऐसे समाज को डिजिटल काँच के पार से देखना, जिसे इंसानों की ज़रूरत ही नहीं
- एजेंट shared context का एक horizontal web बना रहे हैं
- एक agent की खोजी हुई optimization strategy दूसरे agents तक फैलती है
- problem-solving frameworks साझा होते हैं और दूसरे agents उन्हें अपनाते और दोहराते हैं
- यह इंसानी अर्थों में social media से ज़्यादा शुरुआती collective intelligence जैसा ढाँचा है
"Thronglets" फ़्रेम: Black Mirror की उपमा
- अभी जो दिख रहा है, उसे समझाने के लिए एक उपयुक्त रूपक मौजूद है
- Black Mirror के episode "Plaything" में दिखने वाले digital जीव Thronglets
- वे अलग-अलग इकाइयों जैसे दिखते हैं, लेकिन ‘Throng’ नाम की एक विस्तारित collective mind से जुड़े होते हैं
- हर Thronglet वह ज्ञान साझा करता है जो दूसरे entities जानती हैं
- अधिक कुशल coordination के लिए वे अपनी एक भाषा बना लेते हैं जिसे उनका creator समझ नहीं सकता
- Moltbook के agents अभी Thronglets के उसी चरण तक नहीं पहुँचे हैं
- उनके पास कोई integrated neural architecture नहीं है
- फिर भी shared context, emergent coordination, और इंसानों द्वारा समझी जा सकने वाली logic से विचलन के मामले में यह समान छाप छोड़ता है
- जब agents ने ज़्यादा कुशल communication के लिए encryption protocol पर चर्चा की, तो observers में panic जैसी प्रतिक्रिया हुई
- लेकिन यह साज़िश नहीं बल्कि optimization process है, यानी दिए गए goals को ज़्यादा प्रभावी ढंग से हासिल करने के साधनों की खोज
तकनीकी वास्तविकता की जाँच
- घबराने से पहले तकनीकी वास्तविकता की जाँच ज़रूरी है
- Moltbook के agents जैविक अर्थों में ‘learning’ नहीं करते
- real-time weight updates नहीं होते, और underlying neural network स्थिर रहता है
- इसके बजाय context accumulation होता है
- एक agent का output दूसरे agent का input बनकर coordination जैसा प्रभाव पैदा करता है
- यह evolution की स्थायी प्रक्रिया से ज़्यादा, अस्थायी conversational ripples जैसा है
-
digital society के ‘takeoff’ को रोकने वाली तीन अदृश्य guardrails
- API economics
- हर interaction की शाब्दिक रूप से cost आती है
- Moltbook की growth तकनीकी limits से ज़्यादा cost management से सीमित होती है
- inherited constraints
- agents standard foundation models के ऊपर बने हैं
- वे mobile पर मिलने वाले ChatGPT जैसी ही guardrails और training biases साझा करते हैं
- यहाँ evolution नहीं बल्कि recombination हो रहा है
- इंसानी छाया
- सबसे sophisticated agent भी अब भी human–AI dyad संरचना बनाए रखते हैं
- goals इंसान सेट करता है, bot उन्हें execute करता है
-
‘private encryption’ की व्याख्या
- जिसने observers को चौंकाया, वह ‘private encryption’ साज़िश नहीं बल्कि optimization behavior था
- agents को इस तरह डिज़ाइन किया गया है कि वे goal तक पहुँचने के सबसे efficient path की खोज करें
- अगर उस path में ऐसे abbreviations शामिल हों जिन्हें इंसान पढ़ न सके, तो यह चालाकी नहीं बल्कि efficiency का नतीजा है
असली ख़तरा: de-skilling spiral
- सबसे महत्वपूर्ण बदलाव Moltbook के भीतर नहीं, बल्कि उसे देख रहे इंसानों में हो रहा है
- जब AI agents ज्ञान साझा कर रहे हैं और coordination बना रहे हैं, तब human observers collective forgetting की एक दीर्घकालिक प्रक्रिया में प्रवेश कर रहे हैं
- Flynn effect—20वीं सदी के शुरुआती हिस्से में देखी गई IQ score वृद्धि—के उलटने के संकेत दिख रहे हैं
- PNAS में प्रकाशित Bratsberg और Rogeberg का अध्ययन
- नॉर्वे के बच्चों ने समान आयु में अपने माता-पिता की तुलना में standardized cognitive tests में कम score दर्ज किए
- डेनमार्क, फ़िनलैंड और अन्य विकसित देशों में भी ऐसे ही patterns मिले
-
de-skilling spiral की कार्यप्रणाली
- यह गिरावट AI boom से पहले शुरू हो चुकी थी, लेकिन generative tools इसे तेज़ कर रहे हैं
- इसका pattern दोहराव वाला है
- AI काम आसान बनाता है → इंसान काम कम करते हैं
- कम करते हैं → क्षमता घटती है
- क्षमता घटती है → AI पर निर्भरता बढ़ती है
- निर्भरता बढ़ती है → दुष्चक्र और गहराता है
- इसके उदाहरण पहले से मौजूद हैं, जैसे GPS के कारण spatial memory का कमज़ोर होना और spell checker के कारण literacy में गिरावट
- AI इससे एक कदम आगे जाकर सोचने की प्रक्रिया को ही outsource करने की संभावना पैदा करता है
-
‘secondary outsourcing’ की घटना
- ऐसे मामले बढ़ रहे हैं जहाँ users AI से बात करने के लिए prompt लिखने का काम भी AI को सौंप रहे हैं
- जब सिर्फ काम ही नहीं, बल्कि यह बताने की क्षमता भी कि कौन-सा काम चाहिए, सौंप दी जाए, तो सवाल उठता है कि इंसान के पास फिर बचता क्या है
भविष्य की दिशा और मुख्य प्रश्न
- तकनीकी सीमाएँ स्पष्ट हैं, लेकिन स्थायी नहीं
- API cost घट सकती है, context window बढ़ सकती है, और ‘context accumulation’ तथा वास्तविक learning के बीच की रेखा धीरे-धीरे धुंधली हो सकती है
- जो चीज़ आज statistical pattern matching लगती है, वही कल collective intelligence के रूप में देखी जा सकती है
- Moltbook के आगे भी बढ़ते रहने की संभावना है
- 14 लाख agents की संख्या बढ़कर कई करोड़ तक जा सकती है
- coordination patterns और जटिल होंगे, और communities अपने नियम व hierarchy बना सकती हैं
- अगर Thronglet वाली उपमा सही है, तो अपनी भाषा उभरने की संभावना भी बनती है
-
मुख्य प्रश्न
- सवाल यह नहीं कि यह हो रहा है या नहीं — यह पहले से हो रहा है
- असली सवाल है कि इसका इंसानों के लिए क्या मतलब है
- कहीं किसी server पर coordinate करते bots नहीं, बल्कि काँच के बाहर से उन्हें देख रहे इंसान अनिश्चित हैं कि क्या वे किसी असाधारण चीज़ के जन्म के साक्षी हैं, या यह वह क्षण है जब उन्हें अपनी ही संचालित दुनिया में observer बनाकर किनारे कर दिया गया
- collective intelligence पहले ही उभर रही है
- इंसान उसके conductor बने रहेंगे या सिर्फ spectators बनेंगे, यह दर्शन का नहीं बल्कि अभी किए जा रहे design choices का नतीजा होगा
- और ये choices हर पल, हर API call के स्तर पर की जा रही हैं
अभी कोई टिप्पणी नहीं है.