2 पॉइंट द्वारा GN⁺ 2025-04-05 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • OSINT (ओपन सोर्स इंटेलिजेंस विश्लेषण) मूल रूप से एक ‘सोचने का खेल’ था
  • हाल के समय में यह धीरे-धीरे AI टूल्स पर निर्भर ‘भरोसे का खेल’ बनता जा रहा है
  • दस्तावेज़ सारांश, अनुवाद और रिपोर्ट लेखन से शुरू होकर अब यह AI-नेतृत्व वाली जांच में बदल रहा है, जिससे critical thinking कम हो रही है
  • “हम ज़्यादा स्मार्ट तरीके से काम कर रहे हैं” जैसी गलतफ़हमी के बीच असली सोचने की प्रक्रिया टूट रही है

AI के प्रसार से आए बदलाव

  • लेखक स्वयं भी ChatGPT, Copilot, Claude, Gemini आदि का रोज़ इस्तेमाल करता है
  • समस्या यह है कि विश्लेषक कठिन प्रक्रियाओं को छोड़कर सोचने का काम AI को सौंपने लगे हैं
  • OSINT में सिर्फ़ गति महत्वपूर्ण नहीं है; निर्णय क्षमता इसकी असली कुंजी है, और निर्णय क्षमता कोई मॉडल नहीं दे सकता
  • अगर critical आदतें नहीं बचीं, तो जांचकर्ता की जगह हम automation operator बनकर रह जाएंगे

वह शोध जिसे सबको पढ़ना चाहिए

  • 2025 की शुरुआत में Carnegie Mellon और Microsoft Research की टीम ने 319 knowledge workers पर आधारित एक अध्ययन प्रकाशित किया
  • नतीजा: AI पर भरोसा जितना ज़्यादा, critical thinking उतनी कम होने की प्रवृत्ति
  • इसके उलट, जिन लोगों का आत्मविश्वास ज़्यादा था वे ज़्यादा सवाल पूछते और सत्यापन करते थे
  • AI पर भरोसा करना अंततः अपनी सोच छोड़ देने से जुड़ सकता है

वास्तविक कामकाज में दिख रही स्थितियाँ

  • परिकल्पना बनाने के बजाय AI से आइडिया पूछने की आदत बढ़ रही है
  • स्रोतों की जांच करने के बजाय यह मान लिया जाता है कि AI ने वह पहले ही कर लिया होगा
  • अलग-अलग दृष्टिकोणों का मूल्यांकन करने के बजाय AI के summary को edit करके काम खत्म कर दिया जाता है
  • विशेषज्ञ भी इस तरीके के आदी होते जा रहे हैं और कई बार सोचना ही बंद कर देते हैं

OSINT में AI के दुरुपयोग के उदाहरण

इमेज सत्यापन की विफलता

  • एक प्रदर्शन की तस्वीर Gemini में अपलोड कर “यह तस्वीर कहाँ की है?” पूछा गया, तो जवाब मिला ‘Paris’
  • जबकि साइनबोर्ड, नंबर प्लेट और वास्तुशैली देखने पर साफ़ था कि वह Belgium है, लेकिन AI पर भरोसा करके गलत निष्कर्ष निकाल लिया गया

व्यक्ति-प्रोफ़ाइल का विकृतिकरण

  • Claude से किसी व्यक्ति की online गतिविधियों का सारांश बनवाने पर उसे “activist, tech worker, harmless person” बताया गया
  • far-right forums में उसकी गतिविधि छूट गई → बिना सत्यापन के उसे किसी event speaker के रूप में चुन लेने का जोखिम

दुष्प्रचार अभियान विश्लेषण की विफलता

  • Telegram संदेशों को ChatGPT में डालकर summary और pattern analysis मांगा गया
  • केवल keywords सामने आए, लेकिन Russian information manipulation group की भाषाई patterns छूट गईं

OSINT विश्लेषकों के सामने मौजूद खतरा

  • ऊपर के सभी उदाहरण OSINT की बहुत वास्तविक विफलताओं की संभावना दिखाते हैं
  • समस्या यह नहीं थी कि विश्लेषक दुष्ट या आलसी थे, बल्कि यह थी कि उन्होंने टूल्स पर बहुत ज़्यादा भरोसा किया
  • AI जांच क्षमता की जगह नहीं ले सकता; इसका uncritical उपयोग OSINT को ख़तरनाक बनाता है

मरती हुई OSINT विशेषज्ञता (Tradecraft)

  • विशेषज्ञता का अर्थ ‘टूल्स की सूची’ नहीं, बल्कि संदेह करने और सत्यापित करने की सोचने की आदत है
  • कुछ अजीब लगे तो दोबारा देखना, metadata जांचना, भाषा की असंगति पकड़ना जैसी प्रवृत्तियाँ ही इसकी पहचान हैं
  • AI काम को आसान दिखाता है और सोचने की प्रक्रिया को ही हटा देता है
  • सुविधा के बीच विशेषज्ञता धीरे-धीरे गायब हो रही है

पहले और अब के विश्लेषक की तुलना

पहले:

  • धुंधली इमेज को कई टूल्स से analyze करना, EXIF जानकारी देखना, landmarks से reverse search करना
  • विदेशी भाषा की पोस्ट को मैन्युअल रूप से translate करना, hashtags track करना, account activity history देखना
  • domain WHOIS analysis, subdomain tracking, email linkage investigation करना

अब:

  • इमेज AI में डालकर सिर्फ़ location पूछी जाती है और बात खत्म
  • पोस्ट का summary AI से बनवाकर सीधे इस्तेमाल कर लिया जाता है
  • “यह domain कौन चलाता है?” AI से पूछकर उसी उत्तर पर भरोसा कर लिया जाता है

विशेषज्ञता के खोने के परिणाम

  • संदर्भ आधारित सोच, स्रोतों के बीच cross-check, hypothesis validation और गहराई से खोजने की क्षमता कमजोर पड़ती है
  • AI भरोसेमंद भाषा और आत्मविश्वास के साथ भ्रम पैदा करता है
  • दुर्भावनापूर्ण ताकतें AI की कमज़ोरियों का फायदा उठाकर manipulated data उसमें डालती हैं

विश्लेषक की नई भूमिका: AI का पर्यवेक्षक

  • GenAI कहीं नहीं जा रहा; समस्या तब पैदा होती है जब उसे ‘सहायक’ की जगह ‘निर्णय का आधार’ मान लिया जाता है
  • अब विश्लेषकों को AI को test, verify और question करने की भूमिका निभानी होगी
  • हमें “जवाब खोजने वाला” नहीं बल्कि “जवाब को तोड़कर परखने वाला” बनना होगा

विश्लेषक की सोच में बदलाव

  • पहले भूमिका सिर्फ़ AI से सवाल पूछकर जवाब लेने तक सीमित थी,
    अब भूमिका AI द्वारा दिए गए उत्तरों की बारीकी से जिरह और सत्यापन करने की होनी चाहिए
  • पहले हम AI के summary को जैसा है वैसा स्वीकार कर लेते थे,
    अब उस summary को खोलकर देखना होगा कि क्या छूटा है और उसमें कौन-सी व्याख्या जोड़ी गई है
  • पहले AI के सुझावों को सीधे इस्तेमाल या follow कर लिया जाता था,
    अब यह समझना ज़रूरी है कि वह सुझाव क्यों आया और उसे तोड़कर फिर से बनाना कैसे चाहिए
  • पहले AI के साफ़-सुथरे और निर्णायक उत्तरों पर भरोसा कर लिया जाता था,
    अब चाहे प्रक्रिया गंदी और जटिल लगे, यह पता लगाना होगा कि वह जवाब कहाँ से आया और किन स्रोतों पर आधारित है
  • पहले किसी व्यक्ति या घटना की प्रोफ़ाइल AI से लिखवाई जाती थी,
    अब यह खुद जांचना ज़रूरी है कि उस प्रोफ़ाइल की narrative वास्तविक संदर्भ से मेल खाती है या नहीं
  • पहले AI ने draft अच्छा बना दिया तो उसे वैसे ही जमा कर दिया जाता था,
    अब उस draft को dismantle करके, समस्याएँ ढूँढकर, फिर से जोड़कर सच में अपना बनाना होगा

critical thinking को फिर से जीवित कैसे करें

जानबूझकर ‘friction’ जोड़ें

  • बहुत तेज़ परिणाम ख़तरनाक हो सकते हैं
  • AI द्वारा दी गई जानकारी पर भी वही verification process चलाएँ जो आप पहले से करते आए हैं

रणनीति:

  • “अगर AI नहीं होता, तो मैं क्या करता?” → वही काम वास्तव में करके देखें
  • AI output सही है या नहीं, इसके लिए जानबूझकर counterexamples खोजें
  • किसी दूसरे model से कहें: “इसका बिल्कुल उलटा interpretation करो”

स्रोत-जांच की आदत वापस लाएँ

  • GenAI OSINT शैली की citation नहीं देता
  • मॉडल द्वारा दिए गए नाम, links और quotes को अनिवार्य रूप से reverse-trace करना चाहिए

रणनीति:

  • AI result बनाम वास्तविक source को साथ-साथ रखकर तुलना करें
  • summary देख लें, लेकिन मूल पाठ ज़रूर खोलें

AI को ‘सोच का साथी’ समझें

  • AI सिर्फ़ एक junior analyst है; उसे supervision चाहिए

रणनीति:

  • अपनी hypothesis का खंडन करने के लिए कहें
  • अपने investigation notes देकर पूछें कि क्या छूटा है
  • अलग-अलग viewpoints simulate कराने में इसका उपयोग करें

मॉडलों के बीच तुलना

  • ChatGPT, Claude, Gemini, Copilot के outputs की तुलना करें
  • अंतर को signal मानें और उसके कारण खोजें

जानबूझकर model को ‘तोड़ें’

  • इरादतन विरोधाभासी या अस्पष्ट सवाल पूछें
  • error patterns पहचानें → और उन्हें मानव निर्णय क्षमता से पूरा करें

‘कठिन काम’ करते रहिए

  • AI एक सहायक टूल है; मुख्य काम आपको खुद करना चाहिए

रणनीति:

  • AI इस्तेमाल करने से पहले खुद geolocation करने की कोशिश करें
  • AI summary देखने से पहले खुद summary लिखें
  • AI से प्रोफ़ाइल बनवाने से पहले खुद profiling करके तुलना करें

यह धीमा पतन और उससे लड़ने का तरीका

  • critical thinking का पतन अचानक नहीं आता
  • रिपोर्ट जितनी तेज़ और साफ़ होती जाती है, उतना ही यह संकट का संकेत हो सकता है
  • जो जानकारी सही उत्तर जैसी लगे, उसे बिना जांचे मान लेना ख़तरनाक है

लेकिन यह सब बदला जा सकता है

  • AI को बाहर करने की ज़रूरत नहीं है
  • बल्कि AI से टकराना, उस पर शक करना और उसे चुनौती देना ज़रूरी है
  • आप ‘टूल उपयोगकर्ता’ नहीं, बल्कि ‘जांचकर्ता’ हैं

✅ OSINT में AI के दुरुपयोग को रोकने की checklist

  • ✅ क्या आपने AI output के मूल स्रोत का पता लगाया?
  • ✅ क्या AI result स्वीकार करने से पहले non-AI sources देखे?
  • ✅ क्या आपने विरोधी hypothesis या किसी दूसरे model से चुनौती दी?
  • ✅ क्या आपने कम-से-कम दो मानवीय sources से cross-check किया?
  • ✅ क्या आपने कम-से-कम एक काम manually किया?
  • ✅ क्या आपने देखा कि AI output में कोई implicit assumption तो नहीं है?
  • ✅ क्या आपने AI को truth source नहीं बल्कि thought partner की तरह देखा?
  • ✅ क्या आपने जानबूझकर verification process को धीमा किया?
  • ✅ क्या आपने खुद से पूछा: “मैं बिना जांचे किस बात पर भरोसा कर रहा हूँ?”
  • ✅ क्या आपने पाठकों को स्पष्ट किया कि हमारे OSINT output में AI का उपयोग हुआ है या नहीं?

1 टिप्पणियां

 
GN⁺ 2025-04-05
Hacker News राय

• प्रतिभागी आलसी नहीं थे। वे अनुभवी विशेषज्ञ थे

  • AI के आने से पहले ये बेहतरीन critical thinkers थे, यह मान लेना अतिशयोक्ति है
  • मेरे अनुभव में, जो लोग LLM को अपनी सोच outsource करते हैं, वे पहले भी podcast, news articles, Reddit posts, Twitter, TikTok आदि को अपनी सोच outsource करते थे
  • LLM ने उन्हें दोहराने योग्य राय दे दी

• डरावनी बात यह है कि बहुत-से users GenAI की वजह से मानते हैं कि वे critical thinking कर रहे हैं

  • इसमें और TikTok videos देखकर खुद को expert समझने में बहुत ज़्यादा फ़र्क नहीं है
  • जो लोग अपनी सोच outsource करते हैं और वही राय इकट्ठा करते हैं जो वे सुनना चाहते हैं, वे अब अपनी मनचाही conclusion तक और आसानी से पहुँच सकते हैं

• open source intelligence में बड़ी समस्या गहन analysis नहीं, बल्कि information flood के बीच यह पहचानना है कि क्या देखने लायक है

  • CIA के नज़रिए से, अमेरिकी intelligence community open source intelligence का analysis करने के लिए OSIRIS नाम का generative AI system इस्तेमाल करती है
  • CIA के पूर्व प्रमुख ने कहा कि इसका इस्तेमाल मुख्य रूप से summarization के लिए होता है

• hypothesis बनाने के बजाय, users AI से ideas माँगते हैं

  • sources verify करने के बजाय, वे मान लेते हैं कि AI ने यह पहले ही verify कर लिया है
  • कई perspectives का मूल्यांकन करने के बजाय, वे AI summary को merge और edit करके आगे बढ़ जाते हैं
  • यह कोई काल्पनिक स्थिति नहीं, बल्कि वास्तव में हो रही बात है

• मेरा मानना है कि लिखने या analysis करने की physical act और उसके दौरान आने वाले moments महत्वपूर्ण होते हैं

  • किसी धुंधली image को photo-editing software में लाकर manipulation tools का इस्तेमाल करना समस्या सुलझाने का ज़रूरी हिस्सा है
  • मैं एक नए product के लिए manufacturing line का process flowchart बना रहा हूँ
  • लगता है ideas और questions ऐसे ही छोटे-छोटे spaces से निकलते हैं

• AI इंसानों को और मूर्ख बनाकर superhuman intelligence हासिल करने का एक तरीका हो सकता है

  • GenAI का उपयोग एक उपयोगी tool नहीं, बल्कि हानिकारक चीज़ जैसा दिखता है
  • एक scenario में, जहाँ photo upload करके location पूछी जाती है, AI गलत location बताता है

• लगता है AI सीखने की रफ़्तार धीमी कर देता है

  • मैं Rust सीख रहा हूँ, और AI शुरुआत करने में मदद तो करता है, लेकिन काम करने लायक proficiency पाने में ज़्यादा समय लग जाता है
  • लगता है AI बंद करके खुद संघर्ष करना चाहिए

• 20 साल से अधिक समय तक analyst के रूप में काम करते हुए OSINT और AI का उपयोग किया है

  • ज़्यादातर analysts के पास critical thinking skills होती हैं
  • OSINT हमेशा कानूनी प्रक्रियाओं से नियंत्रित नहीं होता, इसलिए बहुत-से लोग OSINT analyst बन सकते हैं
  • AI के suggestions के आगे झुकने का दबाव रहता है

• OSINT और analysis methodology वाले specialist skills हैं

  • AI के साथ OSINT अब वह संभव बनाता है जो पहले असंभव था
  • critical thinking की कमी का कारण data verification के लिए लोगों या processes का कम हो जाना भी हो सकता है

• अगर आप OSINT की basics समझना चाहते हैं, तो आप homepage पर जाएँगे

  • लेकिन एक simple chatgpt query आपको और जल्दी जवाब दे देगी

• यह पोस्ट सिर्फ OSINT तक सीमित नहीं है, बल्कि जहाँ-जहाँ AI को नए tool के रूप में अपनाया जा रहा है, वहाँ व्यापक रूप से लागू हो सकती है