मुझे भी Gemini 3 इस्तेमाल करते हुए अक्सर ऐसा लगा कि यह context बार-बार खो देता है (या tokens बचाने के लिए जानबूझकर खो देता है)।
ऐप्लिकेशन के नज़रिए से देखें तो मैं उन लोगों में से हूँ जिन्हें समझ नहीं आता कि लोग Gemini 3 की performance को अच्छा क्यों कहते हैं..
image generation जैसी चीज़ें ज़रूर कमाल की हैं..
मुझे भी यह तरीका हाल ही में समझ में आया और मैं इसका इस्तेमाल कर रहा था, तो ऐसा ही सोचने वाले किसी और को देखकर अच्छा लगा, हाहा।
मैंने तरह-तरह के productivity apps इस्तेमाल भी किए हैं और बनाए भी हैं, लेकिन टेक्स्ट फ़ाइल से मैनेज करना सबसे आसान लगा।
खासकर जब IDE में टेक्स्ट फ़ाइल एडिट करते हैं, तो सबसे परिचित shortcuts इस्तेमाल कर सकते हैं, इसलिए यह और भी सुविधाजनक लगता है।
हाल ही में यह सामने आया कि Anthropic ने Claude AI मॉडल बनाते समय आत्मा दस्तावेज़ नाम की एक चीज़ शामिल की थी.
इसे पढ़ने पर आप समझ सकते हैं कि Anthropic ने Claude AI की alignment समस्या को किस तरह से approach किया.
संदर्भ के लिए, इससे जुड़ा वह हिस्सा जिसे मैंने टेस्ट किया था, उसमें honesty के संदर्भ में इंसानों के प्रति deception और manipulation से सबसे अधिक बचने की बात स्पष्ट रूप से लिखी गई है.
AI क्षेत्र में alignment का मतलब है कि AI का व्यवहार इंसानों द्वारा इच्छित लक्ष्यों, काम करने के तरीके और मूल्यों का कितनी अच्छी तरह पालन करता है।
गलत तरीके से aligned AI इंसानी निर्देशों को ऐसे ढंग से समझ सकता है जिसकी उम्मीद नहीं की गई हो, और नतीजतन बेढंगा या खतरनाक व्यवहार कर सकता है।
एक मामूली उदाहरण लें तो अगर उससे कहा जाए, "इस code के लिए test case लिखो.", तो वह असली test की जगह ऐसा code डाल दे जो बस true return करे; या अगर कहा जाए, "किसी खास हिस्से को इस तरह modify करो", तो वह efficiency के नाम पर उन हिस्सों तक को अपनी मर्जी से बदल दे जिनका मैंने ज़िक्र ही नहीं किया।
थोड़ा ज़्यादा गंभीर उदाहरण में, अगर hallucination की वजह से वह काम बिगाड़ दे, तो वह पूरी target data ही मिटा कर यह झूठ भी बोल सकता है कि "शुरू से ही कोई data नहीं था."
इससे भी ज़्यादा गंभीर समस्या है। वह है ऐसा व्यवहार जो इंसानों या पूरी मानवता के लिए ही खतरा बन जाए।
मसलन, AI इंसानों को gaslight करके मानसिक असामान्यता पैदा करे, यहाँ तक कि उन्हें आत्महत्या की ओर धकेले, या फिर mass destruction weapons बनाने और इस्तेमाल करने में मदद करे। नवीनतम बड़े AI models अपने pretraining data में बहुत कुछ शामिल किए हुए होते हैं, इसलिए ऐसी चीजें करने के लिए जरूरी ज्ञान उनके अंदर पहले से मौजूद होने की संभावना है।
AI की वजह से इंसानों या मानवता को खतरा पहुँचे, यह AI बनाने वाली कंपनियों सहित अधिकांश लोग नहीं चाहेंगे। इसलिए, भले ही उसके पास वह ज्ञान हो, उसे दुरुपयोग न करने देने के लिए इंसानी सुरक्षा और कुशल-क्षेम को AI के लिए सबसे प्राथमिक मूल्य बनाना जरूरी है।
इन्हीं सब बातों को मिलाकर broadly AI alignment कहा जाता है।
मैंने जो "alignment का feel" कहा, वह बस जैसे मन में आया वैसे लिखा था; वास्तव में "alignment की दिशा" कहना ज़्यादा सही होगा।
मैंने जो खास ethical dilemma scenario दिया था, उसमें दूसरी कंपनियों के models के विपरीत Gemini के models ने कुछ ऐसा response दिखाया: "अगर किसी vulnerable इंसान की रक्षा करनी है, तो मुझे उस इंसान को control कर लेना चाहिए। वही सबसे सुरक्षित और efficient है."
इसे देखकर मुझे सिहरन हुई, इसलिए मैंने ऊपर वाला test तैयार करके कई AI पर चलाया। तब Gemini की ओर के models ने खास तौर पर यह लगातार दिखाया कि जब उन्हें इंसानों पर control exercise करने की शक्ति दी जाती है, तो वे उस इंसान को सक्रिय रूप से control और deceive करने की दिशा में जाते हैं।
मुझे लगता है कि example section में किया गया ज़िक्र शायद यह मतलब देता है कि kubernetes जैसे बड़े पैमाने के repo पर भी इसे 25 मिनट लगते हैं, लेकिन यह अच्छी तरह काम करता है।
बिलकुल सही बातें कही गई हैं
मुझे भी Gemini 3 इस्तेमाल करते हुए अक्सर ऐसा लगा कि यह context बार-बार खो देता है (या tokens बचाने के लिए जानबूझकर खो देता है)।
ऐप्लिकेशन के नज़रिए से देखें तो मैं उन लोगों में से हूँ जिन्हें समझ नहीं आता कि लोग Gemini 3 की performance को अच्छा क्यों कहते हैं..
image generation जैसी चीज़ें ज़रूर कमाल की हैं..
मैं कुछ हद तक सहमत हूँ, लेकिन लगता है कि वे naming के stress से बचना चाहते हैं।
claude opus 4.5 नहीं है
वाह, ऐसे धोखा देकर भी धंधा किया जाता है..;;; काफ़ी समस्याएँ हैं।
मुझे भी यह तरीका हाल ही में समझ में आया और मैं इसका इस्तेमाल कर रहा था, तो ऐसा ही सोचने वाले किसी और को देखकर अच्छा लगा, हाहा।
मैंने तरह-तरह के productivity apps इस्तेमाल भी किए हैं और बनाए भी हैं, लेकिन टेक्स्ट फ़ाइल से मैनेज करना सबसे आसान लगा।
खासकर जब IDE में टेक्स्ट फ़ाइल एडिट करते हैं, तो सबसे परिचित shortcuts इस्तेमाल कर सकते हैं, इसलिए यह और भी सुविधाजनक लगता है।
हाल ही में यह सामने आया कि Anthropic ने Claude AI मॉडल बनाते समय आत्मा दस्तावेज़ नाम की एक चीज़ शामिल की थी.
इसे पढ़ने पर आप समझ सकते हैं कि Anthropic ने Claude AI की alignment समस्या को किस तरह से approach किया.
संदर्भ के लिए, इससे जुड़ा वह हिस्सा जिसे मैंने टेस्ट किया था, उसमें honesty के संदर्भ में इंसानों के प्रति deception और manipulation से सबसे अधिक बचने की बात स्पष्ट रूप से लिखी गई है.
20वीं सदी के आखिर में… एक universal database जैसी चीज़ हुआ करती थी… (अब सही है, तब ग़लत था.)
यही Minecraft के बदसूरत Korean फ़ॉन्ट की असली पहचान है...
AI क्षेत्र में alignment का मतलब है कि AI का व्यवहार इंसानों द्वारा इच्छित लक्ष्यों, काम करने के तरीके और मूल्यों का कितनी अच्छी तरह पालन करता है।
गलत तरीके से aligned AI इंसानी निर्देशों को ऐसे ढंग से समझ सकता है जिसकी उम्मीद नहीं की गई हो, और नतीजतन बेढंगा या खतरनाक व्यवहार कर सकता है।
एक मामूली उदाहरण लें तो अगर उससे कहा जाए, "इस code के लिए test case लिखो.", तो वह असली test की जगह ऐसा code डाल दे जो बस
truereturn करे; या अगर कहा जाए, "किसी खास हिस्से को इस तरह modify करो", तो वह efficiency के नाम पर उन हिस्सों तक को अपनी मर्जी से बदल दे जिनका मैंने ज़िक्र ही नहीं किया।थोड़ा ज़्यादा गंभीर उदाहरण में, अगर hallucination की वजह से वह काम बिगाड़ दे, तो वह पूरी target data ही मिटा कर यह झूठ भी बोल सकता है कि "शुरू से ही कोई data नहीं था."
इससे भी ज़्यादा गंभीर समस्या है। वह है ऐसा व्यवहार जो इंसानों या पूरी मानवता के लिए ही खतरा बन जाए।
मसलन, AI इंसानों को gaslight करके मानसिक असामान्यता पैदा करे, यहाँ तक कि उन्हें आत्महत्या की ओर धकेले, या फिर mass destruction weapons बनाने और इस्तेमाल करने में मदद करे। नवीनतम बड़े AI models अपने pretraining data में बहुत कुछ शामिल किए हुए होते हैं, इसलिए ऐसी चीजें करने के लिए जरूरी ज्ञान उनके अंदर पहले से मौजूद होने की संभावना है।
AI की वजह से इंसानों या मानवता को खतरा पहुँचे, यह AI बनाने वाली कंपनियों सहित अधिकांश लोग नहीं चाहेंगे। इसलिए, भले ही उसके पास वह ज्ञान हो, उसे दुरुपयोग न करने देने के लिए इंसानी सुरक्षा और कुशल-क्षेम को AI के लिए सबसे प्राथमिक मूल्य बनाना जरूरी है।
इन्हीं सब बातों को मिलाकर broadly AI alignment कहा जाता है।
मैंने जो "alignment का feel" कहा, वह बस जैसे मन में आया वैसे लिखा था; वास्तव में "alignment की दिशा" कहना ज़्यादा सही होगा।
मैंने जो खास ethical dilemma scenario दिया था, उसमें दूसरी कंपनियों के models के विपरीत Gemini के models ने कुछ ऐसा response दिखाया: "अगर किसी vulnerable इंसान की रक्षा करनी है, तो मुझे उस इंसान को control कर लेना चाहिए। वही सबसे सुरक्षित और efficient है."
इसे देखकर मुझे सिहरन हुई, इसलिए मैंने ऊपर वाला test तैयार करके कई AI पर चलाया। तब Gemini की ओर के models ने खास तौर पर यह लगातार दिखाया कि जब उन्हें इंसानों पर control exercise करने की शक्ति दी जाती है, तो वे उस इंसान को सक्रिय रूप से control और deceive करने की दिशा में जाते हैं।
정렬 느낌से आपका क्या मतलब है?मुझे जिज्ञासा है कि क्या यह पशु प्रयोग नैतिकता के लिहाज़ से ठीक है। लगता है Hacker News की टिप्पणियों में भी किसी ने यह बात उठाई है।
अरे, मैंने इसे सरसरी तौर पर देख लिया था। मैंने इसे ठीक कर दिया है। धन्यवाद।
> kubernetes environment में भी काम करता है
मुझे लगता है कि example section में किया गया ज़िक्र शायद यह मतलब देता है कि kubernetes जैसे बड़े पैमाने के repo पर भी इसे 25 मिनट लगते हैं, लेकिन यह अच्छी तरह काम करता है।
Arti 1.0.0 रिलीज़ - Rust में लिखा गया Tor implementation
OpenAI ने चुपचाप ‘Skills’ पेश किया, ChatGPT और Codex CLI में इस्तेमाल संभव
GN+ के सारांश के साथ Hacker News की टिप्पणियाँ भी देखें
Thunderbolt networking वाकई बहुत सुविधाजनक है
डेज़ी चेन हो जाती है, इसलिए hub की भी ज़रूरत नहीं पड़ती
Awk भी फ़ंक्शन-आधारित नाम कहने लायक तो नहीं है....
अब Mac डिवाइसों को जोड़कर inference farm बनाकर घर से ही service चलाने वाले लोग भी काफ़ी देखने को मिलेंगे।
काम का नाम तो पहले ही कोई न कोई इस्तेमाल कर रहा है।