DeepSeek inference engine को open source बनाने की यात्रा
(github.com/deepseek-ai)- DeepSeek टीम ने अपने आंतरिक inference engine (DeepSeek Inference Engine) को open source के रूप में वापस साझा करने की योजना सार्वजनिक की
- मौजूदा inference engine, vLLM पर आधारित है, और DeepSeek-V3 तथा R1 मॉडल की deployment मांग बढ़ने के साथ इसे साझा करने पर विचार किया जा रहा है
- मौजूदा code और infrastructure dependencies, तथा maintenance burden के कारण पूरा source जारी करना कठिन है, इसलिए modularization और feature-level contribution की दिशा अपनाई गई है
- आगे चलकर open source community के साथ करीबी सहयोग करते हुए performance optimization और reusable features साझा करने की योजना है
- DeepSeek inference optimization और model release के समय community के साथ Day-0 support synchronization के लिए सक्रिय रूप से काम करेगा
DeepSeek inference engine को open source बनाने की यात्रा
Open Source Week की प्रतिक्रिया और आगे के योगदान
- हाल ही में आयोजित Open Source Week में कई libraries को open source किया गया
- community की सकारात्मक प्रतिक्रिया के बीच collaboration, discussion और bug fixes सक्रिय रूप से हुए
- इसी के आधार पर DeepSeek ने अपने आंतरिक inference engine को open source के रूप में साझा करने का निर्णय लिया
आधारभूत तकनीक
- DeepSeek का training framework PyTorch पर आधारित है
- inference engine, vLLM project के शुरुआती fork पर आधारित होकर विकसित किया गया है, और इसमें DeepSeek मॉडल के लिए कई विशेष customizations शामिल हैं
पूरे open source release से जुड़ी व्यावहारिक सीमाएँ
- codebase का अंतर: यह 1 साल से अधिक पुराने vLLM fork से शुरू हुआ था; संरचना मिलती-जुलती है, लेकिन इसमें काफी बदलाव हो चुके हैं
- आंतरिक infrastructure पर निर्भरता: cluster management tools जैसी चीजें DeepSeek के अपने infrastructure से गहराई से जुड़ी हैं, इसलिए बाहरी उपयोग कठिन है
- maintenance resources की कमी: एक छोटी research team होने के नाते बड़े open source project को लगातार manage करना आसान नहीं है
विकल्प: मौजूदा open source projects के साथ सहयोग
आगे DeepSeek निम्न दिशाओं में योगदान देने की योजना रखता है:
- modular features को अलग करना: reusable components को स्वतंत्र libraries के रूप में विभाजित कर योगदान देना
- performance optimization साझा करना: आंतरिक implementation से मिले performance improvements और design ideas को मौजूदा open source projects में शामिल करना
community के प्रति आभार और आगे की दृष्टि
- open source community के बिना AGI development में प्रगति संभव नहीं होती
- operating system, language, ML framework, inference engine जैसी चीजें AI innovation की बुनियाद open source ecosystem पर टिकी हैं
- DeepSeek community के साथ सहयोग के जरिए AGI के लाभ पूरी मानवता तक पहुँचें, इसके लिए लगातार प्रयास करता रहेगा
[!NOTE]
यह लेख DeepSeek Inference Engine codebase को open source करने की रणनीति के बारे में जानकारी देता है।
भविष्य में model release के संदर्भ में DeepSeek open source community और hardware partners के साथ सहयोग का विस्तार करता रहेगा।
खास तौर पर model release से पहले, inference से जुड़ी तकनीकों को पहले से साझा और align करके, अलग-अलग hardware environments में Day-0 से SOTA support संभव हो, इसके लिए ecosystem को समन्वित किया जाएगा.
1 टिप्पणियां
Hacker News टिप्पणियाँ
मार्च में vLLM ने DeepSeek पेपर के सुधारों को लागू किया, जिससे vLLM v0.7.3 में DeepSeek परफ़ॉर्मेंस लगभग 3 गुना से अधिक बेहतर हो गई
codebase branching point से सहमति है
commercial AI कंपनियाँ research results और know-how साझा करने के लिए क्यों प्रेरित होती हैं
"open source community में कुछ दिलचस्प चीज़ है, लेकिन इसे कंपनी के बाहर चलाने के लिए बहुत सफाई की ज़रूरत है, और रिलीज़ के बाद इसे ठीक से maintain करने के लिए हमारे पास लोग नहीं हैं"
DeepSeek का अच्छा engineering काम देखा है
क्या चीन अमेरिका के प्रभुत्व का जवाब देने के लिए open source AI tools, models आदि बड़े पैमाने पर जारी करने की रणनीति अपना रहा है, यह जिज्ञासा है
tl;dr "vLLM fork को maintain करना असंभव हो गया, और अब इसे सार्वजनिक रूप से फिर से बनाया जाएगा"
लगता है कि यह censorship लागू करने का एक तरीका है