- edge devices पर AI models को सीधे चलाने की तकनीक को चरणबद्ध तरीके से सीखने के लिए एक मुफ्त open source प्रशिक्षण पाठ्यक्रम
- इसका लक्ष्य AI models को cloud के बजाय device पर सीधे चलाना है, ताकि latency कम हो, privacy सुरक्षित रहे, लागत घटे और network पर निर्भरता कम हो
- सीखने वाले SLM deployment, multi-agent systems बनाना, local RAG pipeline लागू करना, model routing जैसे व्यावहारिक प्रोजेक्ट पूरे करते हुए Windows, mobile, embedded, hybrid environments में deployment techniques सीख सकते हैं
- Llama.cpp, Microsoft Olive, OpenVINO, Apple MLX जैसे प्रमुख optimization tools के माध्यम से performance improvement (अधिकतम 85% speed increase, 75% model size reduction) के तरीके hands-on तरीके से समझाए गए हैं
- Curriculum (कुल अनुमानित समय: 36–45 घंटे)
- 0. EdgeAI का परिचय और learning goals (शुरुआती: 1–2 घंटे)
- 1. Edge AI की बुनियादी अवधारणाएँ और उपयोग के उदाहरण (प्रारंभिक: 3–4 घंटे)
- 2. SLM model structure और family (प्रारंभिक: 4–5 घंटे)
- 3. Local और cloud deployment अभ्यास (मध्यम: 4–5 घंटे)
- 4. Model optimization toolkit (Llama.cpp आदि) (मध्यम: 5–6 घंटे)
- 5. SLMOps और fine-tuning (उन्नत: 5–6 घंटे)
- 6. AI agents और Function Calling (उन्नत: 4–5 घंटे)
- 7. Cross-platform implementation (उन्नत: 3–4 घंटे)
- 8. Foundry Local sample project (विशेषज्ञ: 8–10 घंटे)
अभी कोई टिप्पणी नहीं है.