- MCP एक API abstraction-आधारित standard interface है, जिसमें LLM टूल की आंतरिक संरचना जाने बिना भी काम का अनुरोध कर सकता है, और यह remote use तथा automatic updates को support करता है
- Zero-Install संरचना, OAuth authentication, और sandboxing security के जरिए installation का बोझ और permission से जुड़ी समस्याएँ कम होती हैं, और किसी भी platform पर एक जैसा environment मिलता है
- दूसरी ओर Skills में CLI installation dependency, authentication और deployment की complexity, तथा platform-specific compatibility issues के कारण वास्तविक execution environment में friction अधिक होता है
- Skills को knowledge layer और MCP को connection layer के रूप में अलग समझना चाहिए; LLM जब external systems के साथ interact करे तो MCP, और procedural knowledge देने के लिए Skills का उपयोग उपयुक्त है
- MCP Nest जैसी cloud tunneling services के जरिए local MCP server को remotely access किया जा सकता है, इसलिए इसे standardized AI integration environment बनाने का एक प्रमुख आधार माना जा रहा है
MCP के फायदे
- Model Context Protocol(MCP) एक API abstraction structure पर आधारित है, जिसमें LLM को टूल के अंदरूनी कामकाज को समझने की ज़रूरत नहीं होती; वह सिर्फ request देकर काम करवा सकता है
- उदाहरण: जब LLM DEVONthink के साथ interact करता है, तो
devonthink.do_x() call करने पर MCP server सारी processing संभाल लेता है
- Zero-Install remote use संभव है, इसलिए client सिर्फ MCP server URL बताकर बिना अलग installation के तुरंत काम कर सकता है
- Automatic updates supported हैं; remote MCP server में नए tools या resources जुड़ते ही सभी clients तुरंत latest version इस्तेमाल कर सकते हैं
- OAuth-आधारित authentication से security बेहतर होती है, और user को खुद token manage नहीं करना पड़ता
- Portability अधिक है; Mac, mobile, web जैसे किसी भी environment से उसी MCP server के जरिए access किया जा सकता है
- Sandboxing structure local environment में direct execution permissions को सीमित करता है और केवल controlled interface expose करता है
- Smart search और automatic update features के माध्यम से केवल ज़रूरी tools load किए जाते हैं, और local installation होने पर भी execution के समय auto-update संभव है
Skills की सीमाएँ और friction
- Skills LLM को specific knowledge या usage सिखाने में उपयोगी हैं, लेकिन वास्तविक execution के समय CLI dependency समस्या बन जाती है
- ज़्यादातर Skills अलग CLI installation मांगते हैं, लेकिन ChatGPT, Perplexity, Claude के web versions आदि में CLI चलाना संभव नहीं होता
- इससे निम्न समस्याएँ पैदा होती हैं
- Deployment complexity: CLI को binary, NPM, uv आदि के रूप में distribute और manage करना पड़ता है
- Secret management issues: authentication token को
.env file में plain text में रखना पड़ता है, या session reset होने पर authentication गायब हो जाता है
- Ecosystem fragmentation: Skill installation और update का तरीका platform के अनुसार बदलता है, जिससे compatibility issues और YAML parsing errors होते हैं
- Context waste: LLM को भले सिर्फ एक function call चाहिए हो, फिर भी पूरा
SKILL.md load करना पड़ता है
- जिन Skills में “पहले CLI install करें” जैसी हिदायतें शामिल होती हैं, वे अनावश्यक complexity बढ़ाती हैं; उनकी जगह remote MCP अधिक efficient विकल्प है
सही टूल चुनने के मानदंड
- MCP कब इस्तेमाल करें: जब LLM को website, service, application जैसे external systems से connect करना हो, तब इसे standard interface की तरह इस्तेमाल करें
- उदाहरण: Google Calendar के लिए OAuth-आधारित remote MCP authentication और execution संभाले; उससे CLI installation की मांग नहीं होनी चाहिए
- Chrome, Hopper, Xcode, Notion आदि के लिए भी उनके फीचर्स को control करने वाले built-in MCP endpoints उपलब्ध होना आदर्श होगा
- Skills कब इस्तेमाल करें: जब फोकस pure knowledge transfer और context देने पर हो
- पहले से installed tools (
curl, git, gh, gcloud) के usage सिखाने के लिए
- संगठन के भीतर terminology, workflows, और writing style को standardize करने के लिए
- PDF processing या secret management (
fnox usage आदि) जैसे procedural knowledge sharing के लिए
- Skills को knowledge layer और MCP को connection layer के रूप में अलग किया जाना चाहिए
Connectors और manual
- Skills और MCP की भूमिकाओं को स्पष्ट रूप से अलग करने के लिए यह प्रस्ताव है कि Skills को LLM manual(LLM_MANUAL.md) और MCP को connector कहा जाए
- वास्तविक operation में चल रहे उदाहरण
- mcp-server-devonthink: एक local MCP server जिससे LLM DEVONthink को सीधे control कर सकता है
- microfn:
mcp.microfn.dev पर remote MCP उपलब्ध कराता है
- Kikuyo:
mcp.kikuyo.dev पर remote MCP उपलब्ध कराता है
- MCP Nest: local MCP server को cloud तक tunnel करके remote access देने वाली service (
mcp.mcpnest.dev/mcp)
- कुछ projects CLI के लिए Skill भी साथ देते हैं, लेकिन MCP usage समझाने वाला Skill अधिक उपयोगी है
- Skill, MCP की functionality, tool relationships, और usage timing को समझाने वाली knowledge layer की तरह काम करता है
- MCP वास्तविक connection और execution संभालता है
- इस संयोजन से LLM बार-बार trial and error किए बिना MCP का अधिक efficient उपयोग कर सकता है
MCP और Skills का साथ में उपयोग
- MCP इस्तेमाल करते समय मिले date format errors या search limitations जैसी non-intuitive patterns को Skill में व्यवस्थित करके दोबारा उपयोग किया जा सकता है
- इस तरह बना Skill, MCP के लिए cheat sheet की तरह काम करता है, जिससे LLM बिना अनावश्यक token waste किए सही तरीके से काम कर सके
.claude/skills folder के जरिए project-specific AI behavior instructions बनाए रखे जा सकते हैं, और अक्सर इस्तेमाल होने वाली प्रक्रियाओं को dotfiles के रूप में manage किया जा सकता है
- AI integration का भविष्य standardized interface (MCP) पर निर्भर है, और CLI-आधारित fragmented approach से बचना चाहिए
- उम्मीद है कि Skyscanner, Booking.com, Trip.com, Agoda.com जैसी प्रमुख services आधिकारिक MCP उपलब्ध कराएँगी
MCP Nest परिचय
- MCP Nest एक ऐसी service है जो local-only MCP servers (जैसे Fastmail, Gmail) को cloud tunneling के जरिए remotely accessible बनाती है
- इसे Claude, ChatGPT, Perplexity जैसे MCP-supporting clients में समान रूप से इस्तेमाल किया जा सकता है
- local machine को सीधे expose किए बिना भी सभी devices पर एक जैसा MCP environment बनाए रखा जा सकता है
अभी कोई टिप्पणी नहीं है.