Le Chat: कस्टम MCP कनेक्टर्स और मेमोरी
(mistral.ai)- Le Chat ने 20 से अधिक enterprise connector directory (beta) लॉन्च किए हैं
- कस्टम MCP connectors के ज़रिए workflows और tools को आसानी से integrate करने की सुविधा देता है
- नई Memories सुविधा बातचीत के इतिहास और उपयोगकर्ता की पसंद के आधार पर personalized responses उपलब्ध कराती है
- admin controls और on-premise, private/public cloud सहित कई deployment options उपलब्ध हैं
- ये सभी सुविधाएँ free plan उपयोगकर्ताओं के लिए भी खुली हैं
Le Chat के प्रमुख अपडेट का परिचय
Le Chat ने AI assistant की उपयोगिता बढ़ाने के लिए नया enterprise-grade connector directory (beta) और Memories फीचर पेश किया है। ये दोनों फीचर workflow automation, productivity में सुधार, और personalized responses को एक साथ संभव बनाते हैं।
Enterprise Connector Directory (Beta)
- 20 से अधिक secure connectors उपलब्ध हैं
- इनमें data, productivity, development, automation, commerce, और custom integrations शामिल हैं
- Databricks, Snowflake, GitHub, Atlassian, Asana, Outlook, Box, Stripe, Zapier जैसे कई प्रमुख tools के साथ integration मिलता है
- कस्टम MCP connectors सीधे जोड़कर कंपनियाँ अपने खास systems और workflows तक व्यापक विस्तार कर सकती हैं
- mobile, browser, on-premise, private/public cloud जैसे कई deployment environments को support किया जाता है
- Le Chat के माध्यम से data search, summary, और actions जैसे complex workflows एक साथ चलाए जा सकते हैं
प्रमुख categories के अनुसार support के उदाहरण
- Data: Databricks, Snowflake, Pinecone, Prisma Postgres, DeepWiki आदि में datasets की खोज और analysis
- Productivity: Box, Notion, Asana, Monday.com, Atlassian(Jira/Confluence) आदि के साथ documents/project collaboration
- Development: GitHub issues और PR management, Linear tasks बनाना, Sentry monitoring, Cloudflare Development Platform integration आदि
- Automation: Zapier, Brevo आदि के ज़रिए workflow automation और campaign management
- Commerce: PayPal, Plaid, Square, Stripe के commerce/payment data तक access और management
- Custom: कंपनी-विशिष्ट MCP connectors जोड़कर proprietary systems को connect करना, summaries और queries चलाना
- Deployment: on-premise/private/public cloud environments में लचीला विकल्प
Connector उपयोग के उदाहरण
- Databricks में customer reviews का summary बनाकर Asana में issue दर्ज करना
- GitHub PR review के बाद Jira issue बनाना और Notion में changes रिकॉर्ड करना
- Box में contract documents के बीच financial obligations की तुलना करके summary दोबारा upload करना
- Jira के active issues का summary बनाकर Confluence में sprint overview page का draft तैयार करना
- Stripe payment information से insights देखकर Linear में anomaly cases दर्ज करना
लचीला connection और control
- connector directory में न होने वाले remote MCP servers से direct connection भी supported है
- admins उपयोगकर्ताओं की connector access scope और authentication methods को बारीकी से नियंत्रित कर सकते हैं
- deployment environment के लिए self-hosted, private या public cloud, और fully managed service जैसे कई विकल्प उपलब्ध हैं
Memories: बातचीत के context का निरंतर उपयोग
Le Chat की Memories पिछली बातचीत, फैसलों और संदर्भों को सहेजकर हर नई बातचीत में पुराने context के आधार पर बेहतर personalization, customized recommendations, और अधिक भरोसेमंद responses देती है
- accuracy और reliability पर ज़ोर देते हुए केवल महत्वपूर्ण जानकारी store की जाती है, जबकि sensitive या temporary जानकारी अपने-आप बाहर रखी जाती है
- उपयोगकर्ता memory content को सीधे जोड़, बदल, update या delete कर सकते हैं, और transparent privacy settings भी दी जाती हैं
- ChatGPT से memory data जल्दी import करने का tool भी supported है
शुरुआत और इवेंट्स
- connectors और memory features सभी Le Chat उपयोगकर्ताओं के लिए मुफ्त उपलब्ध हैं
- web browser और iOS/Android app (Le Chat by Mistral AI) पर इन्हें तुरंत इस्तेमाल किया जा सकता है
- बड़े पैमाने के enterprise deployments और custom consulting के लिए भी support उपलब्ध है
Webinar और Hackathon जानकारी
- 9 सितंबर: Le Chat MCP फीचर परिचय webinar आयोजित होगा, जिसमें live Q&A और latest usage methods साझा किए जाएंगे
- 13~14 सितंबर: Paris में 2 दिन का Mistral AI MCP hackathon आयोजित होगा, जहाँ AI engineers को ideas पर काम करने और expert mentoring का अवसर मिलेगा
Hiring
Le Chat के साथ world-class AI products बनाने के इच्छुक developers की भर्ती चल रही है
1 टिप्पणियां
Hacker News राय
कीमत वही है, लेकिन आउटपुट कहीं बेहतर है, ज़्यादा भरोसेमंद है, और 10 गुना तेज़ है
कमी यह है कि जब यह फेल होता है तो पूरी तरह बुरी तरह टूट जाता है
gpt-5-mini प्रॉम्प्ट की formatting को लगभग 70% तक नज़रअंदाज़ कर रहा था, जबकि mistral-medium 99% तक ठीक से फॉलो करता है, और लगभग 1% मामलों में बिना किसी समझ आने वाली वजह के random characters (आमतौर पर backticks) डाल देता है, जिससे अपनी ही formatting समस्या पैदा हो जाती है
इसके बावजूद, मैं Mistral से बहुत संतुष्ट हूँ
json ...जैसे wrapper में लपेटना इतना आम पैटर्न है कि मैं application level पर ऐसी चीज़ों को चेक करके ठीक कर देता हूँ10 साल पहले भी, जब LSTM से synthetic data generate किया जाता था, तब भी हम formatting के लिए ऐसे ही sanity check किया करते थे
cost बचाने और OpenAI के अलावा दूसरे products को आज़माने के लिए मैं summaries में Mistral Small और final analysis में Large इस्तेमाल कर रहा हूँ, और मैं इससे काफ़ी संतुष्ट हूँ
ऊपर से इसका free tier भी बहुत उदार है, इसलिए PoC और demos बनाते समय यह बहुत मददगार है
अगर कोई ऐसा example है जो बार-बार fail होता है, तो क्या आप दिखा सकते हैं?
मुझे जिज्ञासा है कि token constraints चाही गई format से इतना बाहर कैसे जा सकते थे
मैं lmarena पर बहुत से random one-shot questions करता हूँ, और जब मैं blind vote करता हूँ तो mistral-medium हमेशा खराब विकल्प होता है
qwen, llama, gemini, gpt वगैरह की तुलना में यह गलत factual information सबसे ज़्यादा बार देता है
अगर तुम example prompts शेयर कर सको तो अच्छा होगा, मैं जानना चाहूँगा कि यह किन चीज़ों पर अच्छा respond करता है
मैंने एक MCP connector बनाया है जो S3 से लेकर FTP(S), SFTP, SMB, NFS, Gdrive, Dropbox, Azure Blob, Onedrive, Sharepoint तक, लगभग हर file transfer protocol से कनेक्ट हो सकता है
मैंने इसमें authentication delegation, permission enforcement, RBAC support, Chroot के जरिए LLM की access restriction, और कई file formats को visualize/edit करने वाले tools जैसी कई layers जोड़ी हैं
यह open source है, और अगर इसे directory में जोड़ा जाए तो बढ़िया होगा
https://github.com/mickael-kerjean/filestash
Anthropic या OAI की तुलना में valuation काफ़ी कम है, इसलिए मुझे यह बहुत सस्ता लगता है
उस valuation को बेहतर समझने के लिए revenue और growth rate की तुलना दिलचस्प होगी
और लगता है कि Mistral लगभग अकेला बड़ा खिलाड़ी बचा है जो यूरोप से जुड़ी Gen AI उभरती कंपनियों में अब भी महत्वपूर्ण है
Aleph Alpha का अब ज़्यादा नाम नहीं सुनाई देता, और चूँकि Schwarz Group इसे lead कर रहा है, यह लगभग talent acquisition भर रह गया लगता है
उसने हाल ही में एक अलग agent framework announce किया है
https://www.heise.de/en/news/DeepL-presents-its-own-AI-agent-for-companies-10630391.html कुल मिलाकर, मुझे लगता है कि यूरोप में AI के लिए संभावना है
Lumo, Mistral models पर चलता है
मैं इसे अक्सर इस्तेमाल करता हूँ, और ज़्यादातर मामलों में आउटपुट मेरे लिए काफ़ी संतोषजनक होता है
हालांकि coding के लिए मैं हफ़्ते में 2-3 बार gemini-cli और OpenAI का codex अब भी इस्तेमाल करता हूँ
मैं अमेरिका में रहता हूँ, लेकिन अगर मैं यूरोपियन होता, तो अपने क्षेत्र और देश के AI industry के लिए Mistral को पूरी तरह support करता
https://news.ycombinator.com/item?id=44665398
Mistral का public API endpoint CloudFlare के ज़रिए जाता है, और जिन Chinese models की मैंने जाँच की, वे भी सभी ऐसे ही थे
modern pixel art जैसा एहसास देने वाली इसकी orange color design language के लिए Mistral design team को सलाम
official MCP service तो हर हाल में बेहतर लगती है, क्योंकि तब resource access permissions Mistral को देने की ज़रूरत नहीं पड़ती
https://www.bloomberg.com/news/articles/2025-09-03/mistral-set-for-14-billion-valuation-with-new-funding-round
मुझे संदेह है कि क्या Mistral सच में टिक पाएगा
शायद इसका मतलब यह हो सकता है
admin बारीकी से नियंत्रित कर सकता है कि कौन-सा user कौन-सा connector इस्तेमाल कर सकता है, और on-behalf authentication के ज़रिए access permissions भी विस्तार से manage की जा सकती हैं
क्या इनमें exchange rate conversion, fees, API docs जैसी चीज़ें भी शामिल हैं, यह जानना चाहूँगा