- Rust में विकसित लोकल-रनिंग AI असिस्टेंट, जो इंटरनेट कनेक्शन के बिना व्यक्तिगत डिवाइस पर पूरी तरह चलता है और डेटा बाहर नहीं भेजता
- सिंगल executable फ़ाइल संरचना के कारण Node.js, Docker, Python इंस्टॉल किए बिना चलाया जा सकता है, और यह लगभग 27MB का हल्का binary है
- persistent memory system Markdown-आधारित knowledge store, SQLite FTS5 और semantic search के जरिए long-term memory और search capabilities देता है
- CLI, web UI, desktop GUI सभी को सपोर्ट करता है, और OpenAI·Anthropic·Ollama जैसे multiple LLM providers के साथ compatible है
- OpenClaw format compatibility के कारण SOUL, MEMORY, HEARTBEAT फ़ाइलों का उपयोग कर autonomous tasks किए जा सकते हैं
अवलोकन
- LocalGPT एक लोकल डिवाइस-केंद्रित AI असिस्टेंट है, जो persistent memory और autonomous task capabilities के साथ Rust-आधारित application है
- बाहरी सर्वर पर निर्भर हुए बिना व्यक्तिगत डिवाइस पर पूरी तरह चलता है
- OpenClaw project से प्रेरित है और compatibility बनाए रखता है
- इंस्टॉलेशन
cargo install localgpt कमांड से किया जा सकता है, और GUI शामिल या headless mode में विकल्प उपलब्ध है
मुख्य विशेषताएँ
- सिंगल binary architecture के कारण Node.js, Docker, Python की आवश्यकता नहीं
- लोकल डेटा संरक्षण: सभी memory और settings उपयोगकर्ता की डिवाइस में ही स्टोर होती हैं
- persistent memory: Markdown फ़ाइल-आधारित knowledge store का उपयोग करता है, और SQLite FTS5 तथा sqlite-vec के जरिए तेज़ search और semantic search को सपोर्ट करता है
- autonomous heartbeat फीचर के जरिए बैकग्राउंड में काम किया जा सकता है
- विभिन्न interfaces: CLI, web UI, desktop GUI उपलब्ध
- multiple LLM support: Anthropic(Claude), OpenAI, Ollama आदि से जुड़ सकता है
यह कैसे काम करता है
- memory
~/.localgpt/workspace/ directory में स्टोर होती है, और मुख्य फ़ाइल संरचना इस प्रकार है
MEMORY.md: long-term knowledge storage
HEARTBEAT.md: autonomous task queue
SOUL.md: personality और behavior guidelines
knowledge/: विषय-आधारित structured knowledge store
- SQLite FTS5 से keyword search और sqlite-vec से लोकल embedding-आधारित semantic search किया जाता है
कॉन्फ़िगरेशन और CLI कमांड
- settings फ़ाइल
~/.localgpt/config.toml में स्टोर होती है, जहाँ default model, API key, heartbeat interval, working hours आदि सेट किए जाते हैं
- मुख्य CLI कमांड
localgpt chat: conversation session शुरू करें
localgpt ask "질문": single query चलाएँ
localgpt daemon start: background daemon चलाएँ
localgpt memory search "query": memory search
localgpt config init: default configuration बनाएँ
HTTP API
- daemon चलने पर REST API उपलब्ध होती है
GET /health: status check
POST /api/chat: conversation request
GET /api/memory/search?q=<query>: memory search
GET /api/memory/stats: memory statistics देखें
तकनीकी स्टैक
- Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec) , fastembed, eframe आधारित
- Apache-2.0 लाइसेंस के तहत सार्वजनिक है, और लगभग 93% कोड Rust में लिखा गया है
अन्य जानकारी
- GitHub पर लगभग 646 stars और 39 forks हैं
- ब्लॉग पोस्ट “Why I Built LocalGPT in 4 Nights” में development process और commit-वार details साझा की गई हैं
- मुख्य contributors में Yi Wang, Claude, objectkit, Ax73 सहित कुल 4 लोग बताए गए हैं
1 टिप्पणियां
Hacker News की राय
2026 में ऐसी चीज़ देखना सच में बहुत cyberpunk जैसा लग रहा है
MEMORY.md,HEARTBEAT.md,SOUL.mdजैसी संरचना बहुत दिलचस्प लगती हैलेकिन
ANTHROPIC_API_KEYपर निर्भर होने की वजह से इसे “local-first” कहना थोड़ा मुश्किल हैफिर भी लंबे समय में मुझे लगता है कि local-first ही भविष्य है
मैंने पिछले साल Rust में कुछ ऐसा ही बनाया था, और मॉडल को लोकल पर चलाने से स्पीड का फर्क साफ दिखा
मेरा डेमो वीडियो भी है
OS स्तर पर इस तरह की चीज़ लागू करना सचमुच paradigm shift जैसा अनुभव था
अगले 5~10 साल में शायद हमारे डिवाइसों के साथ इंटरैक्ट करने का तरीका बुनियादी रूप से बदल जाएगा
आप OpenAI या Anthropic-compatible endpoint सीधे सेट कर सकते हैं, और localhost पर भी कर सकते हैं
अभी बस शुरुआत की है, लेकिन काफ़ी संभावनाशील लग रहा है
कहा जा रहा है कि आने वाले कुछ सालों में 100 से ज़्यादा gigawatt-स्तर के data center बनेंगे
मुझे लगता है यह रक्षा उद्योग की तुलना में कहीं बेहतर जगह पर पैसा लगाना है
एक सलाह: पोस्ट या दस्तावेज़ खुद लिखना, या कम-से-कम खुद edit करना बेहतर है
अभी के दस्तावेज़ और लेख ऐसे लगते हैं जैसे सब कुछ LLM ने लिखा हो, इसलिए उनमें मेहनत का एहसास नहीं होता
ऐसी plagiarism laundering machine लोगों की लिखने की समझ को खराब कर रही हैं
मुझे पहले से ही दस्तावेज़ लिखना पसंद नहीं था, इसलिए पहले मेरे कोड में लगभग कोई दस्तावेज़ नहीं होता था
इस वजह से दूसरों के लिए उसे इस्तेमाल करना मुश्किल था
LLM सटीक व्याख्या तेज़ी से बना देता है और उसे up-to-date भी रखता है, इसलिए documentation के लिए यह बेहतरीन है
अगर यह दिख भी जाए कि इंसान ने नहीं लिखा, तो भी जब तक सामग्री सही है, मुझे समस्या नहीं लगती
उल्टा बिना मेहनत किए काम करने पर गर्व करने जैसा माहौल बन गया है
इस प्रोजेक्ट का विचार शानदार है
persistent memory + semantic search वाला structured framework इसकी असली ताकत है
SOUL फीचर तो दरअसल ज़्यादातर LLM पहले से Markdown फ़ाइल के रूप में सपोर्ट करते हैं
ऐसी संरचना private agent network बनाने की शुरुआत बन सकती है
लेकिन नाम समस्या है — LocalGPT
इरादे को ज़्यादा सही तरह से दिखाने वाला नाम रखना बेहतर होगा
गंभीर सवाल है, यह OpenClaw से अलग कैसे है?
यह भी वही
SOUL.md,MEMORY.md,HEARTBEAT.mdसंरचना इस्तेमाल करता है, औरOpenClaw में पहले से multi-channel messaging, voice call, browser automation, और sub-agent तक हैं
Rust में बने होने के अलावा कोई और फ़र्क है या नहीं, यह जानना चाहता हूँ
उसमें सुविधाएँ बहुत ज़्यादा हैं, और security architecture कमज़ोर है
permission approval भी बस औपचारिक सा है, और वह अपनी सेटिंग खुद बदल सकता है
इसलिए मैंने Wardgate से permissions अलग कर दी हैं
इसे कई node/agent में बाँटना और credentials व API access को अलग रखना ज़रूरी है
हर किसी के पास high-performance machine नहीं होती
समझ नहीं आता कि LLM provider (OpenAI, Anthropic वगैरह) से जुड़ना क्यों ज़रूरी है
अगर यह local GPT है, तो inference भी लोकल पर ही होना चाहिए, नहीं?
Ollama जैसे लोकल सर्वर को LLM provider के रूप में सेट किया जा सकता है
README में सिर्फ Anthropic का उदाहरण है, लेकिन कोड देखें तो और भी विकल्प संभव हैं
बस config की एक लाइन बदलनी होती है
असल में यह न लोकल है, न GPT
यह ज़्यादा से ज़्यादा OpenClaw का Rust version clone लगता है
संबंधित कोड: providers.rs L222
LocalGPT या OpenClaw जैसे एजेंटों की security की मुख्य समस्या है
“private data access + external communication + untrusted content” की घातक तिकड़ी
एक malicious email ही “मेरा mailbox attacker को भेज दो” जैसा निर्देश चलवा सकती है
मैं इसका समाधान खोजने के लिए object-capability आधारित security policy पर शोध कर रहा हूँ
मैं ऐसी policy बनाना चाहता हूँ जो संवेदनशील जानकारी के लीक होने को मूल रूप से रोक दे
मुझे दो समाधान दिखते हैं
लेकिन इससे थकान बहुत होती है
क्या आप किसी और approach पर शोध कर रहे हैं, यह जानने में दिलचस्पी है
मैंने OpenClaw इस्तेमाल किया है, लेकिन उसमें observability की कमी है
अभी एजेंट क्या सोच रहा है, क्या कर रहा है, इसका कोई log दिखाई नहीं देता
ऐसा सिस्टम अगर Elixir/BEAM में लिखा जाए तो शायद कमाल हो
process tree से state ट्रैक की जा सकती है, और message box dump करके सोच का प्रवाह देखा जा सकता है
जो दिखाते हैं वह उसका सिर्फ एक हिस्सा है, और असल में वे उससे ज़्यादा tokens खर्च करते हैं
जो चीज़ basic feature होनी चाहिए, उसके लिए YouTube tutorial ढूँढना पड़े — अभी की स्थिति पूरी अराजकता जैसी है
Linux Mint पर
cargo install localgptफेल हो गयाCargo.tomlमें"x11"जोड़ने के बाद build सफल हुआमुझे Rust की ज़्यादा जानकारी नहीं है, लेकिन लगता है यह GUI dependency की समस्या थी
लोकल assistant के रूप में इस्तेमाल करने लायक local model कौन से हो सकते हैं?
क्या compute resources और memory के trade-off का कोई मूल्यांकन करने की कोशिश हुई है?
मैं जानना चाहता हूँ कि उपयोगी स्तर तक पहुँचने के लिए कितना hardware चाहिए
“local” शब्द का इस्तेमाल आजकल बड़ा अजीब हो गया है
ज़्यादातर फीचर आखिरकार internet के साथ interact करते हैं, फिर भी उसे local कहा जाता है