2 पॉइंट द्वारा GN⁺ 2026-02-09 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • Rust में विकसित लोकल-रनिंग AI असिस्टेंट, जो इंटरनेट कनेक्शन के बिना व्यक्तिगत डिवाइस पर पूरी तरह चलता है और डेटा बाहर नहीं भेजता
  • सिंगल executable फ़ाइल संरचना के कारण Node.js, Docker, Python इंस्टॉल किए बिना चलाया जा सकता है, और यह लगभग 27MB का हल्का binary है
  • persistent memory system Markdown-आधारित knowledge store, SQLite FTS5 और semantic search के जरिए long-term memory और search capabilities देता है
  • CLI, web UI, desktop GUI सभी को सपोर्ट करता है, और OpenAI·Anthropic·Ollama जैसे multiple LLM providers के साथ compatible है
  • OpenClaw format compatibility के कारण SOUL, MEMORY, HEARTBEAT फ़ाइलों का उपयोग कर autonomous tasks किए जा सकते हैं

अवलोकन

  • LocalGPT एक लोकल डिवाइस-केंद्रित AI असिस्टेंट है, जो persistent memory और autonomous task capabilities के साथ Rust-आधारित application है
    • बाहरी सर्वर पर निर्भर हुए बिना व्यक्तिगत डिवाइस पर पूरी तरह चलता है
    • OpenClaw project से प्रेरित है और compatibility बनाए रखता है
  • इंस्टॉलेशन cargo install localgpt कमांड से किया जा सकता है, और GUI शामिल या headless mode में विकल्प उपलब्ध है

मुख्य विशेषताएँ

  • सिंगल binary architecture के कारण Node.js, Docker, Python की आवश्यकता नहीं
  • लोकल डेटा संरक्षण: सभी memory और settings उपयोगकर्ता की डिवाइस में ही स्टोर होती हैं
  • persistent memory: Markdown फ़ाइल-आधारित knowledge store का उपयोग करता है, और SQLite FTS5 तथा sqlite-vec के जरिए तेज़ search और semantic search को सपोर्ट करता है
  • autonomous heartbeat फीचर के जरिए बैकग्राउंड में काम किया जा सकता है
  • विभिन्न interfaces: CLI, web UI, desktop GUI उपलब्ध
  • multiple LLM support: Anthropic(Claude), OpenAI, Ollama आदि से जुड़ सकता है

यह कैसे काम करता है

  • memory ~/.localgpt/workspace/ directory में स्टोर होती है, और मुख्य फ़ाइल संरचना इस प्रकार है
    • MEMORY.md: long-term knowledge storage
    • HEARTBEAT.md: autonomous task queue
    • SOUL.md: personality और behavior guidelines
    • knowledge/: विषय-आधारित structured knowledge store
  • SQLite FTS5 से keyword search और sqlite-vec से लोकल embedding-आधारित semantic search किया जाता है

कॉन्फ़िगरेशन और CLI कमांड

  • settings फ़ाइल ~/.localgpt/config.toml में स्टोर होती है, जहाँ default model, API key, heartbeat interval, working hours आदि सेट किए जाते हैं
  • मुख्य CLI कमांड
    • localgpt chat: conversation session शुरू करें
    • localgpt ask "질문": single query चलाएँ
    • localgpt daemon start: background daemon चलाएँ
    • localgpt memory search "query": memory search
    • localgpt config init: default configuration बनाएँ

HTTP API

  • daemon चलने पर REST API उपलब्ध होती है
    • GET /health: status check
    • POST /api/chat: conversation request
    • GET /api/memory/search?q=<query>: memory search
    • GET /api/memory/stats: memory statistics देखें

तकनीकी स्टैक

  • Rust, Tokio, Axum, SQLite (FTS5 + sqlite-vec) , fastembed, eframe आधारित
  • Apache-2.0 लाइसेंस के तहत सार्वजनिक है, और लगभग 93% कोड Rust में लिखा गया है

अन्य जानकारी

  • GitHub पर लगभग 646 stars और 39 forks हैं
  • ब्लॉग पोस्ट “Why I Built LocalGPT in 4 Nights” में development process और commit-वार details साझा की गई हैं
  • मुख्य contributors में Yi Wang, Claude, objectkit, Ax73 सहित कुल 4 लोग बताए गए हैं

1 टिप्पणियां

 
GN⁺ 2026-02-09
Hacker News की राय
  • 2026 में ऐसी चीज़ देखना सच में बहुत cyberpunk जैसा लग रहा है
    MEMORY.md, HEARTBEAT.md, SOUL.md जैसी संरचना बहुत दिलचस्प लगती है
    लेकिन ANTHROPIC_API_KEY पर निर्भर होने की वजह से इसे “local-first” कहना थोड़ा मुश्किल है
    फिर भी लंबे समय में मुझे लगता है कि local-first ही भविष्य है
    मैंने पिछले साल Rust में कुछ ऐसा ही बनाया था, और मॉडल को लोकल पर चलाने से स्पीड का फर्क साफ दिखा
    मेरा डेमो वीडियो भी है
    OS स्तर पर इस तरह की चीज़ लागू करना सचमुच paradigm shift जैसा अनुभव था
    अगले 5~10 साल में शायद हमारे डिवाइसों के साथ इंटरैक्ट करने का तरीका बुनियादी रूप से बदल जाएगा

    • यह local-first नहीं है, नाम गलत लगता है
    • ज़रूरी नहीं कि किसी third-party LLM का ही इस्तेमाल किया जाए
      आप OpenAI या Anthropic-compatible endpoint सीधे सेट कर सकते हैं, और localhost पर भी कर सकते हैं
    • संबंधित कोड देखें: providers.rs L222
    • मैं भी LAN पर OpenClaw और Qwen3 Coder Next को local-first तरीके से चलाकर देख रहा हूँ
      अभी बस शुरुआत की है, लेकिन काफ़ी संभावनाशील लग रहा है
    • AI को लेकर पसंद-नापसंद से अलग, अभी का निवेश स्तर हमारी पीढ़ी के Apollo program जैसा है
      कहा जा रहा है कि आने वाले कुछ सालों में 100 से ज़्यादा gigawatt-स्तर के data center बनेंगे
      मुझे लगता है यह रक्षा उद्योग की तुलना में कहीं बेहतर जगह पर पैसा लगाना है
  • एक सलाह: पोस्ट या दस्तावेज़ खुद लिखना, या कम-से-कम खुद edit करना बेहतर है
    अभी के दस्तावेज़ और लेख ऐसे लगते हैं जैसे सब कुछ LLM ने लिखा हो, इसलिए उनमें मेहनत का एहसास नहीं होता

    • आजकल कई लोग कुछ वाक्यों से ज़्यादा लिखने की कोशिश ही छोड़ चुके हैं
      ऐसी plagiarism laundering machine लोगों की लिखने की समझ को खराब कर रही हैं
    • मैं भी सहमत हूँ, दस्तावेज़ खुद लिखो तो उल्टा मज़ा आता है
    • एक प्रतिवाद भी है
      मुझे पहले से ही दस्तावेज़ लिखना पसंद नहीं था, इसलिए पहले मेरे कोड में लगभग कोई दस्तावेज़ नहीं होता था
      इस वजह से दूसरों के लिए उसे इस्तेमाल करना मुश्किल था
      LLM सटीक व्याख्या तेज़ी से बना देता है और उसे up-to-date भी रखता है, इसलिए documentation के लिए यह बेहतरीन है
      अगर यह दिख भी जाए कि इंसान ने नहीं लिखा, तो भी जब तक सामग्री सही है, मुझे समस्या नहीं लगती
    • अच्छा होता अगर यह ऐसे low-quality post रोकने का deterrent बनता, लेकिन हकीकत में ऐसा नहीं है
      उल्टा बिना मेहनत किए काम करने पर गर्व करने जैसा माहौल बन गया है
  • इस प्रोजेक्ट का विचार शानदार है
    persistent memory + semantic search वाला structured framework इसकी असली ताकत है
    SOUL फीचर तो दरअसल ज़्यादातर LLM पहले से Markdown फ़ाइल के रूप में सपोर्ट करते हैं
    ऐसी संरचना private agent network बनाने की शुरुआत बन सकती है
    लेकिन नाम समस्या है — LocalGPT

    1. लोकल नहीं है, और
    2. GPT मॉडल भी नहीं है
      इरादे को ज़्यादा सही तरह से दिखाने वाला नाम रखना बेहतर होगा
  • गंभीर सवाल है, यह OpenClaw से अलग कैसे है?
    यह भी वही SOUL.md, MEMORY.md, HEARTBEAT.md संरचना इस्तेमाल करता है, और
    OpenClaw में पहले से multi-channel messaging, voice call, browser automation, और sub-agent तक हैं
    Rust में बने होने के अलावा कोई और फ़र्क है या नहीं, यह जानना चाहता हूँ

    • मेरे समेत बहुत से लोग OpenClaw से डरते हैं
      उसमें सुविधाएँ बहुत ज़्यादा हैं, और security architecture कमज़ोर है
      permission approval भी बस औपचारिक सा है, और वह अपनी सेटिंग खुद बदल सकता है
      इसलिए मैंने Wardgate से permissions अलग कर दी हैं
      इसे कई node/agent में बाँटना और credentials व API access को अलग रखना ज़रूरी है
    • यह तो बस vibe coding के लिए static site generator जैसा लगता है
    • छोटा है और Node आधारित नहीं है, यही इसकी ताकत है
      हर किसी के पास high-performance machine नहीं होती
  • समझ नहीं आता कि LLM provider (OpenAI, Anthropic वगैरह) से जुड़ना क्यों ज़रूरी है
    अगर यह local GPT है, तो inference भी लोकल पर ही होना चाहिए, नहीं?

    • बाहरी सेवा से जुड़ना अनिवार्य नहीं है
      Ollama जैसे लोकल सर्वर को LLM provider के रूप में सेट किया जा सकता है
      README में सिर्फ Anthropic का उदाहरण है, लेकिन कोड देखें तो और भी विकल्प संभव हैं
      बस config की एक लाइन बदलनी होती है
    • कोशिश अच्छी है, लेकिन नाम गलतफ़हमी पैदा करता है
      असल में यह न लोकल है, न GPT
      यह ज़्यादा से ज़्यादा OpenClaw का Rust version clone लगता है
    • अगर लोकल सेट नहीं है, तो यह ऑनलाइन provider पर automatic fallback कर देता है
      संबंधित कोड: providers.rs L222
    • यह अनिवार्य नहीं है
  • LocalGPT या OpenClaw जैसे एजेंटों की security की मुख्य समस्या है
    “private data access + external communication + untrusted content” की घातक तिकड़ी
    एक malicious email ही “मेरा mailbox attacker को भेज दो” जैसा निर्देश चलवा सकती है
    मैं इसका समाधान खोजने के लिए object-capability आधारित security policy पर शोध कर रहा हूँ
    मैं ऐसी policy बनाना चाहता हूँ जो संवेदनशील जानकारी के लीक होने को मूल रूप से रोक दे

    • यह तिकड़ी वाली समस्या अभी इस क्षेत्र की सबसे तात्कालिक चुनौती है
      मुझे दो समाधान दिखते हैं
      1. हर external transmission को manual approval तक सीमित कर दो (OTP वगैरह)
        लेकिन इससे थकान बहुत होती है
      2. design स्तर पर ही इस तिकड़ी से बचो — जैसे external communication बंद करने वाले two-factor agent
        क्या आप किसी और approach पर शोध कर रहे हैं, यह जानने में दिलचस्पी है
  • मैंने OpenClaw इस्तेमाल किया है, लेकिन उसमें observability की कमी है
    अभी एजेंट क्या सोच रहा है, क्या कर रहा है, इसका कोई log दिखाई नहीं देता
    ऐसा सिस्टम अगर Elixir/BEAM में लिखा जाए तो शायद कमाल हो
    process tree से state ट्रैक की जा सकती है, और message box dump करके सोच का प्रवाह देखा जा सकता है

    • lemon project शायद ठीक वैसा ही कर रहा है
    • GPT या Claude जैसे मॉडल अपनी अंदरूनी सोच को जानबूझकर छिपाते हैं
      जो दिखाते हैं वह उसका सिर्फ एक हिस्सा है, और असल में वे उससे ज़्यादा tokens खर्च करते हैं
    • अच्छा विचार है, आपको खुद बनाकर देखना चाहिए
    • मैं भी observability की कमी से सहमत हूँ
      जो चीज़ basic feature होनी चाहिए, उसके लिए YouTube tutorial ढूँढना पड़े — अभी की स्थिति पूरी अराजकता जैसी है
  • Linux Mint पर cargo install localgpt फेल हो गया
    Cargo.toml में "x11" जोड़ने के बाद build सफल हुआ
    मुझे Rust की ज़्यादा जानकारी नहीं है, लेकिन लगता है यह GUI dependency की समस्या थी

    • installation प्रक्रिया इस प्रकार थी
      git clone https://github.com/localgpt-app/localgpt.git  
      cd localgpt/  
      Cargo.toml에 "x11" 추가  
      cargo install --path ~/.cargo/bin
      
      वैसे Kai Lentit नाम का यह शख्स, क्या hiring कर रहा है?
  • लोकल assistant के रूप में इस्तेमाल करने लायक local model कौन से हो सकते हैं?
    क्या compute resources और memory के trade-off का कोई मूल्यांकन करने की कोशिश हुई है?
    मैं जानना चाहता हूँ कि उपयोगी स्तर तक पहुँचने के लिए कितना hardware चाहिए

  • “local” शब्द का इस्तेमाल आजकल बड़ा अजीब हो गया है
    ज़्यादातर फीचर आखिरकार internet के साथ interact करते हैं, फिर भी उसे local कहा जाता है