4 पॉइंट द्वारा GN⁺ 2025-06-08 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • तकनीकी स्वतंत्रता और स्व-होस्टिंग के आनंद तथा महत्व पर अनुभव के आधार पर ज़ोर दिया गया है
  • डोमेन स्वामित्व और ब्लॉग को स्वायत्त रूप से चलाने से लंबे समय में करियर और आत्म-विकास पर बड़े लाभ होने की बात समझाई गई है
  • खुले ओपन सोर्स इकोसिस्टम में अपना ज्ञान और कोड साझा करके मिलने वाले समुदाय और सीखने के महत्व का उल्लेख है
  • Homelab निर्माण और विभिन्न स्व-होस्टेड ओपन सोर्स टूल्स का परिचय देते हुए, subscription-आधारित सेवाओं की सीमाओं से बाहर निकलकर वास्तव में इस्तेमाल करने पर मिलने वाली आज़ादी पर ज़ोर दिया गया है
  • Markdown-आधारित कंटेंट शेयरिंग और ओपन सोर्स भावना का software ecosystem तथा व्यक्तिगत क्षमता-विकास पर सकारात्मक प्रभाव रेखांकित किया गया है

शुरुआत: तकनीकी स्वतंत्रता और खुद निर्माण का मूल्य

  • PewDiePie का Arch Linux installation और ओपन सोर्स आधारित उत्पादों को खुद बनाते हुए वीडियो देखने के बाद, लेखक ने अपनी चीज़ें खुद बनाने वाली स्व-होस्टिंग और तकनीकी स्वतंत्रता के महत्व को फिर से महसूस किया
  • खुद के बनाए डोमेन और ब्लॉग, तथा स्वयं प्रबंधित सेवाएँ, लंबे समय में जमा होने वाली संपत्ति बन जाती हैं, और इसका महत्व केवल प्लेटफ़ॉर्म बदलने से कहीं बड़ा है

डोमेन स्वामित्व और अपना ब्लॉग चलाने की ताकत

  • जो लोग नई लेखन-यात्रा शुरू करना चाहते हैं या नौकरी की तलाश में हैं, उन्हें सबसे पहले अपना डोमेन खरीदने और ब्लॉग चलाने की सिफारिश की गई है
  • हर बार प्लेटफ़ॉर्म बदलने पर कीमती कंटेंट और डोमेन खो देने की स्थिति दोहराई जाती है, इसलिए डोमेन का स्वामित्व खुद रखना और लगातार उसी पते पर कंटेंट बनाते रहना महत्वपूर्ण है
  • समय के साथ जमा हुए backlinks, पुराने पोस्ट और किए गए निवेश, लंबी अवधि की विश्वसनीयता में बदल जाते हैं

लेखक का स्व-होस्टिंग अनुभव और सीख

  • लेखक ब्लॉग, second brain, किताब, subscription list जैसी कई सेवाएँ खुद होस्ट करते हैं, और GoHugo, Listmonk, Memberstack आदि का उपयोग करते हैं
  • Homelab environment बनाना, SSH, backup, फोटो प्रबंधन, Gitea, proxy/SSL certificate automation आदि के माध्यम से तकनीकी क्षमता धीरे-धीरे विकसित की गई
  • शुरुआत में कठिन लगने पर भी, इस प्रक्रिया में मिलने वाली सीख और उपलब्धि की भावना सबसे बड़ा इनाम है

ओपन सोर्स और समुदाय का मूल्य

  • ओपन सोर्स software का उपयोग और उसमें योगदान तकनीकी स्वतंत्रता को संभव बनाता है, और लेखक ने अपना ज्ञान और टूल्स भी GitHub पर सार्वजनिक किए हैं
  • ओपन सोर्स में विभिन्न licenses के माध्यम से सभी को स्वतंत्र रूप से उपयोग करने की सुविधा मिलती है, और community feedback तथा collaboration के अवसर बढ़ते हैं
  • लेखक ने ओपन सोर्स BI टूल्स के उपयोग के अनुभव से ओपन सोर्स इकोसिस्टम का आकर्षण महसूस करना शुरू किया, और वर्तमान में उनकी अधिकांश online activity तथा data engineering लेखन भी इसी पर आधारित है

Linux और Linus Torvalds

  • Linux दुनिया भर के digital devices का मुख्य आधार है, और Linus Torvalds ने इसे व्यावसायिक रूप से बंद न करने के कारण यह विश्वभर में व्यापक रूप से फैल सका
  • Torvalds ने git भी विकसित किया, जो दुनिया भर के सभी software developers के लिए अनिवार्य टूल बन चुका है
  • जब कोई व्यक्ति अपना काम ओपन सोर्स में सार्वजनिक करता है, तो दूसरों को सीखने, feedback, contribution और connection का अवसर मिलता है; इससे केवल व्यक्तिगत विकास ही नहीं, समुदाय की प्रगति में भी योगदान होता है

आभार और ओपन सोर्स टूल्स

  • कुछ ओपन सोर्स टूल्स हैं जिनका लेखक अक्सर उपयोग करते हैं और जिनके प्रति आभारी हैं
    • Quartz: ओपन सोर्स Obsidian Publish विकल्प
    • GoatCounter: anonymized site traffic analytics tool
    • Listmonk: ओपन सोर्स newsletter list system
    • listmonk-rss: ब्लॉग लिखते समय स्वतः email भेजना
  • Homelab में सुझाए जाने वाले ओपन सोर्स software के उदाहरण:
    • Paperless: दस्तावेज़ों का डिजिटलीकरण और प्रबंधन
    • PhotoPrism: AI-आधारित self-hosted फोटो प्रबंधन
    • Pi-hole: पूरे नेटवर्क के लिए ad blocking
    • Nginx Proxy Manager: डोमेन routing और SSL automation
    • Audiobookshelf: audiobook/podcast server
    • Calibre: ई-बुक प्रबंधन
    • Syncthing: distributed file synchronization
    • Gitea: हल्की self-hosted Git service

सस्ते उपकरणों से भी पर्याप्त प्रयोग

  • महँगे नवीनतम सर्वर के बिना भी, इस्तेमाल किए हुए client server और एक अच्छे operating system से पर्याप्त Homelab setup बनाया जा सकता है
  • खुद निर्माण और संचालन की प्रक्रिया में मिलने वाली सीख और स्वतंत्रता को महत्व दिया गया है

तकनीकी स्वतंत्रता और प्लेटफ़ॉर्म जोखिम

  • स्वयं निर्माण और होस्टिंग के माध्यम से Google, Apple जैसी बड़ी सेवाओं के feature changes, service shutdown जैसे जोखिमों से काफी हद तक स्वतंत्र हुआ जा सकता है
  • अपने वातावरण और उसकी विशेषताओं को सीधे डिज़ाइन और संशोधित करने की स्वतंत्रता ही Tech Independence का वास्तविक लाभ है

समापन और Markdown का महत्व

  • ओपन सोर्स, खुद निर्माण, और अनुभव साझा करने की खुशी पर ज़ोर देते हुए यह भी बताया गया है कि सभी solutions और content production की नींव Markdown पर एकीकृत है

  • Markdown विभिन्न प्लेटफ़ॉर्मों के बीच compatibility सुनिश्चित करता है और ओपन सोर्स/ज्ञान-साझाकरण संस्कृति का एक मानक टूल बन चुका है

  • अधिक data engineering ब्लॉग, second brain notes, और सार्वजनिक रूप से लिखी जा रही किताब आदि सब ssp.sh तथा GitHub पर देखे जा सकते हैं

  • पाठकों के साथ अनुभव साझा करने और चर्चा का हमेशा स्वागत है

1 टिप्पणियां

 
GN⁺ 2025-06-08
Hacker News राय
  • यह थोड़ा self-promotion जैसा लगे तो माफ़ी, लेकिन मैं बस यह कहना चाहता हूँ कि self-hosting के लिए हमेशा नया hardware खरीदना ज़रूरी नहीं होता। कुछ साल बाद Windows पर बहुत धीमे हो चुके पुराने laptop भी Linux server के रूप में काफ़ी अच्छे से काम कर सकते हैं। घर में या दोस्तों के आसपास कोई पुराना laptop पड़ा मिल जाने की संभावना काफ़ी ज़्यादा होती है, और मैं खुद 2011 के i3 laptop पर दो लोगों के लिए बढ़िया इस्तेमाल कर रहा हूँ; 2025 आ गया है और अभी भी upgrade की ज़रूरत नहीं लगती। Laptop idle पर बिजली भी कम खाते हैं, इसलिए लंबे समय में desktop से ज़्यादा व्यावहारिक विकल्प हो सकते हैं। self-hosting शुरू करने वालों के लिए laptop एक शानदार पहला server candidate है। (वैसे laptop में UPS built-in नहीं होता, इसलिए अगर 24x7 प्लग इन रखकर चलाना है तो battery निकाल देने की सलाह दूँगा।)
    पुराने hardware के पुन: उपयोग पर लेख

    • यह पोस्ट भी मैं अभी 13 साल पुराने Acer laptop पर Linux Mint XFCE में लिख रहा हूँ। पुराने device फेंकना मुझे हमेशा खराब लगता है, इसलिए नया laptop लेने के बाद भी इस मशीन को living room TV से HDMI के जरिए जोड़ा हुआ है और $25 वाला Logitech K400+ wireless keyboard/trackpad लगाकर सेट किया है। web browsing, YouTube, Netflix सब आराम से चल जाते हैं, और कभी-कभी काम के लिए VS Code या Thunderbird भी खोल लेता हूँ। यहाँ तक कि Steam पर indie games भी gamepad के साथ ठीक-ठाक चल जाते हैं। काश Framework laptop हमारे देश में भी आता, तो ऐसे reuse setups और बढ़ते; अफ़सोस कि अभी मेरे देश में इसकी shipping नहीं है

    • मेरे इलाके में (Sweden में 250 घरों वाली apartment complex) लोग पुराने computer e-waste में फेंकते रहते हैं। मैं तो Mad Max के किसी किरदार की तरह कुत्ता घुमाने निकलता हूँ और रोज़ कई बार scouting कर लेता हूँ। कई मशीनों के parts मिलाकर debian install करता हूँ, docker containers चलाता हूँ और तरह-तरह के कामों में इस्तेमाल करता हूँ। ऐसे बने Frankenstein servers मैं अपने parents, cousins और friends को gift भी कर चुका हूँ। लोग कितनी काम की मशीनें फेंक देते हैं, यह सच में हैरान कर देने वाला है। password बिना वाले laptop भी मिल जाते हैं, और Windows login करने पर ढेर सारी family photos पड़ी होती हैं। कभी-कभी करीब 5 साल पुराने unlocked iPhone भी मिल जाते हैं। दुनिया सच में अजीब है

    • मेरे पास घर पर 2012 का एक Mac-Mini भी है। यह मुझे gift में मिला था, इसलिए Mac ecosystem में जाने का इरादा नहीं था, और यह बहुत powerful तो नहीं है लेकिन performance ठीक-ठाक है। पिछले Christmas पर इसे boot किया तो base OS पर भी बहुत slow था, और macOS update करने के बाद तो इस्तेमाल लायक ही नहीं रहा। फिर YouTube देखकर SSD लगाया, Debian install किया, CasaOS (web-based home server OS/UI) डाला, और अब Wireguard के जरिए बाहर से connect होकर Navidrome से music streaming करने का setup बना लिया है। Docker की समझ अभी पूरी नहीं है, लेकिन PATH mapping जैसी चीज़ें सीख रहा हूँ

    • अगर आपको used market से खरीदने में कोई दिक्कत नहीं है, तो मैं इस समय 2,000 euro से कम में एक Proxmox node बना रहा हूँ जिसमें Threadripper 3rd gen 32-core/64-thread, 256GB ram, 2x10G, 2x2.5G, dedicated IPMI management 1G interface, और 64 PCIe gen 4 lanes हैं

    • RAID6/RAIDZ2 से नीचे वाले setup में डेटा खोने का ख़तरा काफ़ी बड़ा है। ज़्यादातर laptops में इतने SATA/M.2 ports नहीं होते कि parity setup बनाया जा सके, इसलिए अगर RAID-level fault tolerance चाहिए तो आखिरकार नया hardware लेना पड़ेगा। अगर आप इस सिद्धांत का पालन करते हैं कि backup कम से कम 2 अलग physical locations में होना चाहिए, तो ideally दोनों तरह की सुरक्षा रखना सबसे अच्छा है

  • मैं समझ सकता हूँ कि लोग self-hosting क्यों करना चाहते हैं, लेकिन यह भी उतना ही समझ सकता हूँ कि कोई क्यों नहीं करना चाहता। self-hosting झंझट वाला काम है: docker updates भी करने पड़ते हैं, कुछ टूट जाए तो खुद ही ठीक करना पड़ता है, और सब ठीक चलने पर भी अक्सर चीज़ें पूरी तरह polished नहीं बल्कि थोड़ी जुगाड़ू लगती हैं। इस समय self-hosted tools की वह list बहुत छोटी है जो सच में मेरा समय बचाती है (पहला नाम firefly होगा), और कई बार setup करते-करते चीज़ें टूट गईं और मैंने हार मान ली। अब जो companies privacy-respecting हों और price भी ठीक हो, उन्हें मैं पैसे देकर इस्तेमाल कर लेता हूँ

    • मुझे लगता है कि Docker ही समस्या की जड़ है। Docker storage, networking वगैरह में अनावश्यक abstraction layers जोड़ देता है, और security updates जैसी चीज़ों के लिए container को rebuild करना पड़ता है या किसी और के करने का इंतज़ार करना पड़ता है। अगर संभव हो तो upstream OS packages या single binary (जैसा Go-based projects में अक्सर दिखता है) के रूप में मिलने वाली services पर टिके रहना लंबी अवधि में आसान रहता है

    • मुझे समझ नहीं आता कि Docker को बार-बार update क्यों करना ज़रूरी है। मेरे case में Docker एक साल से ज़्यादा समय से बिना update के चल रहा है। docker images को upgrade करने में महीने का करीब 15 मिनट लगता है और काम हो जाता है। और privacy-respecting companies बहुत कम हैं, और सालों तक वे अपनी स्वतंत्र policies बनाए रखेंगी, इस पर भरोसा करना मुश्किल है

    • privacy-respecting और सही दाम वाली companies ढूँढना ही बेहद मुश्किल है

    • जानना चाहूँगा कि किन projects में आपको दिक्कत आई। मेरे अनुभव में जहाँ तक Docker Compose उपलब्ध हो, वहाँ ज़्यादातर चीज़ें बिना परेशानी चल जाती हैं। और मुझे लगता है कि लगभग हर company किसी न किसी दिन भरोसा तोड़ती ही है। इसलिए उन्हें ऐसा मौका ही क्यों दिया जाए। मैं Home Assistant self-host कर रहा हूँ, और इसकी खास बात यह है कि इस company ने कानूनी ढाँचा भी बनाया है ताकि users के खिलाफ़ काम न हो सके

  • मैं अपनी ज़रूरत की ज़्यादातर चीज़ें self-host करता हूँ, लेकिन हाल की असली crisis तब आई जब internet बार-बार कटने लगा। तब मैंने खुद से ये सवाल पूछे

    • internet के बिना मैं कितनी productivity बनाए रख सकता हूँ
    • मैं क्या-क्या miss कर रहा हूँ
      निष्कर्ष यह निकला कि मुझे और ज़्यादा documents archive करने चाहिए, और NixOS बिना अपनी cache server के offline लगभग बेकार है — यह बात बहुत परेशान करने वाली है। नतीजे में मैंने पाया कि internet के बिना भी अपनी ज़रूरत की ज़्यादातर चीज़ें self-host करके मैं उस environment में और ज़्यादा productive हो गया
    • devdocs को self-host करके और Linux पर zeal (offline document viewer) इस्तेमाल करके offline docs की समस्या का बड़ा हिस्सा हल हो गया।
      devdocs github
      zealdocs आधिकारिक पेज

    • जब भी downtime होता है, मैं उसे अपने system की weaknesses खोजने का नया मौका मानता हूँ। अगर यह पूरी तरह upstream की वजह से हो और बचा न जा सके, तो अलग बात है; लेकिन जहाँ mitigation संभव हो, वहाँ मैं cost-probability balance वाला scenario बनाता हूँ, और सच कहूँ तो यह काम मुझे मज़ेदार लगता है

    • मैं इस offline approach को बहुत दूर तक ले जा चुका हूँ। internet से पूरी तरह कटे हुए समय मेरे काम की productivity के सबसे ऊँचे दौर रहे हैं। मेरे पास bash alias है जो पूरी websites को wget से recursively save कर देता है, yt-dlp से मनचाहे videos डाउनलोड करता हूँ, Kiwix में Wikipedia की पूरी offline copy रखता हूँ, email भी local storage में रखता हूँ और offline compose + mail queueing support है, SingleFile extension से individual pages efficient तरीके से save कर लेता हूँ, और Zeal एक बढ़िया open source documentation browser है

    • “NixOS अपनी cache के बिना offline काम नहीं करता” वाली बात से पूरी सहमति। किसी भी package manager based software के लिए cache या repository backup ज़रूरी है। यह कि dependency tree के आख़िरी छोर पर मौजूद हर व्यक्ति अपना काम लगातार करता रहे तभी system पूरी तरह काम करेगा — यही आज के software development model की सबसे बेचैन करने वाली बात है। end-user software के लिए मेरी राय में bundled standalone packages कहीं बेहतर हैं। आखिरकार असली storage तो disk पर उसी रूप में होती है

    • Kiwix (Wikipedia offline solution) और तरह-तरह के jellyfin setups बहुत अच्छे offline resources हैं। लेकिन NixOS, Gentoo जैसी distributions का रुझान लगातार internet connection माँगने वाला है। पूरे package ecosystem को mirror करना practically लगभग असंभव है

  • “पहले domain खरीदो” वाली सलाह पर, सच यह है कि domain खरीदा नहीं जाता, सिर्फ़ किराए पर लिया जाता है। एक payment miss हुई नहीं कि आपको बाहर कर दिया जाएगा। इस online identity की अस्थिरता मुझे काफ़ी उदास करती है

    • “domain सिर्फ़ किराए पर होता है” वाली बात ICANN-approved root zone/registry के संदर्भ में सही है, लेकिन मैं कई सालों से प्रयोग के तौर पर अपना खुद का registry बनाकर, दूसरों के साथ share न होने वाला custom root zone खुद चला रहा हूँ। custom TLD के साथ मैंने यह भी आज़माया कि domain names में दुनिया की सारी product/service classification systems को समेटा जाए, और इससे ICANN TLDs की अस्पष्टता और अनुपयुक्तता को सीधे महसूस किया

    • यह एक तरह की technical limitation है। अगर मैं अपने सभी devices (यानी domain name consumers) को यह मानने के लिए configure कर दूँ कि किसी खास public key से signed चीज़ ही “XorNot.com” है, तो पूरी system को replace किया जा सकता है। मुझे लगता है कि थोड़े और technical support के साथ आज की पूरी व्यवस्था को “trusted key-name list” से बदला जा सकता है

  • self-hosting tools का ecosystem बहुत आगे बढ़ चुका है। आप hosted components से शुरुआत करके हर part को एक-एक करके self-hosted version से बदल सकते हैं। मेरा blog भी घर के server पर self-hosted है।
    सामने की तरफ़ Cloudflare Tunnel है, लेकिन पहले मैं nginx+letsencrypt+public_ip भी चला चुका हूँ, और data storage को Cloudflare R2, S3, या local NAS से swap किया जा सकता है (FUSE इस्तेमाल करें तो access pattern भी वही रहता है)।
    दूसरी तरफ़, जो चीज़ें आपको सच में किराए पर लेनी ही पड़ती हैं, वे सिर्फ़ domain (जो खरीद जैसा दिखता है पर lease ही है) और internet connection हैं; बाकी ज़्यादातर चीज़ें optional बन चुकी हैं। हाँ, कोई service बंद करें तो असुविधा होगी, लेकिन base functionality बनी रहती है।
    पहले के मुकाबले यह सच में बहुत आसान हो गया है। 90s से 2000s की शुरुआत तक ऐसे tools की कल्पना भी मुश्किल थी।
    बस email spam prevention की शर्तें बहुत सख़्त हो गई हैं, यही कमी है। करीब 8 साल पहले तक मैं अपना mail भी खुद चलाता था, लेकिन अब G Suite इस्तेमाल करता हूँ

  • मेरे हिसाब से सवाल “self-host करना है या नहीं” नहीं, बल्कि “self-host करने की capability” है। अगर skill कम हो या पैसे देने हों, तो किसी और को सौंपना भी एक valid option है। “पैसे देकर काम हो जाएगा” सोचने वाले लोग लंबे समय में असल में सबसे बड़ा risk लेते हैं। आजकल businesses जान-बूझकर customers को लंबे समय की technical dependency में फँसाकर capture करती हैं। चाहे FOSS में interest न भी हो, vendor से निकल पाने की क्षमता बेहद महत्वपूर्ण है। एक बार lock-in हो गए तो कभी भी अनुचित बर्ताव झेलना पड़ सकता है। कई companies तो इसी सोच पर बनी हैं

    • Bluesky का “credible exit” concept इससे कुछ मिलता-जुलता है।
      मैं Zulip की बहुत कद्र करता हूँ क्योंकि वह open source, self-hosting, cloud service, और इनके बीच migration — सब support करता है
  • अगर हम ऐसे दौर में हैं जहाँ developers की भरमार है और AI की मदद से घर बैठे बनाए गए code की quality हर स्तर की हो सकती है, तो self-hosting निश्चित रूप से एक trend बन सकती है

  • Linux की basic समझ हो जाए तो चाहे उसकी ज़रूरत न भी हो, “अपनी service खुद चलाने” का आनंद और achievement self-hosting को बहुत आकर्षक बना देता है।
    इससे भी बड़ा असर यह है कि जिस platform पर आप पूरी तरह निर्भर हैं, वहाँ से बिना वजह बाहर कर दिए जाने का वास्तविक जोखिम कम हो जाता है। अगर आपका Gmail account ही चला जाए, तो “सामान्य” users के लिए account में मौजूद online identity, password reset, यहाँ तक कि app login भी रुक सकते हैं। Hacker News पर भी ऐसे लोग ज़रूर होंगे जिनकी ज़िंदगी Gmail account खोने पर मुश्किल में पड़ जाएगी। इसलिए कम से कम अपनी email identity पर आपका ownership होना चाहिए। यही सिद्धांत web hosting, AWS, Spotify, Netflix जैसी सभी online services पर लागू होना चाहिए, और “बस किसी दूसरे cloud host पर चले जाएँगे” कहना इसका समाधान नहीं है

    • email server install करना जानकारी की कमी से नहीं, बल्कि उसके operation को लेकर मुश्किल है; खासकर compatibility issues या outages से निपटने पर अच्छे resources कम हैं। जैसे अगर Google मेरे server को blacklist कर दे, तो मुझे किससे संपर्क करना चाहिए? क्या error message के लिए कोई response procedure है? असली दुनिया की इन समस्याओं पर मदद कम मिलती है। global IP blocks जैसी बाहरी और कभी-कभी अनुचित स्थितियों से कैसे निपटें, इस पर guide चाहिए। बात सिर्फ़ DKIM, DNS जैसे protocols की नहीं, बल्कि दूसरे providers के साथ वास्तविक operational issues से निपटने की है

    • अपने domain का ownership रखें और उसे जिस email provider से चाहें जोड़ें; अगर कोई समस्या हो तो तुरंत किसी दूसरे provider पर move कर सकते हैं। domain खुद सस्ता होता है, और email provider का proprietary address कभी इस्तेमाल नहीं करना चाहिए।
      और यह सिद्धांत तब भी उतना ही सही है चाहे आप email server खुद चला रहे हों या commercial service ले रहे हों। ये दो अलग सवाल हैं

    • risk सच में बड़ा है, इसमें शक नहीं, लेकिन क्या यह सच में बहुत बड़े पैमाने पर होने वाला जोखिम है, इस पर मुझे संदेह है। Gmail के शुरुआती users में से ज़्यादातर ने उसे इसलिए अपनाया था क्योंकि बाकी alternatives की quality बहुत खराब हो गई थी। ISP email, university/work email जैसी चीज़ें तो ज़रूरत पड़ते ही गायब हो सकती थीं। self-hosting इस समस्या को “आंशिक” रूप से हल कर सकता है, लेकिन अगर आपके पास security maintain करने की क्षमता नहीं है, तो खुद के mail server पर भी आपका पूरा control नहीं होता। domain renewal जैसी चीज़ों पर ध्यान देना पड़ता है, और लापरवाही यहाँ भी account खो सकती है। मैं समझ सकता हूँ कि Gmail जैसी कुछ बड़ी services इतनी लोकप्रिय क्यों हैं। अधिकतर लोगों के लिए short-term और medium-term में अभी भी वही बेहतर विकल्प है

    • घर पर self-hosting करते हुए मैं खुद से पूछता हूँ कि ज़्यादा संभावित जोखिम कौन सा है: HDD fail होना, या Gmail account खोना? जैसे ही आप खुद host करना शुरू करते हैं, equipment space, backup planning, updates management — सबका बोझ अचानक बढ़ जाता है। updates या backups के दौरान power cut के जोखिम को देखें तो अंत में UPS भी लेना पड़ता है। लेकिन मेरे साथ तो ऐसा हुआ कि UPS ही खराब निकला और NAS की hard drives तक खराब हो गईं। आखिर में करने को इतना कुछ हो जाता है कि रोज़मर्रा की ज़िंदगी पर ध्यान देने का समय कम पड़ता है

    • मेरे हिसाब से self-hosting खुद भी गंभीर risks ला सकता है। अगर local private key या मुख्य email domain खो गया, तो recovery संभव नहीं हो सकती। 2FA और account recovery बाहरी services में कहीं आसान होती है। मैं self-hosting के खिलाफ़ नहीं हूँ, लेकिन ज़्यादातर लोगों के लिए account recovery की बेहतर संभावना रखना ज़्यादा सुरक्षित रास्ता है

  • Arch Linux के official installer आने के बाद मुझे नहीं लगता कि अब इसे उतना मुश्किल कहना सही है। हाँ, entry अभी भी command line से होती है, लेकिन उस ज़माने से यह बहुत आसान है जब लोगों को partition blocks की जटिल गणना में सिर खपाना पड़ता था

  • मैं घर पर Kubernetes 4-node pi cluster और Intel N150 mini PC को Portainer से साथ में manage कर रहा हूँ।
    open source operations tools में नीचे दिए गए tools ने मेरी productivity पर बहुत बड़ा असर डाला है (सब container environment में चलते हैं)

    • kubetail: पूरे cluster के K8S logs का viewer। Helm chart से install किया। बहुत ज़ोरदार recommendation
    • Dozzle: N150 mini PC पर (जहाँ Kubernetes नहीं, सिर्फ़ Docker चलता है) docker logs viewer। Portainer से manual install
    • UptimeKuma: server, http/https endpoints, PostgreSQL आदि की monitoring/alerting के लिए। Portainer से manual install
    • Beszel: server cpu, memory, disk, network और docker containers monitoring। Helm chart/K8S या Portainer से manual install
    • Semaphore UI: ansible playbooks के scheduled execution और UI support के लिए। Portainer से manual install