4 पॉइंट द्वारा GN⁺ 2025-10-07 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • Internet Archive द्वारा संचालित Wayback Machine ने दुनिया भर के 1 ट्रिलियन वेबपेज संरक्षित करने का ऐतिहासिक माइलस्टोन हासिल किया
  • 1996 में शुरू हुआ यह प्रोजेक्ट वेब की सामूहिक स्मृति को संरक्षित करने के लिए एक सहयोगी पहल है, जो समाचार, ब्लॉग, व्यक्तिगत होमपेज समेत कई तरह के कंटेंट को आर्काइव करता है
  • इसे मनाने के लिए अक्टूबर भर सैन फ्रांसिस्को और ऑनलाइन संगीत कार्यक्रम, बातचीत, फ़ोरम, ओपन हाउस सहित कई आयोजन किए जाएंगे
  • इन आयोजनों में वेब के जनक Tim Berners-Lee, Internet Archive के संस्थापक Brewster Kahle, Google के Vint Cerf जैसे इंटरनेट अग्रणी शामिल होंगे
  • यह उपलब्धि डिजिटल युग में सामूहिक रिकॉर्ड संरक्षित करने के महत्व को फिर से रेखांकित करती है और स्वतंत्र व खुले वेब के भविष्य पर साथ मिलकर विचार करने का अवसर भी देती है

Internet Archive के 1 ट्रिलियन पेज तक पहुंचने का महत्व

  • Wayback Machine 1996 से दुनिया भर की वेबसाइटों को स्वतः एकत्र और संरक्षित करता आ रहा है, ताकि कोई भी पुराने वेब को देख सके
  • 1 ट्रिलियन का यह आंकड़ा ‘मानवता के ऑनलाइन इतिहास की साझा लाइब्रेरी’ बनाने के लक्ष्य की दिशा में एक बड़ा कदम है
  • यह प्रोजेक्ट लाइब्रेरी, शोध संस्थान, और व्यक्तिगत स्वयंसेवकों के साथ वैश्विक सहयोग से चलता रहा है
  • यह आर्काइव समाचार सुर्खियों, ब्लॉग, फ़ोरम, व्यक्तिगत होमपेज जैसे वेब के उन निशानों को भविष्य की पीढ़ियों के लिए डिजिटल स्मृति के रूप में सुरक्षित रखता है, जो अन्यथा मिट सकते थे

अक्टूबर के स्मारक कार्यक्रमों का शेड्यूल

7 अक्टूबर — The Vast Blue We: Del Sol Quartet at the Internet Archive

  • सैन फ्रांसिस्को मुख्यालय में Del Sol Quartet के संगीत के साथ मानव सहयोग की विशालता का उत्सव मनाने वाला कार्यक्रम आयोजित होगा
  • संगीतकार Erika Oba और Sam Reider द्वारा नए रचे गए संगीत का प्रदर्शन किया जाएगा
    • अरबों लोगों की गतिविधियों से बने वेब सहयोग की सुंदरता को संगीत के जरिए व्यक्त किया जाएगा

9 अक्टूबर — Sir Tim Berners-Lee और Brewster Kahle की बातचीत

  • वर्ल्ड वाइड वेब के जनक Sir Tim Berners-Lee और Internet Archive के संस्थापक Brewster Kahle के बीच चर्चा
  • इंटरनेट की वृद्धि, सामाजिक बदलाव, और Internet Archive की भूमिका जैसे कई विषयों पर बात होगी
  • इसे इंटरनेट के निरंतर विकास और भविष्य के मुद्दों पर गहन संवाद के रूप में तैयार किया गया है
  • सैन फ्रांसिस्को Commonwealth Club तथा ऑनलाइन लाइव स्ट्रीमिंग के माध्यम से आयोजन होगा

16 अक्टूबर — Library Leaders Forum 2025 (ऑनलाइन)

  • Internet Archive और साझेदार संस्थानों की नई लाइब्रेरी सेवाओं तथा मौजूदा प्रोजेक्ट्स की स्थिति साझा की जाएगी
  • दुनिया भर के लाइब्रेरी लीडर्स डिजिटल संरक्षण और शोध समर्थन के भविष्य पर चर्चा करेंगे
  • Internet Archive की नई सेवाओं और शोध समर्थन के उदाहरण पेश किए जाएंगे

21 अक्टूबर — Doors Open 2025: भौतिक आर्काइव टूर

  • Richmond, California स्थित भौतिक आर्काइव में किताबों, संगीत, वीडियो, फ़िल्म आदि के वास्तविक संरक्षण वातावरण को सार्वजनिक रूप से दिखाया जाएगा
  • किताबों, संगीत, फ़िल्म, माइक्रोफिश आदि के भौतिक आर्काइविंग प्रोसेस का प्रदर्शन किया जाएगा
  • दान, संरक्षण, डिजिटाइजेशन और एक्सेसिबिलिटी सहित भौतिक सामग्रियों के पूरे लाइफसाइकिल को सीधे देखने का मौका मिलेगा

22 अक्टूबर — The Web We’ve Built: 1 Trillion Celebration

  • Wayback Machine के 1 ट्रिलियन वेबपेज पूरे होने का आधिकारिक समारोह
  • सैन फ्रांसिस्को मुख्यालय में ग्लोबल स्ट्रीमिंग पार्टी भी साथ में आयोजित होगी
  • “1 ट्रिलियन यादें, पल और आंदोलनों को संरक्षित करने की उपलब्धि” विषय के साथ
    खुले वेब के मूल्य और सामूहिक रिकॉर्ड की शक्ति का उत्सव मनाया जाएगा

27 अक्टूबर — Wayback to the Future: Celebrating the Open Web

  • वॉशिंगटन D.C. के Georgetown University की Riggs Library में आयोजन
  • Foundation for American Innovation, Massive Data Institute, Internet Archive द्वारा संयुक्त मेजबानी
  • अतीत के खुले और प्रयोगधर्मी वेब के मूल्य को याद करते हुए, आज के केंद्रीकरण और बंद होती प्रवृत्तियों के बीच स्वतंत्र इंटरनेट इकोसिस्टम की स्थिरता और वेब के भविष्य पर चर्चा
  • Vint Cerf(Google), Cindy Cohn(EFF), Jon Stokes(Ars Technica) जैसे वक्ता शामिल होंगे

डिजिटल स्मृति का भविष्य

  • 1 ट्रिलियन वेबपेज का संरक्षण सिर्फ एक संख्या भर नहीं है
  • यह डेटा प्रवासन मामलों, व्यक्तिगत इतिहास, शैक्षणिक शोध, खोजी पत्रकारिता जैसे कई क्षेत्रों में Wayback Machine को एक महत्वपूर्ण सार्वजनिक संसाधन बनाता है
  • Internet Archive आगे भी “सभी के लिए सुलभ सार्वजनिक वेब लाइब्रेरी” के अपने विज़न को जारी रखेगा
  • 1 ट्रिलियन पेज तक पहुंचना अंत नहीं बल्कि एक नई शुरुआत है,
    और AI युग में सूचना की पहुंच और संरक्षण के तरीकों पर चर्चा भी आगे जारी रहेगी
  • Brewster Kahle ने ज़ोर देकर कहा, “हमने मिलकर जो वेब बनाया है, वह सामूहिक बुद्धिमत्ता का एक विशाल अभिलेख है,
    और इसे सुरक्षित रखना मानवता की जिम्मेदारी है”

1 टिप्पणियां

 
GN⁺ 2025-10-07
Hacker News टिप्पणियाँ
  • अगर मेरी कोई इच्छा हो, तो वह archive.org के लिए एक peer mirror network होगी। IA का web application ऐसा लगता है कि अगर आप कई तारीख़ों पर क्लिक करने की कोशिश करें तो बहुत जल्दी access limit लगा देता है। अगर torrent जैसे तरीके से archive.org के content की धीमी distributed mirroring हो सके, ताकि यूज़र चुनिंदा रूप से डेटा देख और verify कर सकें, और एक वैकल्पिक source के रूप में उभर सके, तो वह शानदार होगा। अभी मैं ArchiveBox के साथ अपना archive चला रहा हूँ, लेकिन वह सिर्फ़ मेरी निजी ज़रूरतों के काम आता है। ज़्यादातर मामलों में मैं अब भी IA का ही उपयोग करता हूँ, क्योंकि वहाँ सामग्री सच में बहुत ज़्यादा है।

    • Archive Team ने Internet Archive से अलग एक project के रूप में internet archive के कुछ हिस्सों का distributed backup चलाया था। अधिक जानकारी और प्रगति INTERNETARCHIVE.BAK project wiki पर देखी जा सकती है। हालांकि, हाल के समय में यह अस्थायी रूप से रुका हुआ है।

    • मैंने भी पक्का अनुभव किया है कि web archive सच में बहुत धीमा हो सकता है। लगता है AI scrapers भी bandwidth bottleneck पैदा कर रहे हैं। कुछ digital archives में Common Crawl की तरह अलग scientist account बनाकर ही access मिलता है। डेटा की मात्रा इतनी विशाल है और storage का लक्ष्य इतना बड़ा कि यह सिर्फ़ internet ही नहीं, समय जैसा एक अतिरिक्त dimension भी store करता है। डेटा इतना ज़्यादा हो जाता है कि browse या search करना बेहद कठिन हो जाता है, और व्यावहारिक रूप से लगभग बेकार जैसा महसूस होता है। इसलिए मैंने domain जानकारी पाने के लिए खुद Internet-Places-Database metadata link project बनाया।

    • पहले जब मैं एक scraping project कर रहा था, तब पुराने snapshots ढूँढने की कोशिश में मुझे पता चला कि Internet Archive से जानकारी निकालना उम्मीद से कहीं ज़्यादा मुश्किल है। pywaybackup इस्तेमाल करने के बाद चीज़ें काफ़ी बेहतर लगीं।

    • मुझे हैरानी है कि IA कोई IPFS instance क्यों नहीं चलाता, या अगर चलाता है तो वह ज़्यादा लोकप्रिय क्यों नहीं है। IPFS mirror services में पहले से ही कई जगहें काफ़ी तेज़ी से काम करती हैं। IA में जो समस्याएँ मैंने देखीं, उनमें एक यह है कि बहुत पुरानी websites कभी-कभी JS या CSS समस्याओं के कारण सही render नहीं होतीं। मैं सोचता हूँ कि क्या इन्हें बाद में जाकर ठीक करने का कोई तरीका हो सकता है। अगर उस समय चलने वाला सारा code export किया जा सके, तो शायद साइट को और अधिक पूर्ण रूप से restore किया जा सके। अगर IA में domain पर क्लिक करने के बाद कोई desktop client low-priority queue में जितने चाहें उतने WAR files धीरे-धीरे डाउनलोड करे, और उन्हें offline होने पर भी पूरी तरह देखा जा सके, तो वह वाकई कमाल होगा।

    • मैंने कभी एक ऐसा system सोचा था जिसमें बची हुई storage space archive.org को “donate” की जा सके। आप client चलाएँ और कहें कि मैं 1TB देना चाहता हूँ, फिर server सबसे दुर्लभ content मेरे कंप्यूटर पर भेजे। यह torrent आधारित होता, और इसके ऊपर आसानी से content delivery system भी बनाया जा सकता था। डेटा इस network से प्राप्त करने के रूप में भी इसका उपयोग किया जा सकता था। मैंने कुछ archive teams को email भी किया, लेकिन किसी ने रुचि नहीं दिखाई, इसलिए अंततः मैंने इसे बनाया ही नहीं।

  • मैं Internet Archive में datacenter/infrastructure team चलाता हूँ। मैं इस fall में होने वाले विभिन्न events में सभी को आमंत्रित करना चाहता हूँ। अगर ticket की कीमत बोझ लग रही हो, तो कृपया email करें (profile देखें)। हम यथासंभव भागीदारी का अवसर देने की कोशिश करेंगे।

    • क्या IA team दुनिया भर में distributed events कर रही है, या सब लोग SF में इकट्ठा होंगे? और आप सच में मानवता के लिए बेहद महत्वपूर्ण काम कर रहे हैं, इसके लिए धन्यवाद।

    • मैं IA में काम करना चाहता था, लेकिन hiring के मौके सच में बहुत कम होते हैं।

    • मैं यह जानने के लिए उत्सुक हूँ कि इस उपलब्धि के पीछे कौन-सी technical कहानी है। उदाहरण के लिए, web crawling methods या storage architecture जैसी बारीक तकनीकी बातें सुनना चाहूँगा।

    • मैं जानना चाहूँगा कि ये events वास्तव में कौन-से हैं।

  • 1 trillion web pages archive करना एक अविश्वसनीय उपलब्धि है, लेकिन... इसे search करने का कोई तरीका नहीं है। नतीजतन, अगर आपको URL पता है तभी आप उसे सीधे डालकर कुछ खोज सकते हैं, और इससे service की उपयोगिता काफ़ी कम हो जाती है। उदाहरण के लिए, अगर किसी खास artist का नाम, file name, या image content तक search किया जा सके तो बहुत अच्छा होगा।

    • उस सबको index करना सच में एक दुःस्वप्न होगा।

    • मुझे याद है कि यह feature Kagi जैसी किसी जगह पर संभव था, लेकिन अब यह कहाँ इस्तेमाल हो रहा है, मैं ढूँढ नहीं पा रहा।

    • इस प्रक्रिया में privacy issues पर भी विचार करना होगा। robots.txt के नियम लगभग अर्थहीन हो जाएँगे, और site deletion को भी व्यावहारिक रूप से बाद में लागू करना असंभव हो जाएगा। आखिरकार, यह public material ही है, इसलिए रोकना मुश्किल है, लेकिन IA को पूरी तरह searchable बना देना सच में बहुत बुरा विचार है।

    • मैं GPT web search का उपयोग करके अक्सर इसे IA में textbooks ढूँढने के लिए कहता हूँ। पाठ्यपुस्तकों के लिए यह काफ़ी उपयुक्त लगता है, लेकिन सामान्य web pages के लिए यह कितना उपयोगी है, इस बारे में मुझे यक़ीन नहीं।

  • अगर आप IA में अतिरिक्त सामग्री योगदान करना चाहते हैं, तो ArchiveTeam उससे जुड़ा volunteer group है। वही IA को डेटा भेजता है, और अधिक जानकारी archiveteam.org पर उपलब्ध है।

    • किसी न किसी को यह तय करना होगा कि कौन-सी सामग्री संरक्षित किए जाने लायक है। अगर किसी को IA को अपनी travel photos का मुफ्त storage बनाने से रोकना है, तो किसी तरह का filter ज़रूरी होगा।
  • मुझे लगता है कि Internet Archive को AI कंपनियों के साथ बड़े सौदे करने चाहिए... जैसे, हम AI कंपनी को हमारे सारे डेटा से भरा एक truck दे देंगे, बदले में आप IA को आने वाले कई वर्षों तक चलने लायक बड़ा donation दें। अगर वे पैसा न दें, तो access तो रहने दिया जाए, लेकिन download speed बहुत धीमी कर दी जाए, ताकि सारा डेटा लेने में कई साल लग जाएँ।

    • ऐसा करने से public good के रूप में अब तक बनी विश्वसनीयता टूट जाएगी। ज़्यादातर लोग इस बात से ठीक हैं कि IA उनके बनाए content को preserve करे, लेकिन अगर वह उससे पैसा कमाना शुरू कर दे, तो निश्चित रूप से बहुत बड़ा backlash होगा।
  • मैं जानना चाहता हूँ कि क्या Internet Archive और Common Crawl ने कभी सहयोग किया है। मैं दोनों संस्थाओं के scope और infrastructure की तुलना करना चाहता हूँ। उनके उद्देश्य अलग हैं, लेकिन व्यावहारिक रूप से वे काफ़ी समान काम कर रहे हैं।

    • IA, CC द्वारा एकत्र किए गए WARCs समेत ArchiveTeam जैसे कई groups से एकत्रित डेटा स्वीकार करता है।
  • इस हफ्ते के offline event में आने वाले artist Sam Reider सच में शानदार हैं, इसलिए मैं बहुत उत्साहित हूँ।

  • तो क्या इसका मतलब यह है कि पूरे web को crawl किए बिना भी, अगर आप Archive को पैसे दें, तो आपको उसका सारा डेटा मिल सकता है?

  • संबंधित blog post में लोग अपनी कहानियाँ साझा कर रहे हैं, संदर्भ के लिए देखें
    https://blog.archive.org/2025/09/23/celebrating-1-trillion-webpages-archived-share-your-wayback-story/

  • internet के इतिहास में यह सच में एक बहुत बड़ा मील का पत्थर है।