ProofOfThought: Z3 theorem proving का उपयोग करने वाला LLM-आधारित reasoning
(github.com/DebarghaG)- ProofOfThought large language model (LLM) और Z3 theorem prover को जोड़कर शक्तिशाली और व्याख्येय reasoning को सक्षम बनाता है
- यह प्रोजेक्ट natural language queries के लिए सटीक और भरोसेमंद reasoning परिणाम प्रदान करता है
- high-level Python API के माध्यम से डेवलपर्स जटिल reasoning tasks को आसानी से implement और experiment कर सकते हैं
- Z3DSL के जरिए JSON-आधारित low-level DSL access भी मिलता है, जिससे flexible customization संभव है
- Sys2Reasoning Workshop NeurIPS 2024 में प्रकाशित होकर यह नवीनतम research outcomes के practical उपयोग के फायदे दिखाता है
ProofOfThought ओपन सोर्स प्रोजेक्ट का परिचय
ProofOfThought एक ओपन सोर्स reasoning library है, जो large language model (LLM) और Z3 theorem prover को मिलाकर neuro-symbolic (neural-symbolic) program synthesis approach अपनाती है। यह वास्तविक दुनिया की जटिल समस्याओं के लिए मजबूत और व्याख्येय reasoning परिणाम प्रदान करती है, और यही बात इसे practical उपयोग और research दोनों दृष्टियों से महत्वपूर्ण बनाती है।
ओपन सोर्स होने के कारण कोई भी इसे research, services और development आदि में स्वतंत्र रूप से उपयोग कर सकता है। पारंपरिक सरल LLM-आधारित reasoning systems की तुलना में इसका बड़ा लाभ यह है कि reasoning process का verification और error interpretation आसान होता है। अन्य reasoning systems की तुलना में natural language input → logical program में automatic conversion → Z3-आधारित reasoning जैसी structural transparency इसकी प्रमुख विशेषता है।
सिस्टम आर्किटेक्चर और मुख्य घटक
-
high-level API (z3dsl.reasoning) :
- natural language-आधारित reasoning queries चलाना
- शुरुआती उपयोगकर्ताओं के लिए भी आसानी से अपनाई जा सकने वाली Python interface उपलब्ध कराना
-
low-level DSL (z3dsl) :
- JSON-आधारित Z3 theorem prover access उपलब्ध
- जटिल customization और automation pipelines बनाने के लिए उपयोगी
मुख्य फीचर्स के उदाहरण
-
LLM input query को logical expression (symbolic program) में बदलता है
-
Z3 prover के जरिए true/false (yes/no) या condition-आधारित interpretation result तैयार किया जाता है
-
उदाहरण:
- query: "Will Nancy Pelosi publicly denounce abortion?"
- result: False (नहीं)
-
evaluation pipeline (EvaluationPipeline) उपलब्ध:
- बड़े datasets पर batch evaluation संभव
- accuracy आदि की automatic reporting
उपयोग और application cases
- research उद्देश्यों के लिए reasoning benchmark automation
- LLM-आधारित knowledge graph या higher-order logic problems के automatic proving services
- जटिल policy queries, natural language debates की automatic classification जैसी विभिन्न AI services में उपयोग की संभावना
शोधगत महत्व और विशेषताएँ
- NeurIPS 2024 के Sys2Reasoning workshop में प्रस्तुत
- मौजूदा LLM सीमाओं (reasoning uncertainty) को पूरक करने वाली symbolic interpretation-आधारित reliability
- reasoning results और उनके आधार की transparency तथा interpretability, वास्तविक services development में बड़ी ताकत
निष्कर्ष
ProofOfThought, LLM और Z3 theorem prover की खूबियों को मिलाकर मजबूत और व्याख्येय AI reasoning infrastructure बनाना चाहने वाले डेवलपर्स और शोधकर्ताओं को वास्तविक मूल्य प्रदान करता है। प्रोजेक्ट का license और structure open source ecosystem के अनुरूप डिज़ाइन किया गया है, इसलिए यह academic research और industrial उपयोग दोनों के लिए आकर्षक है।
1 टिप्पणियां
Hacker News राय
sympyपैकेज का उपयोग किया। इस बात से यह प्रभाव मिला कि अस्पष्ट LLM और सख्त tools का संयोजन शक्तिशाली असर दे सकता हैsympyका संयोजन मुझे सच में बहुत पसंद है। अगर LLM सेsympycode लिखवाया जाए, तो यह भरोसा किया जा सकता है कि symbolic operations सही हुई हैं। code खुद output के रूप में बचा रहता है, जिसे इंसान हो या LLM, धीरे-धीरे edit और improve कर सकते हैं, औरgithistory वगैरह से manage भी किया जा सकता है। tests और verification पास करके mathematical correctness पर भरोसा बनाए रखा जा सकता है। मैंsympycode से आसानी सेlatexमें बदलने वाले helper functions भी इस्तेमाल करता हूँ। हाल में quantum eraser experiment से जुड़े गणितीय काम भी मैंने इसी तरह किए। github लिंकo3-minitext reasoning और SMT के परिणामों को अच्छी तरह align करता है। commercial product AWS Automated Reasoning Checks में domain model बनाया जाता है, उसे verify किया जाता है, और answer generation चरण में LLM के Q/A pairs को policies के अनुरूप होने के लिए सख्त solver verification से गुजारा जाता है। इसके जरिए policy-संबंधित validity को 99% से अधिक सुनिश्चित किया जा सकता है, यह बात रेखांकित की गई AWS ब्लॉग