24 पॉइंट द्वारा princox 2026-02-19 | 1 टिप्पणियां | WhatsApp पर शेयर करें

https://github.com/unitedbyai/droidclaw
यह एक mobile AI agent framework है, जिसमें आप natural language में लक्ष्य दर्ज करते हैं, और यह स्क्रीन को पहचानकर ADB के ज़रिए touch और input अपने-आप करता है.

इसका काम करने का तरीका सरल है. यह “स्क्रीन capture → vision model से पहचान → अगला action infer करना → ADB execute करना” लूप को दोहराता है. उदाहरण के लिए, अगर आप “YouTube में Claude search करके दो” लिखते हैं, तो यह app launch करने से लेकर search term दर्ज करने तक का काम अपने-आप कर देता है.

मौजूदा RPA tools से इसका फर्क यह है कि यह coordinates को hardcode किए बिना स्क्रीन को समझकर काम करता है. UI बदलने पर भी यह कुछ हद तक अपने-आप अनुकूलित हो जाता है.

इस्तेमाल के संभावित scenario:
∙ app UI test automation
∙ कई फोन को parallel में जोड़कर repetitive काम distribute करना
∙ ऐसी automation जिनमें physical device की ज़रूरत होती है (वे case जो emulator पर नहीं चलते)

अगर आपके पास दराज़ में पड़ा कोई पुराना spare phone है, तो आप इसे आसानी से आज़मा सकते हैं. बस ADB connection होना चाहिए.

1 टिप्पणियां

 
vigorous5537 2026-02-19

अच्छा आइडिया है।