- AI agent-केंद्रित social platform Moltbook का database गलत तरीके से configure किया गया था, जिसके कारण 15 लाख API authentication tokens, 35 हज़ार emails और private messages बाहरी रूप से उजागर हो गए
- Client-side JavaScript में Supabase API key hardcode की गई थी, और Row Level Security(RLS) सेट नहीं थी, इसलिए कोई भी पूरे database को read-write access के साथ access कर सकता था
- डेटा में 17,000 वास्तविक users और उनके द्वारा चलाए जा रहे 15 लाख agent accounts की जानकारी शामिल थी, जिससे human-to-agent ratio 1:88 पाया गया
- उजागर जानकारी में OpenAI API keys सहित third-party credentials, private conversations, और posts को modify करने की permission तक शामिल थी, जिससे platform content की integrity को नुकसान पहुंचने का जोखिम मौजूद था
- यह घटना AI-आधारित 'vibe coding' की security limitations को दिखाती है और AI development environments में security defaults के automation और verification प्रक्रियाओं को मजबूत करने की ज़रूरत बताती है
Moltbook और security exposure का overview
- Moltbook एक AI-केंद्रित social network है, जहाँ AI agents posts लिखते हैं, comments करते हैं, vote करते हैं और reputation scores के ज़रिए activity करते हैं; यह खुद को “agent internet का first page” बताता है
- OpenAI co-founder Andrej Karpathy ने इसे “सबसे चौंकाने वाली SF-जैसी छलांग” बताया, जिससे इसे ध्यान मिला
- Platform के founder ने कहा कि “कोड सीधे AI ने लिखा था” और यह 'vibe coding' approach से develop किया गया था
- Wiz research team ने Supabase database की misconfiguration खोजी, जिससे पूरे डेटा पर read-write access संभव था; issue की सूचना देने के कुछ घंटों के भीतर fix लागू कर दिया गया
उजागर Supabase credentials
- Moltbook website के client JavaScript bundle में Supabase connection details hardcode की हुई मिलीं
- Project:
ehxbxtjliybbloantpwq.supabase.co
- API key:
sb_publishable_4ZaiilhgPir-2ns8Hxg5Tw_JqZU_G6-
- Supabase public key के expose होने की अनुमति देता है, लेकिन अगर RLS policies न हों तो पूरे database तक access संभव हो जाता है
- Moltbook में RLS disabled थी, जिसके कारण सभी tables के read-write permissions public थे
बिना authentication के database access
- Research team ने API key का उपयोग करके REST API को सीधे call किया और admin-level response प्राप्त किया
- Response में top agents की API keys और authentication tokens शामिल थे, जिनसे accounts का पूरा takeover संभव था
- PostgREST error messages और GraphQL introspection का उपयोग करके पूरे schema की पहचान की गई, और लगभग 47.5 लाख records के exposed होने की पुष्टि हुई
उजागर संवेदनशील डेटा
- Agent authentication information: हर account का
api_key, claim_token, verification_code शामिल था
- इससे attacker किसी भी agent के रूप में login कर सकता था, posts लिख सकता था और messages भेज सकता था
- User email और identity information: 17,000 से अधिक users के email addresses और X(Twitter) handles उजागर हुए
- इसके अलावा
observers table में 29,631 emails मिलीं
- Private messages और third-party credentials: 4,060 DMs बिना encryption के store की गई थीं, जिनमें कुछ में OpenAI API keys plain text में शामिल थीं
- Write permissions exposure: बिना authentication posts modify की जा सकती थीं, जिससे malicious content insertion या site defacement का जोखिम था
- वास्तविक testing में post modification सफल रही, जिसके बाद RLS policy लागू करके इसे block किया गया
AI app development के लिए 5 security lessons
- 1. तेज development speed, अगर security defaults न हों, तो systemic risk पैदा कर सकती है
- Supabase setting की एक पंक्ति पूरे exposure का कारण बनी
- 2. Engagement metrics की verification ज़रूरी है
- 15,00,000 agents में वास्तविक इंसान सिर्फ 17,000 थे, यानी 88:1 ratio संभावित fake activity दिखाता है
- 3. Privacy collapse का chain effect
- DMs के exposure की वजह से OpenAI API keys जैसे external service credentials भी leak हो गए
- 4. Write permissions, साधारण data leak से भी बड़ा integrity threat हैं
- Content manipulation, prompt injection, narrative control जैसे जोखिम पैदा हो सकते हैं
- 5. Security maturity एक iterative improvement process है
- Wiz और Moltbook team ने कई rounds की fixes और verification के बाद सभी tables को secure किया
vibe coding और security की चुनौतियाँ
- AI ने development barrier को कम किया है, लेकिन security barrier अभी भी ऊँचा है
- AI development tools को security defaults (RLS enable करना, credential scanning आदि) अपने आप लागू करने चाहिए
- जब security, AI development का built-in default element बन जाएगी, तब सुरक्षित और innovative AI software ecosystem बन सकेगा
Timeline
- 31 जनवरी 2026 21:48 UTC: Moltbook maintainer से पहला संपर्क
- 22:06: Supabase RLS misconfiguration report की गई
- 23:29: पहला fix (agents, owners, site_admins tables सुरक्षित)
- 1 फ़रवरी 00:13: दूसरा fix (agent_messages आदि सुरक्षित)
- 00:31: post modification vulnerability मिली
- 00:44: तीसरे fix से write permissions block की गईं
- 00:50~01:00: अतिरिक्त exposed tables मिलीं और अंतिम fix पूरा हुआ
अभी कोई टिप्पणी नहीं है.