- curl प्रोजेक्ट ने AI-आधारित security report के दुरुपयोग के कारण AI का उपयोग करने वाले रिपोर्टरों को तुरंत ब्लॉक करने की नीति अपनाई है
- अब से सभी security reporters को "क्या आपने AI का उपयोग किया है?" इस सवाल का स्पष्ट जवाब देना होगा, और AI उपयोग करने पर अतिरिक्त verification questions पूछे जाएंगे
- प्रोजेक्ट की ओर से ज़ोर देकर कहा गया कि AI द्वारा लिखी गई रिपोर्टें ज़्यादातर बेकार "AI slop" हैं, और वास्तव में वैध रिपोर्ट का एक भी उदाहरण नहीं मिला
- यह निष्कर्ष निकाला गया कि HackerOne के ज़रिए AI दुरुपयोग वाली रिपोर्टें हद से आगे बढ़ गई थीं, और इसे लगभग DDoS attack स्तर की बाधा माना गया
- इस समस्या की शुरुआत का उदाहरण https://hackerone.com/reports/3125832 है, और यही रिपोर्ट प्रतिक्रिया नीति बदलने की वजह बनी
3 टिप्पणियां
लगभग ऐसा ही विचार
क्या आप रोबोट हैं?
Hacker News राय
मैं मिलियन-डॉलर स्तर के bug bounty program की reports संभालता हूँ
जो लोग लिंक पर क्लिक नहीं करना चाहते, उनके लिए <a href="https://hackerone.com/reports/3125832" rel="nofollow">https://hackerone.com/reports/3125832</a> गलत curl report का ताज़ा उदाहरण है
अगर किसी बड़े open source project में vulnerability डालनी हो, तो एक आसान तरीका यह होगा कि AI का इस्तेमाल करके उनकी vulnerability reports पर DDOS जैसा हमला कर दिया जाए ताकि असली reports ढूँढना मुश्किल हो जाए
वह commit जिसने आख़िरी वार किया, उसे पढ़ें तो समस्या अच्छी तरह समझ आती है: <a href="https://hackerone.com/reports/3125832" rel="nofollow">https://hackerone.com/reports/3125832</a>
report खोले बिना भी पता चल जाता है कि यह सब hallucination होगा
evilginx ने severity बढ़ा दी
ज़्यादातर LLM, जब उनसे code में security vulnerabilities ढूँढने को कहा जाता है, तो पूरी तरह काल्पनिक चीज़ें बना देते हैं
जो बात AI का बहुत इस्तेमाल करने वाले लोगों से बातचीत में निराशाजनक लगती है, वह यह है कि वे अक्सर "मैंने ChatGPT से पूछा, और उसने कहा..." से शुरू करते हैं
समाधान सरल है
एक अलग राय यह है कि हमारे पास CVE हैं, और फर्क यह है कि हमारे co-founder एक aggressive kernel researcher थे