• AI वीडियो जनरेशन तकनीक से रचनात्मकता की बाधाएँ कम होने की उम्मीद थी, लेकिन वास्तविक नतीजे सिर्फ सतही और घिसे-पिटे दृश्य ही बनाते हैं
  • Sora, Runway ML, Veo जैसे अलग-अलग मॉडल तकनीकी रूप से परिष्कृत वीडियो तो बना लेते हैं, लेकिन इरादे और कथा वाले काम बनाना मुश्किल है
  • ऐसे वीडियो में ‘AI वीडियो’ की अपनी एक अप्राकृतिक दृश्य-संवेदना होती है, जो दर्शकों में असहजता और अविश्वास पैदा करती है
  • खासकर बुजुर्गों के बीच झूठी जानकारी और फेक न्यूज़ वीडियो तेज़ी से फैल रहे हैं, जिससे हक़ीक़त और कल्पना की सीमा धुंधली हो रही है
  • नतीजतन, AI वीडियो प्रत्यक्ष और परोक्ष दोनों तरह का नुकसान पहुँचाते हैं और पूरे visual media में भरोसे के टूटने को तेज़ करते हैं

रचनात्मक टूल के रूप में उम्मीद और हक़ीक़त

  • OpenAI के Sora के लॉन्च के समय, लोगों को उम्मीद थी कि वे अपनी sketch और script डालकर short film बना सकेंगे
    • लेकिन वास्तव में बने वीडियो, demo के विपरीत, बार-बार चाहे गए दृश्य से मेल न खाने वाले नतीजे देते रहे
  • Runway ML, Veo और अन्य मॉडलों को भी टेस्ट किया गया, लेकिन सभी ने ऊपरी तौर पर ठीक-ठाक दिखने वाले, पर narrative consistency से रहित वीडियो बनाए
  • ये नतीजे सिर्फ तकनीकी सीमाएँ नहीं दिखाते, बल्कि इनमें ऐसी विशेषताएँ हैं कि इन्हें ‘AI वीडियो’ नाम की एक स्वतंत्र सौंदर्यात्मक श्रेणी माना जा सकता है

एक नई uncanny valley

  • AI वीडियो में तुरंत पहचानी जा सकने वाली एक अलग visual texture होती है, जो हल्का-सा ‘गलत’ महसूस कराती है
    • दर्शक इसे साफ़-साफ़ समझा न पाएँ, फिर भी सहज रूप से इसकी अप्राकृतिकता महसूस कर लेते हैं
  • लेखक को ऐसे वीडियो के प्रति गहरी घृणा महसूस होती है, और आसपास के लोग भी यही प्रतिक्रिया दिखाते हैं
  • BBC की रिपोर्ट के अनुसार YouTube, creators की सहमति के बिना AI से वीडियो में बदलाव कर रहा है, जिससे असली वीडियो भी कृत्रिम लगने लगते हैं
    • चेहरों का ज़रूरत से ज़्यादा smooth या sharp दिखना जैसी समस्या होती है
    • नतीजतन असली वीडियो और AI वीडियो के बीच की सीमा धुंधली हो जाती है

दुरुपयोग के मामले और बढ़ता नुकसान

  • AI वीडियो के मुख्य उपभोक्ता spam, fraud और propaganda के उद्देश्य वाले लोग हैं
    • ये लोग AI टूल्स का इस्तेमाल करके झूठी जानकारी और हेरफेर किए गए कंटेंट का बड़े पैमाने पर उत्पादन करते हैं
  • खासकर बुजुर्ग प्रमुख पीड़ित हैं; परिवार और परिचितों के group chats में फर्जी celebrity बयान वाले वीडियो या स्वास्थ्य संबंधी झूठी जानकारी तेज़ी से फैलती है
    • उदाहरण: Denzel Washington की सलाह वाला वीडियो, Obama के धर्म संबंधी बयान, Trump के रुख़ बदलने जैसे दावे
  • लेखक बार-बार AI वीडियो के संकेतों (जैसे Sora watermark) और fact-check करने के तरीक़े बताता है, लेकिन जानकारी के फैलाव की रफ़्तार तक नहीं पहुँच पाता
  • YouTube comments में भी नकली व्यक्तियों से गंभीरता से बातचीत करने वाले असली users बड़ी संख्या में मौजूद हैं

भरोसे का टूटना

  • AI वीडियो तकनीक का इस्तेमाल creators की मदद से ज़्यादा, हेरफेर और शोषण में अधिक प्रभावी ढंग से हो रहा है
  • शिक्षा, accessibility, कला जैसे सकारात्मक उपयोगों की संभावना पर विचार किया गया, लेकिन व्यवहार में हर AI वीडियो हानिकारक नतीजे पैदा करता है
    • प्रत्यक्ष नुकसान: झूठी जानकारी, किसी और का रूप धरना, संवेदनशील समूहों के साथ हेरफेर
    • परोक्ष नुकसान: पूरे visual media पर से भरोसे का खत्म होना
  • लेखक इस निष्कर्ष पर पहुँचता है कि “निर्दोष लगने वाले AI वीडियो भी भरोसे के टूटने को तेज़ करते हैं”

निष्कर्ष: रचनात्मक बाधा से भरोसे की बाधा तक

  • AI वीडियो अब दुर्भावनापूर्ण उद्देश्यों के लिए बेहद प्रभावी तकनीक के रूप में स्थापित हो चुके हैं
  • जिन तकनीकी सीमाओं को पार करने की उम्मीद creators कर रहे थे, वे अब भी मौजूद हैं,
    और अब ‘भरोसे की बाधा’ नाम की एक और बड़ी समस्या पैदा हो गई है
  • भरोसे का यह टूटना ऐसी समस्या है जिसकी मरम्मत करना कहीं अधिक कठिन होगा

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.