भारत के चुनावी मौसम के दौरान बॉलीवुड सितारों की छवियों में हेरफेर करने के लिए डीपफेक तकनीक के उपयोग को लेकर चिंताएं सामने आई हैं। डिजिटल रूप से परिवर्तित इन वीडियो के उद्भव ने चुनावी प्रक्रिया में एआई हस्तक्षेप की संभावना के बारे में चिंताएं बढ़ा दी हैं। रिपोर्टों के अनुसार, बॉलीवुड हस्तियों के डीपफेक वीडियो सोशल मीडिया प्लेटफॉर्म पर प्रसारित होने लगे हैं, जिससे गलत सूचना और हेरफेर की आशंका पैदा हो गई है। कृत्रिम बुद्धिमत्ता का उपयोग करके बनाए गए इन वीडियो में मशहूर हस्तियों को राजनीतिक दलों का समर्थन करते या विवादास्पद बयान देते हुए दिखाया गया है।
आमिर खान और रणवीर सिंह, दो अन्य भारतीय बॉलीवुड अभिनेता, 30-सेकंड के दो वीडियो में कथित तौर पर प्रधान मंत्री मोदी की उनके दो कार्यकालों के दौरान अभियान के वादों को पूरा नहीं करने और महत्वपूर्ण आर्थिक चुनौतियों को हल करने की उपेक्षा करने के लिए आलोचना करते हुए दिखाए गए हैं।
“न्याय के लिए वोट करें, कांग्रेस के लिए वोट करें” अभियान का नारा और कांग्रेस का चुनाव प्रतीक है जो एआई-जनित दोनों वीडियो का समापन करता है। रॉयटर्स के विश्लेषण के अनुसार, पिछले हफ्ते से, दोनों वीडियो को सोशल मीडिया पर 500,000 से अधिक बार देखा गया है।
डीपफेक सामग्री के प्रसार ने चुनाव अधिकारियों और साइबर सुरक्षा विशेषज्ञों के बीच चिंता पैदा कर दी है, जो एआई-जनित गलत सूचना से उत्पन्न जोखिमों के बारे में चेतावनी देते हैं। ऐसी चिंताएँ हैं कि ये हेरफेर किए गए वीडियो जनता की राय को प्रभावित कर सकते हैं और मतदाताओं के व्यवहार को प्रभावित कर सकते हैं।
जैसे-जैसे भारत आगामी चुनावों की तैयारी कर रहा है, अधिकारी डीपफेक सामग्री के प्रसार से निपटने की चुनौती से जूझ रहे हैं। एआई हेरफेर के खतरों के बारे में जागरूकता बढ़ाने और नकली वीडियो के प्रसार का पता लगाने और उसका प्रतिकार करने के लिए रणनीति विकसित करने के प्रयास चल रहे हैं।
Leave a comment