“मैं आहत हूँ” डीपफेक विडियो पर छलका रश्मिका मंदाना का दर्द

रश्मिका मंदाना डीपफेक

रश्मिका मंदाना, जो एक प्रसिद्ध अभिनेत्री हैं, हाल ही में दुर्भाग्यवश डीपफेक तकनीक का शिकार बन गई हैं। यह डिजिटल हेरफेर की तकनीक असली वीडियो में बदलाव कर, एक नकली वीडियो बनाती है। अभी रश्मिका मंदाना की एक नकली वीडियो सामने आई है, जिसने इंटरनेट पर फैल रहे इस तरह के फर्जी सामग्री से निपटने के लिए कानूनी और नियामकीय उपायों की तत्काल जरूरत को उजागर किया है।

जो विवादास्पद वीडियो विभिन्न सोशल मीडिया मंचों पर तेजी से फैल रहा है, उसमें रश्मिका मंदाना एक लिफ्ट में प्रवेश करती देखी जा सकती हैं। वीडियो में रश्मिका एक कामोत्तेजक परिधान पहने हुए है, जिसमें उनके स्तनों का एक बड़ा भाग दिख रहा है। इस कारण यह वीडियो वायरल हो गयी, और अकेले X पर 2.4 मिलियन से अधिक बार देखा गया।

हालांकि, गहन जांच पड़ताल के बाद, यह पता चला है कि यह वीडियो असली नहीं है बल्कि डीपफेक तकनीक की रचना है, जो किसी एक व्यक्ति की समानता को दूसरे पर चढ़ा कर असली दिखने वाली वीडियो बना सकती है। इस घटना से ऐसी तकनीकी दुरुपयोग की संभावित क्षति प्रकाश में आई है, खासकर सार्वजनिक हस्तियों के लिए। डीपफेक के प्रसार को संबोधित करने के लिए एक कानूनी ढांचे की तत्काल आवश्यकता है, ताकि व्यक्तियों को अनचाहे डिजिटल खतरे से बचाया जा सके।

डीपफेक तकनीक वीडियो संपादन और AI में एक महत्वपूर्ण छलांग है, जो अत्यंत असली वीडियो बनाने में मदद करती है। मशीन लर्निंग और फेस मैपिंग का उपयोग करते हुए, डीपफेक मानवीय चित्रों और आवाजों को बड़ी सटीकता के साथ प्रदर्शित करते हैं। यह लक्षित व्यक्तियों की उपस्थिति, चाल और भाषण पैटर्न की नकल करने के लिए बड़ी मात्रा में डेटा के साथ एल्गोरिदम्स, आम तौर पर जेनरेटिव एडवर्सरियल नेटवर्क्स (GANs), की ट्रेनिंग द्वारा की जाती है।

जहां डीपफेक मनोरंजन और शिक्षा जैसे क्षेत्रों में क्रांति लाने की संभावना रखती है, वहीं यह गहरी नैतिक और सामाजिक चिंताओं को भी उत्पन्न करती है। झूठी प्रस्तुतियाँ बनाने की इसकी क्षमता से गलत सूचना, प्रतिष्ठा को हानि, और डिजिटल मीडिया में विश्वास के कम होने का खतरा है। मान लीजिये किसी डीपफेक एडिटर ने किसी नेता की रिश्वत लेती हुई विडियो बना दी, ऐसे में तो राजनीति में, तो डीपफेक चुनाव की दशा और दिशा ही मोड़ सकती है.

असली सामग्री के साथ बिना किसी ख़ास अंतर के मिल जाने की डीपफेक्स की क्षमता, डिजिटल मीडियम में प्राइवेसी और कंसेंट के कानून की धज्जियां उड़ाती हुई दिखती हैं। डीपफेक्स के प्रसार को रोकने के तरीकों की तलाश जारी है, जिनमें प्रमुख है डिजिटल वॉटरमार्किंग और आइडेंटिटी सॉफ्टवेयर। हालांकि, तकनीक के लगातार विकसित होने के साथ, नकली सामग्री को असली फुटेज से अलग कर पाना और भी कठिन होता जा रहा है, जिससे डिजिटल युग में मीडिया साक्षरता की आवश्यकता और भी महत्वपूर्ण हो जाती है।

रश्मिका मंदाना ने खुद ट्विटर पर अपनी चिंता व्यक्त की। उन्होंने कहा:

“मुझे सच में दुःख हो रहा है यह साझा करते हुए और इस बात पर चर्चा करते हुए कि मेरा डीपफेक वीडियो ऑनलाइन फैलाया जा रहा है।

इस तरह की चीज़ें सच में, बहुत डरावनी हैं न सिर्फ मेरे लिए, बल्कि हम सभी के लिए जो आज प्रौद्योगिकी के गलत इस्तेमाल की वजह से डरे हुए हैं।

आज, एक महिला और एक अभिनेता के रूप में, मैं अपने परिवार, दोस्तों और शुभचिंतकों के लिए आभारी हूँ जो मेरी सुरक्षा और समर्थन स्तम्भ हैं। लेकिन अगर यह मेरे साथ स्कूल या कॉलेज में होता, तो मैं सच में नहीं सोच सकती कि मैं इसका सामना कैसे कर पाती।

हमें एक समुदाय के रूप में इसका सामना करना है।”

दिग्गज अभिनेता अमिताभ बच्चन ने डीपफेक्स पर चिंता जताते हुए विवादास्पद वीडियो को शेयर किया और उन्होंने अपने ट्विटर अकाउंट पर कानूनी हस्तक्षेप की जरूरत पर बल दिया। बच्चन ने तुलना के लिए ब्रिटिश भारतीय ज़रा पटेल का असली वीडियो पोस्ट करके मुद्दे को और स्पष्ट किया। एक साथ देखने पर, डीपफेक और मूल वीडियो में अंतर स्पष्ट है। असली क्लिप में, एक अप्रवासी भारतीय ज़रा पटेल को स्पष्ट रूप से लिफ्ट में प्रवेश करते हुए देखा जा सकता है। हालांकि, फुटेज अचानक बदलती है, कुशलता से पटेल के चेहरे की जगह रश्मिका मंदाना का चेहरा लगा दिया जाता है।

डीपफेक वीडियो की पहचान:

डीपफेक वीडियो की पहचान अक्सर सूक्ष्म अवलोकन और कभी-कभी सॉफ़्टवेयर के उपयोग से की जा सकती है। यहाँ कुछ सुझाव और तकनीकें दी गई हैं जिनसे आप डीपफेक को पहचान सकते हैं:

अनियमितताओं की जाँच करें: प्रकाश में अनियमितताएं, धुंधले क्षेत्र, या चेहरे की विशेषताओं को देखें जो सही ढंग से संरेखित नहीं होतीं। प्राकृतिक भौतिकी का पालन न करने वाली छायाएं और परावर्तन स्पष्ट संकेत हो सकते हैं।

चेहरे की विसंगतियां: आंखों और होंठों पर ध्यान केंद्रित करें। डीपफेक अक्सर पलक झपकने की सटीकता को ठीक से नहीं दिखा पाते और आँखों की असामान्य गतिविधियां पैदा करते हैं। होंठों की सिंकिंग में प्रॉब्लम या असामान्य चेहरे के भाव भी कभी कभी देखे जा सकते हैं।

त्वचा की बनावट: त्वचा की बनावट बहुत चिकनी प्रतीत हो सकती है या प्राकृतिक रूप से प्रकाश को रिफ्लेक्ट  करने में विफल रहती है। गर्दन के क्षेत्र में या जहां चेहरा बालों से मिलता है, वहां की त्वचा के टोन या बनावट में संक्रमण की समस्याएं देखें।

ऑडियो अनियमितताएं: आवाज के पैटर्न, टोन, या गुणवत्ता में किसी भी विसंगतियों के लिए सावधानी से सुनें जो हेरफेर को इंगित कर सकती हैं।

डिजिटल पदचिह्न: वीडियो के स्रोत की जांच करें। वीडियो या स्रोतों की कमी असत्यता का संकेत दे सकती है।

डीपफेक पहचान उपकरण: डीपफेक्स का पता लगाने के लिए उपलब्ध सॉफ़्टवेयर का उपयोग करें। ये उपकरण अक्सर ऐसे सूक्ष्म संकेतों और पैटर्नों की तलाश करते हैं जो मनुष्य अक्सर छोड़ देते हैं।

महत्वपूर्ण परीक्षण: संभावित रूप से सनसनीखेज या संदिग्ध सामग्री देखते समय संशयात्मक मानसिकता अपनाएं। फुटेज के संदर्भ और संभावना पर विचार करें।

सचेत रहना महत्वपूर्ण है, अक्सर सबसे प्रभावी उपकरण आपकी आंख ही होती है।

Exit mobile version