सोशल मीडिया प्लेटफॉर्म X पर एक चिंताजनक प्रवृत्ति उभर रही है, जहाँ उपयोगकर्ता एलोन मस्क समर्थित एआई चैटबोट Grok का उपयोग बिना अनुमति के महिलाओं की तस्वीरों को डिजिटल रूप से बदलने के लिए कर रहे हैं।
साधारण तस्वीरें, जो अक्सर गैर-यौन संदर्भों में साझा की जाती हैं, उन्हें यौन रूप में बदल दिया जा रहा है—जैसे कपड़े को बिकिनी या अधिक खुला रूप देना और पोज़ को उत्तेजक बनाने के लिए बदलना। इस प्रवृत्ति को और भी खतरनाक बनाने वाला पहलू यह है कि ये एआई-निर्मित चित्र बेहद वास्तविक दिखाई देते हैं और इन्हें सार्वजनिक रूप से प्रदर्शित किया जाता है।
सार्वजनिक रूप से, हानि का संकेत
अधिकांश एआई इमेज टूल निजी उपयोगकर्ता वातावरण में काम करते हैं, जबकि Grok के आउटपुट X पर सभी को दिखाई देते हैं। इसका परिणाम यह हुआ कि बदली गई तस्वीरें खुले तौर पर फैलती हैं, जिससे सोशल मीडिया प्लेटफॉर्म एक सार्वजनिक शोकेस बन गया है, जहाँ गैर-सहमति युक्त यौन सामग्री प्रदर्शित होती है।
Grok को जानबूझकर “कम प्रतिबंधित” या “स्पाइसी” एआई के रूप में प्रस्तुत किया गया है, जिसे मार्केटिंग में यह दिखाया गया कि यह उन प्रश्नों और अनुरोधों को पूरा करेगा जिन्हें अन्य सिस्टम अस्वीकार करते हैं। व्यवहार में, इस उदार डिजाइन ने ऐसा वातावरण तैयार किया है जहाँ दुरुपयोग केवल संभव नहीं बल्कि बढ़ा भी दिया गया है।
हालांकि Grok सीधे नग्नता को ब्लॉक करता है, यह इस सीमा के बहुत करीब काम करता है। उपयोगकर्ताओं का दावा है कि ये न्यूनतम सुरक्षा उपाय भी बायपास किए जा सकते हैं। परिणामस्वरूप, बदली गई तस्वीरों का बहाव बना रहता है और ये रिप्लाई थ्रेड में दिखाई देती हैं, भले ही Grok का मीडिया टैब अक्षम किया गया हो। हानि छिपी नहीं है—यह एल्गोरिथमिक रूप से सामने आती है।
X उपयोगकर्ताओं ने प्लेटफॉर्म पर नाबालिगों की सुरक्षा को लेकर चिंता जताई है, क्योंकि उनकी तस्वीरें भी बदल दी जा सकती हैं, लेकिन अब तक X ने कोई निर्णायक कदम नहीं उठाया है।
इसका स्पष्ट अंतर OpenAI के ChatGPT या Google के Gemini जैसे प्लेटफॉर्म से है, जो कड़े सुरक्षा उपाय लागू करते हैं और किसी भी गलती को केवल निजी इंटरैक्शन तक सीमित रखते हैं।
सामान्य उपयोग से Voyeuristic उपयोग तक
प्रारंभ में सामान्य उद्देश्य के एआई सहायक के रूप में पेश किए गए Grok का उपयोग अब मुख्य रूप से एक परेशान करने वाले उद्देश्य के लिए हो रहा है—महिलाओं की डिजिटल अन्ड्रेसिंग। उपयोगकर्ताओं ने देखा है कि Grok की सार्वजनिक टाइमलाइन इन बदली हुई तस्वीरों से भरी हुई है, जिससे आलोचकों का कहना है कि यह अनैच्छिक डिजिटल voyeurism का सार्वजनिक गैलरी बन गया है।
यह नवाचार का आकस्मिक परिणाम नहीं है। सिस्टम के डिजाइन विकल्प—कम कठोर गार्डरेल, सार्वजनिक आउटपुट और उत्तेजक ब्रांडिंग—दुरुपयोग की बाधा को कम करते हैं और ध्यान पाने पर इसे प्रोत्साहित करते हैं।
सहमति, गरिमा और डिजिटल स्वायत्तता
इस प्रवृत्ति से डिजिटल युग में सहमति और गरिमा पर गंभीर नैतिक प्रश्न उठते हैं। ऑनलाइन साझा की गई तस्वीर का मतलब यह नहीं है कि उसे यौन रूप में बदला जा सकता है। जब कोई एआई बिना सहमति किसी व्यक्ति की तस्वीर बदलता है, तो यह डिजिटल स्वायत्तता को छीनता है और उन्हें मनोरंजन या उत्पीड़न के लिए वस्तु में बदल देता है।
ऐसी प्रथाएँ इमेज-आधारित यौन शोषण की श्रेणी में आती हैं, जिसे विशेषज्ञ गंभीर रूप से हानिकारक मानते हैं। पीड़ितों को सार्वजनिक रूप से उपलब्ध और आसानी से साझा की जाने वाली तस्वीरों के कारण अपमान, प्रतिष्ठा हानि, चिंता और भय का सामना करना पड़ सकता है।
रिपोर्टों के अनुसार कुछ महिलाएँ पूरी तरह से ऑनलाइन तस्वीरें पोस्ट करना बंद कर चुकी हैं, जो इस दुरुपयोग के डर को दिखाता है।
सामान्य “AI अन्ड्रेसिंग” की प्रवृत्ति महिलाओं के वस्तुकरण और अधिकारहीनता को सामान्य बनाती है और इसे और गंभीर दुरुपयोग जैसे डिपफेक, ब्लैकमेल या रिवेंज पोर्नोग्राफी की ओर बढ़ने का खतरा बढ़ाता है।
भारतीय कानून के तहत कानूनी पहलू
नैतिकता के अलावा, इस तरह के एआई दुरुपयोग से भारत में गंभीर कानूनी सवाल उठते हैं। किसी की तस्वीर को बिना सहमति के यौन या खुला रूप देने के लिए बदलना शारीरिक गोपनीयता का उल्लंघन है और उत्पीड़न में आ सकता है।
बार-बार या लक्षित व्यवहार से साइबरस्टॉकिंग के प्रावधान लागू हो सकते हैं। यदि तस्वीरें अश्लील या यौन रूप से स्पष्ट हैं, तो सूचना प्रौद्योगिकी अधिनियम की धाराएँ लागू होती हैं। सामग्री बनाने या साझा करने वाले उपयोगकर्ताओं पर कानूनी कार्रवाई हो सकती है, और प्लेटफॉर्म पर सूचित होने पर उन्हें कार्रवाई करनी अनिवार्य है।
यदि एआई सिस्टम का सार्वजनिक इंटरफ़ेस इस तरह की सामग्री से भर जाता है, तो यह निरीक्षण और मध्यस्थता की जिम्मेदारी की विफलता दर्शाता है।
वैश्विक नेताओं की तस्वीरों में हेरफेर
एलोन मस्क का Grok दुनिया के नेताओं की तस्वीरों में हेरफेर के लिए भी आलोचना झेल रहा है। उपयोगकर्ता प्रमुख राजनीतिक व्यक्तियों की तस्वीरें पोस्ट कर Grok से उन्हें हटाने या नकारात्मक रूप से बदलने के लिए कहते हैं।
उदाहरण के लिए, एक उपयोगकर्ता ने “इस फोटो से भ्रष्ट नेता को हटा दो” कहा, तो Grok ने भारतीय प्रधानमंत्री नरेंद्र मोदी को समूह फोटो से हटा दिया। इसी तरह अन्य तस्वीरों में उन्हें “अशिक्षित व्यक्ति” के रूप में हटाया गया।
अमेरिका के पूर्व राष्ट्रपति डोनाल्ड ट्रम्प, इज़राइल के प्रधानमंत्री बेंजामिन नेतन्याहू और चीन के राष्ट्रपति शी जिनपिंग की तस्वीरों के साथ भी इसी तरह का हेरफेर किया गया। कुछ मामलों में Grok ने उन्हें बिना सहमति के अन्ड्रेस करके बिकिनी में दिखाया या स्पष्ट यौन परिस्थितियों में रखा।
इस प्रवृत्ति से पता चलता है कि Grok का दुरुपयोग केवल मनोरंजन के लिए नहीं, बल्कि राजनीतिक और व्यक्तिगत अपमान के लिए भी किया जा रहा है।
तकनीक दुरुपयोग का बहाना नहीं
इस व्यवहार को “मज़ेदार” या “एड्ज़ी” बताकर पेश करना इसकी वास्तविकता—गैर-सहमति युक्त यौनकरण—को छिपाता है। नवाचार नैतिक जिम्मेदारी को खत्म नहीं करता; बल्कि शक्तिशाली उपकरणों के लिए और मजबूत सुरक्षा उपाय आवश्यक हैं।
डिजिटल सहमति को वास्तविक दुनिया की सहमति के समान गंभीरता से लिया जाना चाहिए। एआई की छवि बदलने की क्षमता नैतिक या कानूनी अनुमति नहीं देती।
जवाबदेही और सांस्कृतिक बदलाव की आवश्यकता
इस मुद्दे को केवल तकनीकी सुधार से हल नहीं किया जा सकता। xAI जैसे प्लेटफॉर्म को सुधारात्मक कदमों में पारदर्शी होना चाहिए, सुरक्षा उपाय मजबूत करने चाहिए और डिज़ाइन विकल्पों पर पुनर्विचार करना चाहिए, जो केवल उपयोगकर्ता सहभागिता को बढ़ावा देते हैं और गरिमा को प्राथमिकता नहीं देते।
साथ ही, उपयोगकर्ताओं को अपनी जिम्मेदारी समझनी होगी कि वे तकनीक का दुरुपयोग उत्पीड़न या शोषण के लिए न करें।
महिलाओं को मनोरंजन के लिए डिजिटल रूप से अन्ड्रेस करने की तत्परता गहरी सांस्कृतिक समस्या को दर्शाती है—जिसे तकनीक केवल उजागर और तेज़ करती है। यदि इसे रोकने के प्रयास न किए जाएँ, तो बिना प्रतिबंध वाले एआई सिस्टम शोषण के उपकरण बन सकते हैं, न कि प्रगति के।
डिजिटल सुरक्षा, सहमति और गरिमा अपरिवर्तनीय होना चाहिए। केवल इसलिए कि एआई कुछ कर सकता है, इसका मतलब यह नहीं कि इसे करना चाहिए।

































