न्यूजीलैंड में MP ने संसद में अपनी न्यूड फोटो दिखाई:कहा- ये AI से 5 मिनट में बनी, डीपफेक रोकने के लिए कानून बने
✅संसद में अपनी AI-जनरेटेड फोटो दिखातीं लॉरा मैक्लर।
न्यूजीलैंड की महिला सांसद लॉरा मैक्लर ने संसद में अपनी एक AI-जेनरेटेड न्यूड तस्वीर दिखाई। उनका मकसद लोगों को ये बताना था कि ऐसी फर्जी तस्वीरें बनाना कितना आसान है और ये कितना खतरनाक हो सकता हैं।
लॉरा ने संसद में कहा कि उन्होंने एक गूगल सर्च के जरिए मिली वेबसाइट का इस्तेमाल करके कुछ ही मिनटों में अपनी डीपफेक तस्वीर बना ली। उन्होंने डीपफेक और AI को नियंत्रित करने के लिए कानून की मांग की है।
New Zealand MP Laura McClure courageously displayed a censored AI-generated deepfake nude image of herself in Parliament to highlight the dangers of unregulated deepfake technology. Created in just 5 minutes, she urges for stronger laws to combat digital harm. #Deepfake #AI… pic.twitter.com/xTQRJeARA8
— J.N (@JN_Araain) June 4, 2025
उन्होंने कहा-✍️
यह मेरी न्यूड तस्वीर है, लेकिन यह असली नहीं है। मुझे ऐसी डीपफेक तस्वीरें बनाने में पांच मिनट से भी कम समय लगा।
14 मई को लॉरा ने यह बातें कहीं थी, जो अब वायरल हो रही हैं। लॉरा ने कहा, “समस्या तकनीक में नहीं है, बल्कि इसका गलत इस्तेमाल करके लोगों को परेशान करने में है। हमें इसका हल निकालना होगा।”
लॉरा ने संसद में कहा था- मुझे खड़े होकर अपनी तस्वीर दिखाने में घिन आ रही है, जबकि मुझे पता है कि यह असल में मैं नहीं हूं।
डीपफेक की ज्यादातर शिकार महिलाएं
न्यूजीलैंड में अभी डीपफेक को सीधे तौर पर नियंत्रित करने वाला कोई कानून नहीं है, हालांकि डिजिटल संचार से संबंधित कुछ नियम जरूर हैं।
लॉरा डीपफेक डिजिटल हार्म एंड एक्सप्लॉइटेशन बिल का समर्थन कर रही हैं, जो रिवेंज पोर्न और निजी रिकॉर्डिंग से संबंधित मौजूदा कानूनों को अपडेट करेगा।
इसके तहत बिना मर्जी के डीपफेक बनाना या साझा करना अपराध होगा। न्यूजीलैंड के विशेषज्ञों का कहना है कि ज्यादातर डीपफेक पोर्न बिना सहमति के बनाए जाते हैं और इनका निशाना ज्यादातर महिलाएं होती हैं।
लॉरा को उम्मीद है कि उनका यह कदम कानूनी सुधारों को तेज करेगा। उन्होंने कहा, “किसी को भी बिना सहमति के डीपफेक पोर्न का निशाना नहीं बनना चाहिए। यह साफ तौर पर उत्पीड़न है। हमारे कानूनों को जल्दी अपडेट करने की जरूरत है।”
डीपफेक वीडियो में 90 से 95% अश्लील कंटेंट
लॉरा मैक्लर ने बताया कि डीपफेक फोटो बनाने के लिए आपको बस एक बॉक्स में टिक करके यह कहना होता है कि आप 18 वर्ष से अधिक उम्र के हैं और फोटो में मौजूद व्यक्ति की सहमति आपके पास है।
हालांकि अधिकांश मामलों में सहमति नहीं ली जाती। लॉ एसोसिएशन के अनुसार ऑनलाइन डीपफेक वीडियो में 90 से 95% गैर-सहमति आधारित अश्लील कंटेंट होते है। इनमें से लगभग 90% में महिलाओं को गलत तरीके से दिखाया जाता है।
मैक्लर ने कहा कि उनसे कई लोग संपर्क कर चुके हैं जो डीपफेक से जुड़ी धमकी या सेक्सटॉर्शन से प्रभावित हुए हैं। उन्होंने कहा कि इसका विशेष रूप से युवाओं पर गंभीर मानसिक प्रभाव पड़ा है।
मैक्लर कानून में बदलाव करना चाहती हैं ताकि डीपफेक के निर्माण और साझा करने पर प्रतिबंध लगाया जा सके। मैक्लर के बिल को आधिकारिक सरकारी कानून के रूप में मान्यता देने पर एक प्रवक्ता ने हेराल्ड से कहा कि सरकार वर्तमान में इस पर विचार नहीं कर रही है।
लॉरा मैक्लर के बिल की खास बातें
डिजिटल हानि, शोषण, अश्लीलता और आपत्तिजनक रिकॉर्डिंग से संबंधित कानूनों का विस्तार करेगा।
यह बिल पीड़ितों को नुकसानदायक सामग्री को हटाने और मुआवजे की मांग करेगा।
किसी के भी फोटो, वीडियो बिना अनुमति इस्तेमाल करना जुर्म होगा।
अमेरिका में बिना सहमति फोटो यूज करना अपराध
अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प ने मई में टेक इट डाउन एक्ट पर हस्ताक्षर किए, जिसके तहत किसी व्यक्ति की सहमति के बिना उसकी फोटो को यूज करना अपराध होगा। ये नियम पीड़ितों के अनुरोध पर सोशल मीडिया प्लेटफॉर्म्स को 48 घंटे के भीतर ऐसी तस्वीरों को हटाने के लिए बाध्य करता है।
कई भारतीय हस्तियां भी डीपफेक का शिकार हुईं
*रश्मिका मंदाना*
सोशल मीडिया पर नवंबर 2024 में एक्ट्रेस रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मॉर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें चेहरे के एक्सप्रेशन बिल्कुल रियल लग रहे थे।
रश्मिका मंदाना, एक एक्ट्रेस हैं जो मुख्य रूप से दक्षिण भारतीय फिल्मों में दिखाई देती हैं।
*प्रियंका चोपड़ा*
अभिनेत्री प्रियंका चोपड़ा को दिसंबर 2023 में एक वीडियो में एक ब्रांड का प्रचार करते और अपनी वार्षिक आय का खुलासा करते हुए देखा गया। वीडियो में प्रियंका का चेहरा नहीं बदला गया था। हालांकि उनकी आवाज और मूल वीडियो की लाइन के ऑडियो को एक नकली ब्रांड विज्ञापन से बदल दिया गया था।
प्रियंका चोपड़ा भारतीय एक्ट्रेस, मॉडल और फिल्म निर्माता हैं।
*आलिया भट्ट*
आलिया भट्ट दो बार डीपफेक का शिकार हो चुकी हैं। डीपफेक वीडियो में आलिया भट्ट को ब्लैक कुर्ता में रेडी होते दिखाया गया था। पूरे क्लिप में वो कैमरे के सामने मेकअप करती नजर आ रही थीं। आलिया भट्ट के अलावा इंफोसिस के संस्थापक नारायण मूर्ति, क्रिकेटर सचिन तेंदुलकर, अभिनेत्री और डांसर नोरा फतेह और विराट कोहली भी डीपफेक का शिकार हो चुके है।
आलिया भट्ट के चेहरे को दूसरी लड़की के फोटो पर लगाकर वायरल किया गया था।
*नरेंद्र मोदी*
एक वीडियो वायरल हुआ जिसमें प्रधानमंत्री नरेंद्र मोदी जैसा दिखने वाला एक व्यक्ति गरबा करते हुए दिखाई दिया था। इस वीडियो पर प्रतिक्रिया देते हुए प्रधानमंत्री मोदी ने इस बात पर जोर दिया कि डीपफेक समाज में अराजकता पैदा कर सकते हैं और नागरिकों तथा मीडिया से सतर्क रहने का आग्रह किया था।
इस फोटो में पीएम नरेंद्र मोदी को महिलाओं के साथ गरबा करते दिखाया गया था।
*सचिन तेंदुलकर*
सचिन तेंदुलकर का एक फेक वीडियो सोशल मीडिया पर वायरल हुआ था। जिसमें उन्हें एक ऑनलाइन गेम को बढ़ावा देते हुए दिखाया गया था। वीडियो में तेंदुलकर ने बेटी सारा का उदाहरण दिया जो गेम में भविष्यवाणियां करके प्रतिदिन 1.8 लाख रुपए कमा रही है। क्रिकेटर सचिन तेंदुलकर ने फर्जी वीडियो के खिलाफ शिकायत की थी।
सचिन तेंदुलकर का डीपफेक वीडियो जिसमें वह एक ऐप का प्रचार करते नजर दिखे थे।
डीपफेक होता क्या है और कैसे बनाया जाता है?
डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे।
किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है।
इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है।
AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है।
भारत में डीपफेक को लेकर नियम
डीपफेक कंटेंट मिलते ही कोई भी FIR करा सकता है। विक्टिम और उसकी तरफ से नियुक्त व्यक्ति को भी केस दर्ज कराने के अधिकार होंगे।
सोशल मीडिया प्लेटफॉर्म यूजर्स से यह शपथ लेगा कि वह डीपफेक कंटेंट नहीं डालेगा। प्लेटफॉर्म अपने यूजर्स को इस संबंध में अलर्ट मैसेज देंगे। सहमति के बाद ही यूजर अकाउंट एक्सेस कर सकेगा।
डीपफेक कंटेंट को 24 घंटे में हटाना होगा। जिस यूजर ने कंटेंट अपलोड किया है, उसका अकाउंट बंद कर सूचना दूसरे प्लेटफॉर्म को देनी होगी, ताकि आरोपी वहां अकाउंट न बना सके।