न्यूजीलैंड में MP ने संसद में अपनी न्यूड फोटो दिखाई:कहा- इसे बनाने में सिर्फ 5 मिनट लगे, देश में डीपफेक को लेकर कानून बने

0
114

न्यूजीलैंड की महिला सांसद लॉरा मैक्लर ने 14 मई को संसद में अपनी एक AI-जनरेटेड न्यूड तस्वीर दिखाई। उनका मकसद लोगों को ये बताना था कि ऐसी फर्जी तस्वीरें बनाना कितना आसान है और ये कितना खतरनाक हो सकता हैं। लॉरा ने संसद में कहा कि उन्होंने एक गूगल सर्च के जरिए मिली वेबसाइट का इस्तेमाल करके कुछ ही मिनटों में अपनी डीपफेक तस्वीर बना ली। उन्होंने डीपफेक और AI को नियंत्रित करने के लिए कानून की मांग की है। उन्होंने कहा- यह मेरी न्यूड तस्वीर है, लेकिन यह असली नहीं है। मुझे ऐसी डीपफेक तस्वीरें बनाने में पांच मिनट से भी कम समय लगा। लॉरा ने कहा, “समस्या तकनीक में नहीं है, बल्कि इसका गलत इस्तेमाल करके लोगों को परेशान करने में है। हमें इसका हल निकालना होगा।” डीपफेक की ज्यादातर शिकार महिलाएं न्यूजीलैंड में अभी डीपफेक को सीधे तौर पर नियंत्रित करने वाला कोई कानून नहीं है, हालांकि डिजिटल संचार से संबंधित कुछ नियम जरूर हैं। लॉरा डीपफेक डिजिटल हार्म एंड एक्सप्लॉइटेशन बिल का समर्थन कर रही हैं, जो रिवेंज पोर्न और निजी रिकॉर्डिंग से संबंधित मौजूदा कानूनों को अपडेट करेगा। इसके तहत बिना मर्जी के डीपफेक बनाना या साझा करना अपराध होगा। न्यूजीलैंड के विशेषज्ञों का कहना है कि ज्यादातर डीपफेक पोर्न बिना सहमति के बनाए जाते हैं और इनका निशाना ज्यादातर महिलाएं होती हैं। लॉरा को उम्मीद है कि उनका यह कदम कानूनी सुधारों को तेज करेगा। उन्होंने कहा, “किसी को भी बिना सहमति के डीपफेक पोर्न का निशाना नहीं बनना चाहिए। यह साफ तौर पर उत्पीड़न है। हमारे कानूनों को जल्दी अपडेट करने की जरूरत है।” डीपफेक वीडियो में 90 से 95% अश्लील कंटेंट लॉरा मैक्लर ने बताया कि डीपफेक फोटो बनाने के लिए आपको बस एक बॉक्स में टिक करके यह कहना होता है कि आप 18 वर्ष से अधिक उम्र के हैं और फोटो में मौजूद व्यक्ति की सहमति आपके पास है। हालांकि अधिकांश मामलों में सहमति नहीं ली जाती। लॉ एसोसिएशन के अनुसार ऑनलाइन डीपफेक वीडियो में 90 से 95% गैर-सहमति आधारित अश्लील कंटेंट होते है। इनमें से लगभग 90% में महिलाओं को गलत तरीके से दिखाया जाता है। मैक्लर ने कहा कि उनसे कई लोग संपर्क कर चुके हैं जो डीपफेक से जुड़ी धमकी या सेक्सटॉर्शन से प्रभावित हुए हैं। उन्होंने कहा कि इसका विशेष रूप से युवाओं पर गंभीर मानसिक प्रभाव पड़ा है। मैक्लर कानून में बदलाव करना चाहती हैं ताकि डीपफेक के निर्माण और साझा करने पर प्रतिबंध लगाया जा सके। मैक्लर के बिल को आधिकारिक सरकारी कानून के रूप में मान्यता देने पर एक प्रवक्ता ने हेराल्ड से कहा कि सरकार वर्तमान में इस पर विचार नहीं कर रही है। लॉरा मैक्लर के बिल की खास बातें अमेरिका में बिना सहमति फोटो यूज करना अपराध अमेरिकी राष्ट्रपति डोनाल्ड ट्रम्प ने मई में टेक इट डाउन एक्ट पर हस्ताक्षर किए, जिसके तहत किसी व्यक्ति की सहमति के बिना उसकी फोटो को यूज करना अपराध होगा। ये नियम पीड़ितों के अनुरोध पर सोशल मीडिया प्लेटफॉर्म्स को 48 घंटे के भीतर ऐसी तस्वीरों को हटाने के लिए बाध्य करता है। कई भारतीय हस्तियां भी डीपफेक का शिकार हुईं रश्मिका मंदाना सोशल मीडिया पर नवंबर 2024 में एक्ट्रेस रश्मिका मंदाना का एक डीपफेक वीडियो सोशल मीडिया पर वायरल हआ था, जिसमें AI टेक्नोलॉजी से एक इन्फ्लूएंसर के चेहरे पर रश्मिका का चेहरा मॉर्फ किया गया था। सोशल मीडिया पर हजारों लोगों ने रश्मिका के इस फेक वीडियो को असली समझ लिया क्योंकि उसमें चेहरे के एक्सप्रेशन बिल्कुल रियल लग रहे थे। प्रियंका चोपड़ा अभिनेत्री प्रियंका चोपड़ा को दिसंबर 2023 में एक वीडियो में एक ब्रांड का प्रचार करते और अपनी वार्षिक आय का खुलासा करते हुए देखा गया। वीडियो में प्रियंका का चेहरा नहीं बदला गया था। हालांकि उनकी आवाज और मूल वीडियो की लाइन के ऑडियो को एक नकली ब्रांड विज्ञापन से बदल दिया गया था। आलिया भट्ट आलिया भट्ट दो बार डीपफेक का शिकार हो चुकी हैं। डीपफेक वीडियो में आलिया भट्ट को ब्लैक कुर्ता में रेडी होते दिखाया गया था। पूरे क्लिप में वो कैमरे के सामने मेकअप करती नजर आ रही थीं। आलिया भट्ट के अलावा इंफोसिस के संस्थापक नारायण मूर्ति, क्रिकेटर सचिन तेंदुलकर, अभिनेत्री और डांसर नोरा फतेह और विराट कोहली भी डीपफेक का शिकार हो चुके है। डीपफेक होता क्या है और कैसे बनाया जाता है? डीपफेक शब्द पहली बार 2017 में यूज किया गया था। तब अमेरिका के सोशल न्यूज एग्रीगेटर Reddit पर डीपफेक आईडी से कई सेलिब्रिटीज के वीडियो पोस्ट किए गए थे। इसमें एक्ट्रेस एमा वॉटसन, गैल गैडोट, स्कारलेट जोहानसन के कई पोर्न वीडियो थे। किसी रियल वीडियो, फोटो या ऑडियो में दूसरे के चेहरे, आवाज और एक्सप्रेशन को फिट कर देने को डीपफेक नाम दिया गया है। ये इतनी सफाई से होता है कि कोई भी यकीन कर ले। इसमें फेक भी असली जैसा लगता है। इसमें मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है। इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से बनाया जाता है। AI और साइबर एक्सपर्ट पुनीत पांडे बताते हैं कि अब रेडी टु यूज टेक्नोलॉजी और पैकेज उपलब्ध है। अब इसे कोई भी उपयोग कर सकता है। वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है। इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है। भारत में डीपफेक को लेकर नियम ———————— ये खबर भी पढ़ें… पाकिस्तान में टिकटॉक स्टार सना की बर्थडे पर हत्या:घर में घुसकर गोली मारी, मेहमान बनकर आया था हमलावर; गिरफ्तार पाकिस्तान में सोशल मीडिया इन्फ्लुएंसर सना यूसुफ की उनके ही घर में गोली मारकर हत्या कर दी गई है। घटना इस्लामाबाद के जी-13 इलाके में हुई। गोली मारने के बाद हमलावर फरार हो गया। पूरी खबर पढ़ें…

LEAVE A REPLY

Please enter your comment!
Please enter your name here