बिकनी वाली मॉडल को बना दिया अभिनेत्री रश्मिका मंदाना, वीडियो देख अमिताभ बच्चन भी भड़के
सोशल मीडिया पर एक वीडियो वायरल हो रहा है। इस वीडियो में एक स्विमसूट पहनी हुई एक लड़की लिफ्ट के भीतर घुसती है। जो भी इस वीडियो को देखेगा उसे ऐसा ही लगेगा कि ये अभिनेत्री रश्मिका मंदाना हैं। तेलुगु फिल्म ‘पुष्पा’ में अल्लू अर्जुन के साथ दिखने के बाद रश्मिका मंदाना जाना-पहचाना नाम बन गई हैं और हिंदी फिल्मों में आपने उन्हें ‘मिशन मजनू’ में सिद्धार्थ मल्होत्रा के साथ देखा होगा। रश्मिका मंदाना ने कन्नड़ फिल्म ‘किरिक पार्टी’ से फिल्मों में शुरुआत की थी, वहीं ‘वरिसु’ नाम तमिल फिल्म में उन्हें विजय के साथ देखा गया था।
ऐसे में लोगों को लगा कि इस वीडियो में रश्मिका मंदाना ही हैं। लेकिन, सचाई कुछ और है। असल में इस वीडियो में जो लड़की दिख रही है उसका नाम ज़ारा पटेल है। Deepfake नामक AI (आर्टिफिसियल इंटेलिजेंस) तकनीक का इस्तेमाल कर के इसे हूबहू रश्मिका मंदाना की तरह बना दिया गया है। ज़ारा पटेल एक ब्रिटिश-इंडियन इन्फ्लुएंसर हैं, जो अक्सर अंतरंग वस्त्रों में तस्वीरें और वीडियो अपलोड करती रहती हैं। इंस्टाग्राम पर उनके 4.32 लाख फॉलोवर्स हैं। वो डेटा इंजीनियर भी हैं।
वहाँ उन्हें बिकनी में कई तस्वीरें अपलोड कर रखी हैं। लेकिन, किसी ने उनके एक वीडियो का गलत इस्तेमाल किया और इसमें उनकी जगह रश्मिका मंदाना को दिखा दिया। अमिताभ बच्चन तक ने इस वीडियो का संज्ञान लिया और कहा कि इस पर कानूनी कार्रवाई की जानी चाहिए। केंद्रीय इलेक्ट्रॉनिक्स एवं टेक्नोलॉजी राज्यमंत्री राजीव चंद्रशेखर ने भी इस वीडियो पर प्रतिक्रिया देते हुए कहा कि प्रधानमंत्री नरेंद्र मोदी की सरकार इंटरनेट का इस्तेमाल कर रहे सभी डिजिटल नागरिकों की सुरक्षा एवं भरोसे को सुनिश्चित करने के लिए प्रतिबद्ध है।
उन्होंने कहा, “अप्रैल 2023 में जिन IT नियमों की अधिसूचना जारी की गई थी, उसके तहत सभी सोशल मीडिया प्लेटफॉर्म्स इसके लिए कानूनी रूप से बाध्य हैं कि किसी भी यूजर द्वारा कोई गलत सूचना न शेयर की जाए। साथ ही यूजर या सरकार द्वारा सूचित किए जाने के 36 घंटों के भीतर उन्हें भ्रामक सूचनाओं को हटाना है। अगर वो ऐसा नहीं करते हैं तो नियम-7 के तहत उन्हें कोर्ट में घसीटा जा सकता है। Deepfake गलत सूचनाओं का ताज़ा और खतरनाक चलन है, जिससे निपटना पड़ेगा।”
बता दें कि डीपफेक एक AI तकनीक है जिसका इस्तेमाल कर के डिजिटल रूप से किसी भी व्यक्ति के चेहरे या फिर शरीर के साथ छेड़छाड़ की जा सकती है। यानी, होगा कोई और लेकिन तस्वीर या वीडियो में वो दिखेगा कोई और। गलत सूचनाओं को प्रसारित करने के लिए इनका इस्तेमाल होता रहा है। इसमें AI के साथ-साथ मशीन लर्निंग तकनीक का इस्तेमाल भी किया जाता है। ये फोटोशॉपिंग से भी ऊपर की चीज है और कई बड़े देश के नेता इसका शिकार बने हैं।
Discover more from Voice Of Bihar
Subscribe to get the latest posts sent to your email.