विशेष प्रतिनिधी
नवी दिल्ली : डीपफेकबाबत सरकार नवीन नियम आणत आहे. केंद्रीय मंत्री राजीव चंद्रशेखर यांनी आज म्हणजेच 16 जानेवारीला डीपफेकवर 2 बैठका घेतल्याचे सांगितले. चुकीची माहिती आणि डीपफेकबाबत नवीन आयटी नियमांमध्ये मोठ्या तरतुदी आहेत. त्याचे पालन सर्वांनी करणे बंधनकारक आहे, अन्यथा कारवाई केली जाईल. नवीन IT नियम 7-8 दिवसात अधिसूचित केले जातील.New rules against deepfakes coming in 7 days; Action can be taken against social media companies
यापूर्वी 23 नोव्हेंबर रोजी केंद्रीय मंत्री अश्विनी वैष्णव यांनी ‘डीपफेक लोकशाहीसाठी नवा धोका म्हणून समोर आला आहे’ असे म्हटले होते. केंद्रीय मंत्री म्हणाले की सर्व सोशल मीडिया प्लॅटफॉर्मने डीपफेकचा धोका आणि त्याचे गांभीर्य स्वीकारले आहे. डीपफेकचे निर्माते आणि ते होस्ट करणाऱ्या प्लॅटफॉर्मची जबाबदारी निश्चित केली जाईल, असे वैष्णव म्हणाले होते.
पीएम मोदी आणि सचिन तेंडुलकरचा डीपफेक व्हिडिओ
पंतप्रधान नरेंद्र मोदी यांनीही डीपफेकवर चिंता व्यक्त केली आहे. त्यांचा एक डीपफेक व्हिडिओ समोर आला होता. नुकताच माजी क्रिकेटपटू सचिन तेंडुलकरचा एक डीपफेक व्हिडिओ व्हायरल झाला होता. यामध्ये तो ‘स्कायवर्ड एव्हिएटर क्वेस्ट’ या गेमिंग अॅपची जाहिरात करताना दाखवण्यात आला होता. सचिन म्हणाला होता- हा व्हिडीओ खोटा असून फसवण्यासाठी बनवला आहे.
रश्मिका मंदान्नाचा डीपफेक व्हिडिओ झाला होता व्हायरल
गेल्या वर्षी नोव्हेंबरमध्ये, रश्मिका मंदान्नाचा एक डीपफेक व्हिडिओ सोशल मीडियावर व्हायरल झाला होता, ज्यामध्ये रश्मिकाचा चेहरा एआय तंत्रज्ञानाचा वापर करून एन्फ्लुएन्सरच्या चेहऱ्यावर सुबकपणे मॉर्फ करण्यात आला होता. सोशल मीडियावर हजारो लोकांनी रश्मिकाचा हा फेक व्हिडिओ खरा मानला कारण त्यात दिसणारे एक्सप्रेशन अगदी खरे वाटत होते.
मात्र, ही महिला रश्मिका नसून झारा पटेल नावाची मुलगी होती, जिचा चेहरा बदलून रश्मिकाचा चेहरा त्यावर लावला होता. डीपफेक व्हिडिओ व्हायरल झाल्यानंतर एएलटी न्यूजच्या पत्रकाराने याचा खुलासा केला होता.
डीपफेक म्हणजे काय ?
डीपफेक हा शब्द पहिल्यांदा 2017 मध्ये वापरला गेला. त्यानंतर अमेरिकेच्या सोशल न्यूज एग्रीगेटर रेडिटवर डीपफेक आयडी असलेल्या अनेक सेलिब्रिटींचे व्हिडिओ पोस्ट केले गेले. त्यात एम्मा वॉटसन, गॅल गॅडॉट, स्कारलेट जोहानसन या अभिनेत्रींचे अनेक पॉर्न व्हिडिओ होते.
खऱ्या व्हिडिओ, फोटो किंवा ऑडिओमध्ये दुसऱ्याचा चेहरा, आवाज आणि हावभाव फिट करणे याला डीपफेक म्हणतात. हे इतके स्पष्टपणे घडते की कोणीही त्यावर विश्वास ठेवू शकेल. यामध्ये नकली देखील खऱ्यासारखे दिसते.
यामध्ये मशीन लर्निंग आणि आर्टिफिशियल इंटेलिजन्सची मदत घेतली जाते. यामध्ये तंत्रज्ञान आणि सॉफ्टवेअरच्या मदतीने व्हिडिओ आणि ऑडिओ तयार केले जातात.
एआय आणि सायबर तज्ञ पुनीत पांडे म्हणतात की आता तंत्रज्ञान वापरण्यासाठी तयार आहे आणि पॅकेजेस उपलब्ध आहेत. आता कोणीही वापरू शकतो. सध्याच्या तंत्रज्ञानात आवाजही सुधारला आहे. यामध्ये व्हॉईस क्लोनिंग अत्यंत धोकादायक बनले आहे.
To be published, comments must be reviewed by the administrator.*
Our website uses cookies to improve your experience. Learn more
Download App