• Download App
    AI-Generated Nude Photo खासदाराचा धक्कादायक प्रयोग: स्वतःचा एआय-

    AI-Generated Nude Photo : खासदाराचा धक्कादायक प्रयोग: स्वतःचा एआय-निर्मित न्यूड फोटो संसदेत दाखवत डिपफेकचा धोका उघड

    AI-Generated Nude Photo

    विशेष प्रतिनिधी

    न्यूझीलंड : AI-Generated Nude Photo आर्टिफिशियल इंटेलिजन्स (AI) आणि डिपफेक तंत्रज्ञानामुळे महिलांच्या प्रतिमेचा कसा गैरवापर होऊ शकतो, हे समजावून देण्यासाठी न्यूझीलंडच्या महिला खासदार लॉरा मॅक्लर यांनी एक धक्कादायक पाऊल उचलले. त्यांनी संसदेत स्वतःचा एआय-निर्मित न्यूड फोटो दाखवून एआयच्या वापरातून निर्माण होणाऱ्या गंभीर समस्यांकडे लक्ष वेधले.AI-Generated Nude Photo

    लॉरा मॅक्लर म्हणाल्या, “हा माझा फोटो आहे, पण तो खरा नाही. मला तो तयार करण्यासाठी पाच मिनिटांपेक्षा कमी वेळ लागला.” त्यांनी सांगितले की, हा फोटो एका वेबसाइटवरून गूगल सर्चच्या सहाय्याने सहज बनवता आला. हेच दाखवण्यासाठी त्यांनी तो थेट संसदेत सादर केला.

    त्यांच्या म्हणण्यानुसार, समस्या तंत्रज्ञानात नाही, तर त्याच्या चुकीच्या वापरात आहे. डिपफेक तंत्रज्ञानाचा गैरवापर करून महिलांना लक्ष्य केले जाते आणि त्यांच्यावर मानसिक अत्याचार होतो. त्यामुळे डिपफेक आणि एआयवरील नियंत्रणासाठी कायदा आणण्याची आवश्यकता असल्याचे त्यांनी ठासून सांगितले.



    लॉरा मॅक्लर यांनी ‘डिपफेक डिजिटल हार्म अँड एक्सप्लॉइटेशन विधेयक’ या कायद्याच्या समर्थनार्थ संसदेत भाषण दिले. त्या म्हणाल्या, “न्यूझीलंडमध्ये डिपफेकविरोधात कोणताही ठोस कायदा नाही, केवळ काही डिजिटल नियम आहेत. पण हे अपुरे आहेत. आपल्याला कायद्यांमध्ये लवकरात लवकर बदल करून डिपफेकला गुन्हा ठरवावे लागेल.”

    १४ मे रोजी त्यांनी केलेले हे भाषण सध्या सोशल मीडियावर प्रचंड व्हायरल झाले आहे. न्यूझीलंडमधील तज्ज्ञांचं म्हणणं आहे की, बहुतांश डिपफेक पॉर्न हे महिलांच्या संमतीशिवाय तयार केले जातात. ही थेट छळाची बाब असून, अशा प्रकारांवर कठोर कारवाई व्हायला हवी.

    डिपफेक वेबसाईट्सवर केवळ एक बॉक्स क्लिक करून आपण १८ वर्षांवरील आहोत आणि फोटोमधील व्यक्तीची संमती आहे असे खोटे प्रमाणित करता येते, याकडेही लॉरा यांनी लक्ष वेधले. बहुतांश प्रकरणांमध्ये अशी संमती घेतली जात नाही. तब्बल ९० टक्के महिलांच्या फोटोचा चुकीच्या पद्धतीने वापर केला जात असल्याचेही त्यांनी स्पष्ट केले.

    दरम्यान, अमेरिकेचे माजी राष्ट्राध्यक्ष डोनाल्ड ट्रम्प यांनी मे महिन्यात ‘टेक इट डाऊन कायदा’ मंजूर केला. या कायद्यानुसार, कोणत्याही व्यक्तीच्या संमतीशिवाय तिचा फोटो वापरणे हे गुन्हा ठरेल. पीडितेच्या मागणीवरून अशा फोटो/व्हिडिओजना ४८ तासांत सोशल मीडिया प्लॅटफॉर्मवरून हटवावे लागेल.

    भारतामध्ये देखील नोव्हेंबर २०२४ मध्ये अभिनेत्री रश्मिका मंदाना हिचा डिपफेक व्हिडिओ मोठ्या प्रमाणावर व्हायरल झाला होता, ज्यामुळे डिपफेकचा धोका भारतातही गंभीरपणे समोर आला होता.

    MP’s Shocking Experiment: Reveals Threat of Deepfakes by Showing AI-Generated Nude Photo of Himself in Parliament

    महत्वाच्या बातम्या

    Related posts

    Scientists flee America : 80 वर्षांत पहिल्यांदाच शास्त्रज्ञांचे अमेरिकेतून पलायन; ट्रम्प यांनी संशोधन निधी कमी केला

    Pakistani documents : पाकिस्तानी कागदपत्रांचा दावा- भारताने आणखी अनेक ठिकाणे नष्ट केली, पण याबद्दल माहिती दिली नाही

    Trump’s :ट्रम्प यांचा मोठा निर्णय! आता ‘या’ १२ देशांतील लोक अमेरिकेत प्रवास करू शकणार नाहीत