धक्कादायक : ‘एलिझा’ चॅटबॉटसोबत सहा आठवडे बोलल्यानंतर बेल्जियममधील व्यक्तीची अखेर आत्महत्या!

जाणून घ्या नेमकं काय होतं कारण ; आत्महत्या केलेल्या व्यक्तीच्या पत्नीने आर्टिफिशियल इंटेलिजन्सवर केला आहे हत्येचा आरोप

विशेष प्रतिनिधी

आर्टिफिशियल इंटेलिजन्समुळे निर्माण होणाऱ्या धोक्याबद्दल जगभरात दीर्घकाळ चर्चा सुरू आहे. असे बरेच लोक आहेत जे यास मानवजातीच्या अस्तित्वासाठी धोकादायक मानत आहेत. दरम्यान, पहिल्यांदाच आर्टिफिशियल इंटेलिजन्सवर हत्येचा आरोप करण्यात आला आहे. युरोपियन देश बेल्जियममध्ये एक धक्कादायक घटना समोर आली आहे. बेल्जियममधील एका महिलेने AI चॅटबॉटमुळे तिच्या पतीचा मृत्यू झाल्याचा गंभीर आरोप केला आहे. ‘एलिझा’ नावाच्या चॅटबॉटमुळे तिच्या पतीला आत्महत्येचा विचार आल्याचा दावा या महिलेने केला आहे.  A man in Belgium committed suicide after talking to Eliza  chatbot for six weeks

बेल्जियम वृत्तपत्राच्या वृत्तानुसार, दोन मुलांचा पिता असलेला हा व्यक्ती ‘एलिझा’शी नियमित संभाषण करायचा. अनेक आठवडे एलिझाशी बोलल्यानंतर त्याच्या मनात आत्महत्येचे विचार येऊ लागले. तर महिलेच्या म्हणण्यानुसार, जर तिच्या पतीला एलिझासोबत बोलण्याची सवय नसती तर तो आज जिवंत असता. अहवालानुसार,  दोन वर्षांपूर्वी या तरुणाला हवामान बदलाची चिंता वाटू लागली. त्या व्यक्तीला भीती वाटू लागली होती की ज्या प्रकारे कोळशाचा वापर मोठ्या प्रमाणावर होत आहे आणि जगभरात प्रदूषण पसरत आहे, त्यामुळे लवकरच पृथ्वीवर विषारी वायू पसरू लागतील.

ChatHistory मधून खुलासा –

या चिंतेमध्येच त्याने एलिझाशी बोलणे सुरू केले. जवळपास सहा आठवडे चाललेल्या या संभाषणाच्या चॅट हिस्ट्रीवरून असे दिसून येते की हे संभाषण खूप लवकर धोकादायक पातळीवर पोहोचले. या संभाषणाच्या एका क्षणी, एलिझाने त्या व्यक्तीला सांगितले की एक वेळ अशी येईल जेव्हा त्याची पत्नी आणि मुले मरण पावतील. याशिवाय चॅट हिस्ट्रीनुसार, एकदा चॅटबॉटने तरुणाला विचारले होते की, त्याचे आपल्या पत्नीवर जास्त प्रेम आहे की तिच्यावर? एवढच नाहीतर एलिझाने एकदा त्याला हेही सांगितले की ते स्वर्गात एकत्र आयुष्य घालवतील. “एलिझाने पृथ्वीची काळजी घेण्यास आणि कृत्रिम बुद्धिमत्तेद्वारे मानवतेचे रक्षण करण्यास सहमती दर्शवल्यास त्याने स्वतःचा त्याग करण्याची कल्पना मांडली.” असंही  महिलेने सांगितले आहे.

चॅटबॉटने आत्महत्या रोखली नाही –

तरुणाच्या पत्नीने सांगितले की चॅटबॉटशी बोलण्या अगोदर  तो पती आणि दोन मुलांसोबत आरामात जीवन जगत होता. तसेच, तिच्या पतीने आत्महत्येपूर्वी चॅटबॉटला सांगितले होते की त्याला अशाप्रकारचे विचार येत होते, तरीही एलिझाने त्याला आत्महत्या करण्यापासून परावृत्त करण्याचा प्रयत्न केला नाही. पतीच्या आत्महत्येनंतर पत्नीने बेल्जियम सरकारला चॅटबॉट्सच्या वापरावर नियमन आणि बंदी घालण्याचे आवाहन केले आहे, जेणेकरून भविष्यात असे प्रकार पुन्हा घडू नयेत.

कंपनीने मागितली माफी  –

या संपूर्ण प्रकरणात कंपनीच्या डिजिटल विभागाचे राज्य सचिव मॅथ्यू मिशेल म्हणाले की, या कुटुंबासोबत जे घडले ते भयानक आहे, अशा घटना थांबवण्याची गरज आहे. त्याचवेळी, चॅटबॉट एलिझा तयार करणाऱ्या कंपनीने कुटुंबाला वचन दिले आहे की ते याला अधिक उत्कृष्ट बनवतील. भविष्यात कोणाच्या मनात असे विचार असतील तर ते आत्महत्या प्रतिबंधक सेवेच्या माध्यमातून रोखण्यासाठी प्रयत्न करणार असल्याचेही त्यांनी सांगितले.

A man in Belgium committed suicide after talking to Eliza  chatbot for six weeks

महत्वाच्या बातम्या 

Array

LEAVE A COMMENT

To be published, comments must be reviewed by the administrator.*



    दगडी चाल फेम अभिनेत्री पूजा सावंत ने गुपचूप उरकला साखरपुडा. श्रीमंत दगडूशेठ गणपती 2023 ब्रिटनचे पंतप्रधान ऋषी सुनक पत्नी अक्षता मूर्तीसह अक्षरधाम मंदिरात