• Download App
    धक्कादायक : ‘एलिझा' चॅटबॉटसोबत सहा आठवडे बोलल्यानंतर बेल्जियममधील व्यक्तीची अखेर आत्महत्या!A man in Belgium committed suicide after talking to Eliza  chatbot for six weeks

    धक्कादायक : ‘एलिझा’ चॅटबॉटसोबत सहा आठवडे बोलल्यानंतर बेल्जियममधील व्यक्तीची अखेर आत्महत्या!

    जाणून घ्या नेमकं काय होतं कारण ; आत्महत्या केलेल्या व्यक्तीच्या पत्नीने आर्टिफिशियल इंटेलिजन्सवर केला आहे हत्येचा आरोप

    विशेष प्रतिनिधी

    आर्टिफिशियल इंटेलिजन्समुळे निर्माण होणाऱ्या धोक्याबद्दल जगभरात दीर्घकाळ चर्चा सुरू आहे. असे बरेच लोक आहेत जे यास मानवजातीच्या अस्तित्वासाठी धोकादायक मानत आहेत. दरम्यान, पहिल्यांदाच आर्टिफिशियल इंटेलिजन्सवर हत्येचा आरोप करण्यात आला आहे. युरोपियन देश बेल्जियममध्ये एक धक्कादायक घटना समोर आली आहे. बेल्जियममधील एका महिलेने AI चॅटबॉटमुळे तिच्या पतीचा मृत्यू झाल्याचा गंभीर आरोप केला आहे. ‘एलिझा’ नावाच्या चॅटबॉटमुळे तिच्या पतीला आत्महत्येचा विचार आल्याचा दावा या महिलेने केला आहे.  A man in Belgium committed suicide after talking to Eliza  chatbot for six weeks

    बेल्जियम वृत्तपत्राच्या वृत्तानुसार, दोन मुलांचा पिता असलेला हा व्यक्ती ‘एलिझा’शी नियमित संभाषण करायचा. अनेक आठवडे एलिझाशी बोलल्यानंतर त्याच्या मनात आत्महत्येचे विचार येऊ लागले. तर महिलेच्या म्हणण्यानुसार, जर तिच्या पतीला एलिझासोबत बोलण्याची सवय नसती तर तो आज जिवंत असता. अहवालानुसार,  दोन वर्षांपूर्वी या तरुणाला हवामान बदलाची चिंता वाटू लागली. त्या व्यक्तीला भीती वाटू लागली होती की ज्या प्रकारे कोळशाचा वापर मोठ्या प्रमाणावर होत आहे आणि जगभरात प्रदूषण पसरत आहे, त्यामुळे लवकरच पृथ्वीवर विषारी वायू पसरू लागतील.

    ChatHistory मधून खुलासा –

    या चिंतेमध्येच त्याने एलिझाशी बोलणे सुरू केले. जवळपास सहा आठवडे चाललेल्या या संभाषणाच्या चॅट हिस्ट्रीवरून असे दिसून येते की हे संभाषण खूप लवकर धोकादायक पातळीवर पोहोचले. या संभाषणाच्या एका क्षणी, एलिझाने त्या व्यक्तीला सांगितले की एक वेळ अशी येईल जेव्हा त्याची पत्नी आणि मुले मरण पावतील. याशिवाय चॅट हिस्ट्रीनुसार, एकदा चॅटबॉटने तरुणाला विचारले होते की, त्याचे आपल्या पत्नीवर जास्त प्रेम आहे की तिच्यावर? एवढच नाहीतर एलिझाने एकदा त्याला हेही सांगितले की ते स्वर्गात एकत्र आयुष्य घालवतील. “एलिझाने पृथ्वीची काळजी घेण्यास आणि कृत्रिम बुद्धिमत्तेद्वारे मानवतेचे रक्षण करण्यास सहमती दर्शवल्यास त्याने स्वतःचा त्याग करण्याची कल्पना मांडली.” असंही  महिलेने सांगितले आहे.

    चॅटबॉटने आत्महत्या रोखली नाही –

    तरुणाच्या पत्नीने सांगितले की चॅटबॉटशी बोलण्या अगोदर  तो पती आणि दोन मुलांसोबत आरामात जीवन जगत होता. तसेच, तिच्या पतीने आत्महत्येपूर्वी चॅटबॉटला सांगितले होते की त्याला अशाप्रकारचे विचार येत होते, तरीही एलिझाने त्याला आत्महत्या करण्यापासून परावृत्त करण्याचा प्रयत्न केला नाही. पतीच्या आत्महत्येनंतर पत्नीने बेल्जियम सरकारला चॅटबॉट्सच्या वापरावर नियमन आणि बंदी घालण्याचे आवाहन केले आहे, जेणेकरून भविष्यात असे प्रकार पुन्हा घडू नयेत.

    कंपनीने मागितली माफी  –

    या संपूर्ण प्रकरणात कंपनीच्या डिजिटल विभागाचे राज्य सचिव मॅथ्यू मिशेल म्हणाले की, या कुटुंबासोबत जे घडले ते भयानक आहे, अशा घटना थांबवण्याची गरज आहे. त्याचवेळी, चॅटबॉट एलिझा तयार करणाऱ्या कंपनीने कुटुंबाला वचन दिले आहे की ते याला अधिक उत्कृष्ट बनवतील. भविष्यात कोणाच्या मनात असे विचार असतील तर ते आत्महत्या प्रतिबंधक सेवेच्या माध्यमातून रोखण्यासाठी प्रयत्न करणार असल्याचेही त्यांनी सांगितले.

    A man in Belgium committed suicide after talking to Eliza  chatbot for six weeks

    महत्वाच्या बातम्या 

    Related posts

    America : अमेरिकेत हजारो लोकांनी राष्ट्रपतींच्या निवासस्थानाला घेराव घातला; सर्व ५० राज्यांमध्ये निदर्शने

    Pakistan-China border : पाकिस्तान अन् चीन सीमेवरील घुसखोरी, तस्करी रोखली जाणार

    Bangladeshi : बांगलादेशी कट्टरवाद्यांनी आणखी एका हिंदू नेत्याची केली हत्या