No Legal Privacy Using ChatGPT for Therapy: Sam Altman

ChatGPT से थेरेपी लेना कितना सुरक्षित है? – OpenAI के CEO Sam Altman की चेतावनी

आज की डिजिटल दुनिया में आर्टिफिशियल इंटेलिजेंस (AI) ने हमारे जीवन के लगभग हर पहलू को छू लिया है। चाहे वो शिक्षा हो, मनोरंजन, या फिर कामकाज – AI हर जगह मौजूद है। इसी कड़ी में ChatGPT जैसे AI टूल ने लोगों के सवालों के जवाब देने से लेकर, भावनात्मक समर्थन देने तक का काम करना शुरू कर दिया है। खासकर युवा पीढ़ी ChatGPT को अपनी समस्याओं का सलाहकार या ‘डिजिटल थेरेपिस्ट’ मानकर इसका इस्तेमाल कर रही है। लेकिन क्या आप जानते हैं कि जब आप ChatGPT के साथ अपनी सबसे निजी बातों को साझा करते हैं, तो कानूनी तौर पर आपकी बातचीत गोपनीय नहीं होती?

इस बारे में OpenAI के CEO Sam Altman ने हाल ही में एक पॉडकास्ट में अपनी महत्वपूर्ण राय दी है। आइए जानते हैं उन्होंने क्या कहा और इससे हमें क्या सीखना चाहिए।

ChatGPT और थेरेपी: क्या है समस्या?

Sam Altman ने Theo Von के पॉडकास्ट “This Past Weekend w/ Theo Von” में यह बताया कि आज के समय में जब लोग ChatGPT से अपनी व्यक्तिगत और भावनात्मक समस्याओं के बारे में बात करते हैं, तो उन्हें यह समझना बेहद जरूरी है कि AI के साथ आपकी बातचीत पर कोई कानूनी गोपनीयता नहीं होती।

उन्होंने कहा, “लोग अपनी जिंदगी के सबसे निजी मुद्दे ChatGPT से शेयर करते हैं। खासकर युवा इसे थेरेपिस्ट, लाइफ कोच या रिलेशनशिप एडवाइजर की तरह इस्तेमाल करते हैं। लेकिन अगर आप किसी डॉक्टर, वकील या थेरेपिस्ट से बात करते हैं, तो वहां कानूनी रूप से आपकी बातचीत को गोपनीय माना जाता है। ये ‘डॉक्टर-पेशेंट कॉन्फिडेंशियलिटी’ या ‘लीगल प्रिविलेज’ कहलाता है। लेकिन जब बात AI की आती है, तो हमारे पास अभी तक ऐसा कोई कानून या नीति नहीं बनी है।”

इसका मतलब यह है कि अगर कभी आपकी ChatGPT से हुई बातचीत का उपयोग किसी कानूनी मामले में किया जाना पड़े, तो OpenAI को उन चैट्स को कोर्ट में पेश करना पड़ सकता है।

कानूनी गोपनीयता और AI – एक बड़ी चुनौती

यह समस्या इतनी छोटी नहीं है जितनी सुनने में लगती है। आज कई देशों में डॉक्टर और वकील की बातचीत को पूरी तरह सुरक्षित माना जाता है, ताकि लोग बिना डर के अपनी समस्याएं साझा कर सकें। इसी तरह, थेरेपिस्ट के साथ हुई बातचीत भी पूरी तरह प्राइवेट रहती है।

लेकिन AI और ChatGPT जैसे प्लेटफॉर्म पर ऐसी कोई कानूनी सुरक्षा मौजूद नहीं है। इसका एक कारण यह है कि AI अभी नए और तेजी से विकसित होते तकनीक हैं, और उनके लिए कोई स्पष्ट कानूनी या नीति ढांचा अभी तैयार नहीं हुआ है।

Sam Altman ने इस बात पर चिंता जताई कि बिना स्पष्ट कानून के, उपयोगकर्ताओं की निजी बातचीत की सुरक्षा पर खतरा हो सकता है। अगर किसी मामले में अदालत OpenAI से ये चैट्स मांगे, तो कंपनी को उन्हें देना पड़ सकता है।

OpenAI की वर्तमान कानूनी चुनौतियां

OpenAI इस समस्या से अनजान नहीं है। वे जानते हैं कि यह गोपनीयता का अभाव भविष्य में उपयोगकर्ताओं के लिए बड़ी बाधा बन सकता है। कंपनी फिलहाल एक कोर्ट केस में फंसी हुई है, जिसमें न्यूयॉर्क टाइम्स ने OpenAI पर अदालत में एक आदेश जारी करने की मांग की है कि OpenAI को अपनी सर्विस पर की गई सभी चैट्स को सुरक्षित रखना होगा।

OpenAI ने इस आदेश को ‘अत्यधिक हस्तक्षेप’ करार दिया है और इसका विरोध कर रही है। उनका कहना है कि अगर कोर्ट OpenAI के डेटा प्राइवेसी निर्णयों को खारिज कर देती है, तो इससे और भी कानूनी मांगें बढ़ सकती हैं, जैसे कि लॉ क enforcement एजेंसियां उपयोगकर्ताओं की बातचीत को ट्रैक कर सकें।

डिजिटल गोपनीयता क्यों ज़रूरी है?

डिजिटल युग में हमारी जिंदगी के लगभग हर पहलू का रिकॉर्ड ऑनलाइन होता जा रहा है। हम अपने फोन, ऐप्स, सोशल मीडिया, और यहां तक कि हेल्थ ट्रैकर्स में भी बहुत सी निजी जानकारी रखते हैं।

इसी वजह से डिजिटल गोपनीयता (Digital Privacy) का मुद्दा तेजी से बढ़ा है। जैसे-जैसे कानून और तकनीक विकसित हो रहे हैं, लोगों को अपनी निजता बचाने के लिए नए तरीके अपनाने पड़ रहे हैं।

उदाहरण के तौर पर, जब सुप्रीम कोर्ट ने Roe v. Wade के फैसले को पलट दिया, तो महिलाओं ने अपनी पर्सनल हेल्थ डेटा को सुरक्षित रखने के लिए प्राइवेट पीरियड-ट्रैकिंग ऐप्स और Apple Health जैसे एन्क्रिप्टेड प्लेटफॉर्म्स का इस्तेमाल करना शुरू किया।

क्या ChatGPT आपकी गोपनीयता की रक्षा करता है?

OpenAI अपने यूजर्स की सुरक्षा और डेटा प्राइवेसी को लेकर चिंतित है, लेकिन Sam Altman खुद मानते हैं कि अभी इस मामले में काफी कुछ करना बाकी है।

Altman ने कहा, “हमें AI के साथ बातचीत की गोपनीयता को डॉक्टर या थेरेपिस्ट की बातचीत जितना महत्वपूर्ण समझना चाहिए। लेकिन आज तक हमने इसका समाधान नहीं निकाला है। अगर आप ChatGPT का इस्तेमाल करते हैं तो आपको यह जानना चाहिए कि आपकी बातचीत कानूनी तौर पर सुरक्षित नहीं है।”

यह कहना गलत नहीं होगा कि फिलहाल ChatGPT के जरिए संवेदनशील मुद्दों पर सलाह लेना थोड़ा जोखिम भरा हो सकता है, खासकर तब जब आप उम्मीद करते हैं कि आपकी बातें पूरी तरह सुरक्षित रहेंगी।

उपयोगकर्ताओं के लिए क्या सुझाव हैं?

  1. सावधानी से उपयोग करें: ChatGPT का इस्तेमाल करते समय खासकर जब आप अपनी भावनात्मक या निजी समस्याओं की बात कर रहे हों, तो ध्यान रखें कि आपकी बातचीत कानूनी तौर पर सुरक्षित नहीं है।
  2. गोपनीय जानकारी न साझा करें: बैंक अकाउंट, पासवर्ड, मेडिकल रिपोर्ट जैसे बहुत निजी डेटा कभी AI चैटबॉट्स के साथ शेयर न करें।
  3. वास्तविक थेरेपिस्ट या विशेषज्ञ से संपर्क करें: अगर आपको मानसिक स्वास्थ्य या भावनात्मक समर्थन की जरूरत है तो बेहतर होगा कि आप एक लाइसेंस प्राप्त थेरेपिस्ट या काउंसलर से बात करें, क्योंकि उनके साथ आपकी बातचीत कानूनी रूप से सुरक्षित होती है।
  4. नियम और नीतियों की जानकारी रखें: समय-समय पर OpenAI और अन्य AI सेवाओं की प्राइवेसी पॉलिसी और कानूनी अपडेट्स पर नजर रखें।

AI और भविष्य: क्या बदलाव आ सकते हैं?

Sam Altman ने यह भी माना है कि आने वाले समय में AI के लिए नए कानूनी नियम और नीति ढांचे बनेंगे, जो उपयोगकर्ताओं की गोपनीयता की बेहतर सुरक्षा करेंगे।

जैसे-जैसे AI और मशीन लर्निंग की टेक्नोलॉजी ज्यादा विकसित होगी, सरकारें और तकनीकी कंपनियां मिलकर ऐसा सिस्टम बनाएंगी जिससे आपके निजी बातचीत को भी कानूनी तौर पर सुरक्षित बनाया जा सके।

यह समय की मांग है कि AI और यूजर्स के बीच विश्वास का एक नया पुल बने। तभी AI का इस्तेमाल ज्यादा लोगों तक पहुंचेगा और वे इसे खुलकर अपना मानसिक सहारा बना पाएंगे।

AI और ChatGPT जैसी टेक्नोलॉजी ने हमारी जिंदगी को सरल और रोचक बनाया है, लेकिन इसके साथ ही हमें अपनी प्राइवेसी और सुरक्षा का भी पूरा ध्यान रखना होगा। Sam Altman की चेतावनी हमें यह याद दिलाती है कि आज के समय में AI से थेरेपी या भावनात्मक समर्थन लेते वक्त सावधानी बरतना जरूरी है।

अगर आप ChatGPT को अपने निजी मुद्दों के लिए इस्तेमाल करते हैं, तो आपको यह समझना होगा कि आपकी बातचीत कानूनी तौर पर पूरी तरह सुरक्षित नहीं है, और कभी भी इसका दुरुपयोग हो सकता है। इसलिए, AI को अपनी पहली पसंद मानने के बजाय, इसे एक सपोर्टिव टूल के रूप में देखें, लेकिन महत्वपूर्ण मामलों में विशेषज्ञ से परामर्श जरूर लें।

अगर आप इस लेख को पढ़कर अपने डिजिटल व्यवहार में कुछ बदलाव लाते हैं, तो आपकी गोपनीयता की सुरक्षा बेहतर हो सकती है। क्या आपने कभी ChatGPT से अपनी भावनात्मक बातें शेयर की हैं? आपको क्या लगता है, AI क्या कभी पूरी तरह सुरक्षित थेरेपिस्ट बन पाएगा? आपके विचार जानना दिलचस्प होगा!

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top