वाटिकन का नया दस्तावेज एआई की ताकत एवं जोखिम पर प्रकाश डालता है
वाटिकन न्यूज
हाल के वर्षों में आर्टिफिशियल इंटेलिजेंस के बारे में पोप की चेतावनियाँ “अंतिक्वा एत नोवा” की रूपरेखा प्रदान करती हैं, “कृत्रिम बुद्धिमत्ता और मानव बुद्धिमत्ता के बीच संबंधों पर दस्तावेज”, जो विश्वास के सिद्धांत के लिए गठित विभाग और संस्कृति तथा शिक्षा विभाग के बीच आपसी चिंतन के परिणाम प्रस्तुत करता है, विशेष रूप से “विश्वास को प्रसारित करने के लिए प्रतिबद्ध लोगों” को संबोधित करता है, लेकिन साथ ही “उन लोगों को भी सम्बोधित करता है जो इस विश्वास को साझा करते हैं कि वैज्ञानिक और तकनीकी प्रगति को मानव व्यक्ति और आम भलाई की सेवा करने की दिशा में निर्देशित किया जाना चाहिए।” [5]
117 अनुच्छेद में, “अंतीक्वा एत नोवा” शिक्षा, अर्थव्यवस्था, कार्य, स्वास्थ्य, रिश्तों और युद्ध के क्षेत्रों में आर्टिफिशियल इंटेलिजेंस (एआई) के विकास की चुनौतियों और अवसरों पर प्रकाश डालता है। दस्तावेज़ एआई की “मानव निरीक्षण के दायरे से परे युद्ध के साधनों को बढ़ाने और मानव अधिकारों के लिए भयावह परिणामों के साथ एक अस्थिर हथियारों की दौड़ को तेज करने” की क्षमता के बारे में भी चेतावनी देता है [99]।
खतरे और प्रगति
दस्तावेज न केवल जोखिमों को सूचीबद्ध करता, बल्कि एआई से जुड़ी प्रगति को भी प्रस्तुत करता है, जिसे यह “ईश्वर के साथ पुरुष और महिला के सहयोग के हिस्से” के रूप में प्रोत्साहित करता है [2]। हालाँकि, यह उन चिंताओं से नहीं बचता है जो सभी नवाचारों के साथ आती हैं, जिनके प्रभाव अभी भी अप्रत्याशित हैं।
कृत्रिम बुद्धिमत्ता एवं मानवीय बुद्धिमत्ता के बीच अंतर
दस्तावेज के कई पैराग्राफ कृत्रिम बुद्धिमता और मानव बुद्धिमत्ता के बीच अंतर को समर्पित हैं। पोप फ्राँसिस को उद्धृत करते हुए, दस्तावेज़ पुष्टि करता है कि "एआई के संबंध में 'बुद्धिमत्ता' शब्द का प्रयोग 'भ्रामक साबित हो सकता है'... इसके मद्देनजर, एआई को मानव बुद्धि के कृत्रिम रूप के रूप में नहीं, बल्कि इसके उत्पाद के रूप में देखा जाना चाहिए" [35]। “मानव प्रतिभा के किसी भी उत्पाद की तरह, एआई को भी सकारात्मक या नकारात्मक उद्देश्यों की ओर निर्देशित किया जा सकता है” [40]। “एआई ‘महत्वपूर्ण नवाचारों को पेश कर सकता है’” [48] लेकिन इससे भेदभाव, गरीबी, “डिजिटल विभाजन” और सामाजिक असमानताओं की स्थिति बढ़ने का भी जोखिम है [52]।
“मुख्यधारा के एआई अनुप्रयोगों पर सत्ता का कुछ शक्तिशाली कंपनियों के हाथों में केंद्रित होना महत्वपूर्ण नैतिक चिंताओं को जन्म देता है,” जिसमें “यह जोखिम भी शामिल है कि एआई को व्यक्तिगत या कॉर्पोरेट लाभ के लिए या किसी विशिष्ट उद्योग के लाभ के लिए जनता की राय को निर्देशित करने के लिए हेरफेर किया जा सकता है” [53]।
युद्ध
युद्ध के संदर्भ में, "अंतिक्वा एत नोवा" इस बात पर जोर देता है कि स्वायत्त और घातक हथियार प्रणालियाँ जो "प्रत्यक्ष मानवीय हस्तक्षेप के बिना लक्ष्यों की पहचान करने और उन पर हमला करने में सक्षम हैं, वे गंभीर नैतिक चिंता के कारण हैं" [100]। इसमें कहा गया है कि पोप फ्राँसिस ने उनके प्रयोग पर प्रतिबंध लगाने का आह्वान किया है क्योंकि वे “एक ‘अस्तित्वगत जोखिम’ पैदा करते हैं क्योंकि उनमें ऐसे तरीके से कार्य करने की क्षमता होती है जो पूरे क्षेत्र या यहाँ तक कि मानवता के अस्तित्व को खतरे में डाल सकते हैं” [101]। दस्तावेज कहता है, “इस खतरे पर गंभीर ध्यान देने की आवश्यकता है,” “यह उन तकनीकों के बारे में लंबे समय से चली आ रही चिंता को दर्शाता है जो युद्ध को ‘बड़ी संख्या में निर्दोष नागरिकों पर एक अनियंत्रित विनाशकारी शक्ति प्रदान करती हैं, यहाँ तक कि बच्चों को भी नहीं बख्शती” [101]।
मानवीय संबंध
मानवीय संबंधों पर, दस्तावेज में कहा गया है कि एआई "हानिकारक अलगाव" [58] को जन्म दे सकता है, "एआई का मानवरूपीकरण" बच्चों के विकास के लिए समस्याएँ पैदा करता है [60] और एआई को एक व्यक्ति के रूप में गलत तरीके से प्रस्तुत करना "एक गंभीर नैतिक उल्लंघन" है, अगर यह "धोखाधड़ी के उद्देश्यों के लिए" किया जाता है। इसी तरह, "अन्य संदर्भों में धोखा देने के लिए एआई का उपयोग करना - जैसे कि शिक्षा या मानवीय संबंधों में, जिसमें कामुकता का क्षेत्र भी शामिल है - को भी अनैतिक माना जाना चाहिए और इसके लिए सावधानीपूर्वक निगरानी की आवश्यकता है" [62]।
अर्थव्यवस्था एवं श्रम
आर्थिक-वित्तीय क्षेत्र में भी इसी सतर्कता की आवश्यकता है। “अंतिक्वा एत नोवा” गौर करता है कि, श्रम के क्षेत्र में, “जबकि एआई उत्पादकता को बढ़ावा देने का वादा करता है… प्रौद्योगिकी के लिए वर्तमान दृष्टिकोण विरोधाभासी रूप से श्रमिकों को अकुशल बना सकता है, उन्हें स्वचालित निगरानी के अधीन कर सकता है, और उन्हें कठोर और दोहराव वाले कार्यों में लगा सकता है” [67]।
स्वास्थ्य
दस्तावेज में स्वास्थ्य सेवा के मुद्दे पर भी पर्याप्त जगह दी गई है। चिकित्सा क्षेत्र में विभिन्न प्रयोगों में “अपार संभावनाओं” को याद करते हुए, यह चेतावनी देता है कि यदि एआई डॉक्टर-रोगी संबंध की जगह लेता है, तो इससे “अक्सर रोगी के साथ होनेवाले अकेलेपन को और भी बदतर बनाने” का जोखिम होगा [73]। दस्तावेज यह भी चेतावनी देता है कि “स्वास्थ्य सेवा में एआई के एकीकरण से चिकित्सा देखभाल तक पहुँच में अन्य मौजूदा असमानताओं को बढ़ाने का जोखिम भी है,” “अमीरों के लिए दवा मॉडल को मजबूत करने के जोखिम के साथ, जहाँ वित्तीय साधनवाले लोग उन्नत निवारक उपकरणों और व्यक्तिगत स्वास्थ्य जानकारी से लाभान्वित होते हैं जबकि अन्य लोग बुनियादी सेवाओं तक पहुँचने के लिए भी संघर्ष करते हैं” [76]।
शिक्षा
शिक्षा के क्षेत्र में, “अंतिक्वा एत नोवा” ध्यान देता है कि “एआई अवसर और चुनौतियाँ दोनों प्रस्तुत करता है।” यदि विवेकपूर्ण तरीके से प्रयोग किया जाए, तो एआई शिक्षा तक पहुँच में सुधार कर सकता है और छात्रों को “तत्काल प्रतिक्रिया” प्रदान कर सकता है [80]। एक समस्या यह है कि कई कार्यक्रम “छात्रों को स्वयं उत्तर देने या स्वयं के लिए नोट लिखने हेतु प्रेरित करने के बजाय केवल उत्तर प्रदान करता है”; जिससे आलोचनात्मक सोच कौशल विकसित करने में विफलता हो सकती है [82]। दस्तावेज में “पक्षपाती या मनगढ़ंत जानकारी” और “नकली समाचार” के बारे में भी चेतावनी दी गई है जिन्हें कुछ कार्यक्रम उत्पन्न कर सकते हैं [84]।
फर्जी खबरें और डीपफेक्स
फर्जी खबरों के विषय पर, दस्तावेज़ एआई द्वारा “हेरफेर की गई सामग्री और झूठी जानकारी उत्पन्न करने” के गंभीर जोखिम की चेतावनी देता है [85], जो तब और भी बदतर हो जाता है जब इसे धोखा देने या नुकसान पहुँचाने के उद्देश्य से फैलाया जाता है [87]।
“अंतिक्वा एत नोवा” जोर देता है कि “जो लोग एआई-जेनेरेटेड सामग्री का उत्पादन और साझा करते हैं, उन्हें हमेशा जो कुछ भी प्रसारित किया जाता है उसकी सच्चाई को सत्यापित करना चाहिए और, सभी मामलों में, ‘उन शब्दों और छवियों को साझा करने से बचना चाहिए जो मानव जाति को अपमानित करते हैं, जो घृणा और असहिष्णुता को बढ़ावा देते हैं, जो मानव कामुकता की अच्छाई और अंतरंगता को कम करते हैं या जो कमज़ोर और असुरक्षित लोगों का शोषण करते हैं’” [89]।
गोपनीयता और नियंत्रण
गोपनीयता और नियंत्रण पर, दस्तावेज बताता है कि कुछ डेटा इतने आगे जा सकते हैं कि वे “व्यक्ति की आंतरिकता, शायद उनकी अंतरात्मा को भी छू सकते हैं” [90], जिससे हर चीज की “जांच और उसके निरीक्षण किये जानेवाले तमाशे” बनने का खतरा है [92]। डिजिटल निगरानी का “विश्वासियों के जीवन और उनके विश्वास को व्यक्त करने के तरीके पर नियंत्रण करने के लिए भी दुरुपयोग किया जा सकता है” [90]।
आम घर
सृष्टि की देखभाल के विषय पर, “अंतिक्वा एत नोवा” कहता है, “हमारे ‘आम घर’ के साथ हमारे रिश्ते को बेहतर बनाने के लिए एआई के कई आशाजनक अनुप्रयोग हैं” [95]। “उसी समय, वर्तमान एआई मॉडल और उन्हें समर्थन देने के लिए आवश्यक हार्डवेयर भारी मात्रा में ऊर्जा और पानी की खपत करते हैं, जो कार्बन उत्सर्जन में विशेष योगदान देते हैं और संसाधनों पर दबाव डालते हैं” [96]
ईश्वर के साथ संबंध
अंत में, दस्तावेज मानवता के “अपने स्वयं के काम के गुलाम” बनने के जोखिम के खिलाफ चेतावनी देता है [105]। कृत्रिम बुद्धिमत्ता, “अंतिक्वा एत नोवा” जोर देकर कहता है, “इसका उपयोग केवल मानव बुद्धिमत्ता के पूरक के रूप में किया जाना चाहिए, न कि उसकी समृद्धि को बदलने के लिए” [112]।
Thank you for reading our article. You can keep up-to-date by subscribing to our daily newsletter. Just click here