कृत्रिम बुद्धिमता प्रणालियों से निजता के लिये जोखिम - तत्काल कार्रवाई की मांग

संयुक्त राष्ट्र मानवाधिकार उच्चायुक्त मिशेल बाशेलेट ने कृत्रिम बुद्धिमता (आर्टिफ़िशियल इंटैलीजेंस / एआई) की उन प्रणालियों की बिक्री व इस्तेमाल पर स्वैच्छिक रोक लगाए जाने का आग्रह किया है, जिनसे मानवाधिकारों के लिये गम्भीर जोखिम पैदा हो सकते हैं.
यूएन एजेंसी की प्रमुख ने बुधवार को अपने एक वक्तव्य में कहा कि स्वैच्छिक रोक को तब तक जारी रखना होगा जब तक पर्याप्त ऐहतियाती उपायों लागू नहीं किये जाते हैं.
Technologies like facial recognition are increasingly used to identify people in real time and from a distance.We call for a moratorium on their use in public spaces, at least until robust international #HumanRights safeguards are in place.Learn more: https://t.co/VmmR75slYd pic.twitter.com/mslH79ccFK
UNHumanRights
“आर्टिफ़िशियल इंटैलीजेंस, बेहतरी के लिये एक ताक़त हो सकती है, जिससे इस दौर की विशाल चुनौतियों पर कामयाबी हासिल करने में समाजों को मदद मिले.”
“मगर, उनके इस्तेमाल से मानवाधिकारों पर होने वाले असर पर पर्याप्त ध्यान दिये बिना, एआई टैक्नॉलॉजी के नकारात्मक, यहाँ तक की विनाशनकारी प्रभाव भी हो सकते हैं.”
उन्होंने स्पष्ट किया कि एआई की जिन ऐप्लीकेशन्स को अन्तरराष्ट्रीय मानवाधिकार क़ानूनों के तहत इस्तेमाल नहीं किया जा सकता, उन पर पाबन्दी लगा दी जानी चाहिये.
यूएन मानवाधिकार उच्चायुक्त कार्यालय ने टैक्नॉलॉजी और मानवाधिकारों से जुड़े मुद्दों पर एक नई रिपोर्ट प्रकाशित की है.
मानवाधिकार उच्चायुक्त के मुताबिक़, मानवाधिकारों के लिये जोखिम जितना बड़ा हो, एआई टैक्नॉलॉजी के इस्तेमाल के लिये क़ानूनी आवश्यकताएँ भी उतनी ही सख़्त होनी चाहियें.
“जोखिमों की समीक्षा करने और उनसे निपटने में चूँकि समय लग सकता है, इसलिये, देशों की सरकारों को सम्भावित उच्च जोखिम वाली टैक्नॉलॉजी पर स्वैच्छिक रोक लगानी चाहिये.”
रिपोर्ट में एआई टैक्नॉलॉजी के ज़रिये व्यक्तिगत जानकारी की रूपरेखा तैयार करने, स्वचालित निर्णय-निर्धारण और मशीन-लर्निंग सहित अन्य प्रणालियों के इस्तेमाल से, लोगों की निजता व अन्य अधिकारों के हनन पर होने वाले असर का विश्लेषण किया गया है.
इन अधिकारों में स्वास्थ्य, शिक्षा, आवाजाही की आज़ादी, शान्तिपूर्ण सभा व अभिव्यक्ति की आज़ादी समेत अन्य मानवाधिकार हैं.
रिपोर्ट बताती है कि सदस्य देशों और व्यवसायों ने एआई ऐप के इस्तेमाल में जल्दबाज़ी दिखाई है और इसके लिये पहले ज़रूरी सावधानियों नहीं बरती गई हैं.
रिपोर्ट में ऐसे अनेक मामलों का हवाला दिया गया है, जिनमें लोगों के साथ अन्यायपूर्ण ढंग से बर्ताव किया गया.
एआई के दोषपूर्ण औज़ारों के कारण, उन्हें सामाजिक संरक्षा के तहत मिलने वाले लाभों के दायरे से बाहर कर दिया गया. या फिर चेहरे की शिनाख़्त करने वाली टैक्नॉलॉजी के ग़लत इस्तेमाल से, उन्हें गिरफ़्तार कर लिया गया.
मानवाधिकार मामलों की प्रमुख ने सचेत किया कि कृत्रिम बुद्धिमता पर आधारित प्रणालियाँ, जीवन के लगभग हर पहलू से जुड़ी हुई हैं.
इनका इस्तेमाल सार्वजनिक सेवाओं के लाभार्थियों की शिनाख़्त करने, रोज़गार के लिये चिन्हित किये जाने सहित, अन्य प्रक्रियाओं में किया जाता है.
रिपोर्ट में विस्तार से बताया गया है कि एआई प्रणालियाँ, विशाल डेटा सैट पर निर्भर हैं, और व्यक्तियों से जुड़ी जानकारियों को अनेक प्रकार से एकत्र, साझा, और उनका संयोजन व विश्लेषण किया जाता है. इस प्रक्रिया में अक्सर पारदर्शिता का अभाव होता है.
रिपोर्ट में आगाह किया गया है कि एआई प्रणालियों को निर्देशित करने के लिये इस्तेमाल किया जाने वाला डेटा, दोषपूर्ण, भेदभावपूर्ण, चलन से बाहर या अप्रासंगिक हो सकता है.
डेटा को लम्बे समय तक रखे जाने में भी जोखिम निहित हैं, चूँकि भविष्य में उसका ऐसे रूपों में इस्तेमाल किया जा सकता है, जिनके बारे में फ़िलहाल ज़्यादा जानकारी नहीं है.
इन चिन्ताओं के मद्देनज़र और एआई प्रणालियों के बढ़ते इस्तेमाल की पृष्ठभूमि में आँकड़ों व जानकारी को एकत्र, संग्रहित, साझा और इस्तेमाल करने में जवाबदेही सुनिश्चित किये जाने पर ज़ोर दिया गया है.
मानवाधिकार उच्चायुक्त ने कहा कि राज्यसत्ता, अन्तरराष्ट्रीय संगठनों व टैक्नॉलॉजी कम्पनियों के लिये बायोमैट्रिक टैक्नॉलॉजी, एक बड़े समाधान के रूप में उभर रही हैं.
उन्होंने आगाह किया कि यह एक ऐसा मामला है जहाँ मानवाधिकार आधारित मार्गदर्शन की कहीं अधिक आवश्यकता है.
इन टैक्नॉलॉजी में चेहरे की शिनाख़्त करने वाला सॉफ्टवेयर भी है, जिनका इस्तेमाल वास्तविक समय में, लोगों की पहचान करने और उनकी असीमित स्तर पर निगरानी किये जाने में किया जाता है.
रिपोर्ट में सार्वजनिक स्थलों पर इन टैक्नॉलॉजी के इस्तेमाल पर स्वैच्छिक रोक लगाने का आहवान किया गया है, विशेष रूप से जब तक उनकी सटीकता और भेदभावपूर्ण असर से जुड़ा कोई मुद्दा ना हो.
साथ ही यह सुनिश्चित किया जाना होगा कि एआई प्रणालियों को, ठोस निजता व डेटा संरक्षण मानकों का अनुपालन करना होगा.