AI के सहारे क़हर बरपाने वाले ‘हत्यारे रोबोट’ पर क़ानूनी शिकंजे का बढ़ता दबाव
एक ऐसी दुनिया जिसमें अल्गोरिदम, सैनिकों और आम लोग - दोनों के भाग्य का निर्धारण करते हों, अब कोई कल्पना भर नहीं रह गई है. अब AI-चालित ड्रोन युद्ध को नया रूप दे रहे हैं, युद्ध में स्वायत्तता यानि यानि स्वयं निर्णय लेने वाले हथियारबन्द वाहनों के प्रयोग बारे में गहरे नैतिक प्रश्न उठाए रहे हैं. ऐसे में जबकि अन्तरराष्ट्रीय नीति-निर्माता, आधारभूत नियम निर्धारित करने के लिए संघर्ष कर रहे हैं, तेज़ी से विकसित हो रही इस (AI) तकनीक पर लगाम लगाने के लिए दबाव भी बढ़ रहे हैं.
हर दिन, हम स्वेच्छा से मशीनों को अपने बारे में जानकारी देते हैं. ऐसा तब होता है जब हम ऑनलाइन कुकी स्वीकार करते हैं या सर्च इंजन का उपयोग करते हैं.
हम इस बारे में शायद ही सोचते हैं कि हमारा डेटा किस तरह बेचा और इस्तेमाल किया जाता है, इससे पहले कि हम जिस पेज पर जाना चाहते हैं, उस पर “सहमत” क्लिक करें, हमें इस बात का थोड़ा-बहुत अहसास होता है कि इसका इस्तेमाल हमें उपभोक्ता के रूप में लक्षित करने और हमें कुछ ऐसा सामान ये सेवा ख़रीदने के लिए सहमत करने के लिए किया जाएगा, जिसकी हमें ज़रूरत नहीं थी.
लेकिन क्या होगा, अगर मशीनें डेटा का इस्तेमाल यह तय करने के लिए कर रही हों कि किसे दुश्मनों के रूप में लक्षित किया जाए, जिन्हें मार दिए जाने की ज़रूरत है?
संयुक्त राष्ट्र और ग़ैर-सरकारी संगठनों के एक समूह को चिन्ता है कि यह सोच या परिदृश्य अब वास्तविकता बनने के निकट है. वे घातक स्वायत्त हथियारों (LAWS) के अन्तरराष्ट्रीय विनियमन उन पर क़ानूनी पकड़ मज़बूत करने की मांग कर रहे हैं, ताकि निकट भविष्य में मशीनों द्वारा जीवन-मृत्यु के विकल्पों को तय करने से बचा जा सके.
यूक्रेन में बड़े पैमाने पर ड्रोन युद्ध जारी
यूक्रेन का ख़ेरसॉन क्षेत्र, कई दिनों से रूसी सेना द्वारा संचालित हथियारबन्द ड्रोन के लगातार हमलों की चपेट में है, जो मुख्य रूप से ग़ैर-लड़ाकों को निशाना बना रहे हैं.
आधिकारिक सूत्रों के अनुसार, 150 से अधिक आम लोग मारे गए हैं और सैकड़ों लोग घायल हुए हैं. संयुक्त राष्ट्र द्वारा नियुक्त एक स्वतंत्र मानवाधिकार जाँच ने निष्कर्ष निकाला है कि ये हमले मानवता के विरुद्ध अपराध हैं.
यूक्रेनी सेना भी ड्रोन पर बहुत अधिक निर्भर है और देश की सीमाओं के कमज़ोर वर्गों की रक्षा के लिए कथित तौर पर एक “ड्रोन दीवार”, यानि मानव रहित सशस्त्र हवाई वाहनों (UAV) की एक रक्षात्मक रेखा विकसित कर रही है.
एक समय में सबसे अमीर देशों के पास सबसे उच्च तकनीक और महंगे UAV ख़रीदने की क्षमता थी. मगर अब यूक्रेन ने साबित कर दिया है कि थोड़ी सी सरलता के साथ, कम लागत वाले ड्रोन को घातक प्रभाव के लिए संशोधित किया जा सकता है. दुनिया भर में टकरावों और युद्धों में आए इस बदलाव को प्रतिबिम्बित करते हुए, आधुनिक युद्ध की इबारत को फिर से लिखा जा रहा है.
बढ़ता हुआ ‘डिजिटल अमानवीयकरण’
लेकिन, युद्ध का यह आधुनिक रूप जितना विनाशकारी हो सकता है, मानव रहित ड्रोन या अन्य स्वायत्त हथियारों का बढ़ता ख़तरा, ‘हत्यारे रोबोट’ के बारे में बढ़ रही चिन्ताओं को और बढ़ा रहा है, जो आसमान से मौत की बारिश कर रहे हैं, ख़ुद यह तय कर रहे हैं कि उन्हें किस पर हमला करना है.
संयुक्त राष्ट्र के निरस्त्रीकरण मामलों के कार्यालय के प्रमुख इज़ूमी नाकामित्सु कहती हैं, “महासचिव ने हमेशा कहा है कि मशीनों का उपयोग, पूरी तरह से सौंप दी गई शक्ति के साथ करना, मानव जीवन को ख़त्म देने का निर्णय लेना नैतिक रूप से घृणित है.”
“इसकी अनुमति नहीं दी जानी चाहिए. वास्तव में, इसे अन्तरराष्ट्रीय क़ानून द्वारा प्रतिबन्धित किया जाना चाहिए. यही संयुक्त राष्ट्र की स्थिति है.”
एक अन्तरराष्ट्रीय ग़ैर सरकारी मानवाधिकार संगठन – Human Rights Watch (HRW) ने कहा है कि स्वायत्त हथियारों का उपयोग "डिजिटल अमानवीयकरण" करने का नवीनतम, सबसे गम्भीर उदाहरण होगा. इसके तहत, मनुष्यों को प्रभावित करने वाले कृत्रिम बुद्धिमत्ता (AI) पुलिसिंग, क़ानून प्रवर्तन और सीमा नियंत्रण जैसे मामलों पर, जीवन बदलने वाले कई अहम व गम्भीर निर्णय लेती है.
ह्यूमन राइट्स वॉच में शस्त्र विभाग की पैरोकार निदेशक मैरी वेयरहम, चेतावनी देते हुए कहती हैं, "बड़े संसाधनों वाले कई देश, भूमि और समुद्र आधारित स्वायत्त हथियार प्रणालियों को विकसित करने के लिए, कृत्रिम बुद्धिमत्ता और सम्बन्धित तकनीकों में भारी निवेश कर रहे हैं. यह एक तथ्य है."
"इसमें संयुक्त राज्य अमेरिका सबसे आगे है मगर, रूस, चीन, इसराइल और दक्षिण कोरिया जैसे अन्य प्रमुख देश भी, स्वायत्त हथियार प्रणालियों में भारी निवेश कर रहे हैं."
उनकी स्वार्थी दलीलें
AI-संचालित युद्ध के पक्षधर अक्सर इसके विस्तार को उचित ठहराने के लिए मानवीय सीमाओं की ओर इशारा करते हैं. सैनिक, निर्णय लेने में ग़लतियाँ कर सकते हैं, भावनाओं में बहकर काम कर सकते हैं, उन्हें आराम की आवश्यकता होती है, और वे, निश्चित रूप से, वेतन की मांग करते हैं. उनका तर्क है कि जबकि मशीनें, व्यवहार और गति या इनसानों के चलने-फिरने के तरीक़ों के आधार पर ख़तरों की पहचान करने में हर दिन बेहतर होती जा रही हैं.
कुछ समर्थकों का सुझाव है कि अगले चरण में, स्वायत्त प्रणालियों को यह तय करने की अनुमति देने पर ध्यान दिया जाएगा कि ट्रिगर कब खींचना है.
युद्ध के मैदान में मशीनों को नियंत्रण में लेने देने पर दो मुख्य आपत्तियाँ हैं: सबसे पहले, तकनीक पूरी तरह से सुरक्षित नहीं है. दूसरे, संयुक्त राष्ट्र और कई अन्य संगठन LAWS के उपयोग को अनैतिक मानते हैं.
ह्यूमन राइट्स वॉच की मैरी वेयरहम कहती हैं, "मशीनों के लिए मानव लक्ष्य को समझना बहुत आसान है. विकलांग लोगों को विशेष रूप से जोखिम होता है क्योंकि वे जिस तरह से चलते हैं, उससे उन्हें परेशानी होती है. उनकी व्हीलचेयर को हथियार समझ लिया जा सकता है. इस बात की भी चिन्ता है कि चेहरे की पहचान करने वाली तकनीक और अन्य बायोमेट्रिक माप, अलग-अलग त्वचा के रंग वाले लोगों की सही पहचान करने में असमर्थ हैं.”
“AI अब भी त्रुटिपूर्ण है, और इसमें उन लोगों के पूर्वाग्रह भी समाहित होते हैं, जिन्होंने उन प्रणालियों को बनाया हो."
जहाँ तक नैतिक आपत्तियों का सवाल है, हथियार प्रणालियों में स्वायत्तता पर एक नए अन्तरराष्ट्रीय क़ानून के लिए अभियान चलाने वाले गठबन्धन – Stop Killer Robots की कार्यकारी निदेशक निकोल वैन रुइजेन का कहना है कि इससे युद्ध अपराधों और अन्य अत्याचारों के लिए ज़िम्मेदारी निर्धारित करना बहुत मुश्किल हो जाएगा.
उनका कहना है, "कौन जवाबदेह है? क्या यह निर्माता (manufacturer) है? या वह व्यक्ति जिसने एल्गोरिदम को प्रोग्राम किया है? यह स्थिति कई तरह के मुद्दों और चिन्ताओं को जन्म देती है, और अगर इनका व्यापक रूप से उपयोग किया जाता है तो यह एक नैतिक विफलता होगी."
2026 तक प्रतिबन्ध?
जिस गति से तकनीक आगे बढ़ रही है, और युद्ध के मैदान में पहले से ही, AI सक्षम लक्ष्यीकरण प्रणाली का उपयोग किया जा रहा है, यह प्रमाण, तकनीक को विनियमित करने के लिए, जल्द से जल्द अन्तरराष्ट्रीय नियम बनाए जाने की पुकार भी ज़ोर पकड़ रही है.
मई में, संयुक्त राष्ट्र मुख्यालय में अनौपचारिक चर्चाएँ हुईं, जिनमें महासचिव एंतोनियो गुटेरेश ने सदस्य देशों से, स्वायत्त हथियार प्रणालियों के प्रयोग को, 2026 तक विनियमित करने और प्रतिबन्धित करने के लिए क़ानूनी रूप से बाध्यकारी समझौते पर सहमत होने का आहवान किया.
LAWS को विनियमित करने और प्रतिबन्धित करने के प्रयास नए नहीं हैं. वास्तव में, संयुक्त राष्ट्र ने 2014 में जिनीवा में राजनयिकों की पहली बैठक आयोजित की जिसें LAWS को “अभी निरस्त्रीकरण एजेंडे पर एक चुनौतीपूर्ण उभरता हुआ मुद्दा” बताया गया.
अलबत्ता, उस समय युद्धों व टकरावों में कोई स्वायत्त हथियार प्रणाली इस्तेमाल नहीं की जा रही थी.
अब 11 साल बाद भी, वार्ता जारी है, लेकिन स्वायत्त हथियारों की परिभाषा पर अभी तक कोई आम सहमति नहीं है, उनके प्रयोग पर सहमत विनियमन यानि क़ानूनी नियंत्रण की तो बात तो छोड़ ही दें.
फिर भी, ग़ैर सरकारी संगठन और संयुक्त राष्ट्र, आशावादी हैं कि अन्तरराषट्रीय समुदाय, प्रमुख मुद्दों पर आम समझ की ओर धीरे-धीरे बढ़ रहे हैं.