0

Navigating the ethical minefield of the AI landscape- Intel’s Santhosh Viswanathan on what India should do

कृत्रिम बुद्धिमत्ता (AI) में उल्लेखनीय प्रगति ने अभूतपूर्व संभावनाओं को खोल दिया है, जो हमारे जीवन के लगभग हर पहलू को प्रभावित कर रहा है। जो क्षेत्र पहले केवल विशेष विशेषज्ञों के लिए आरक्षित था, वह अब दुनिया भर के व्यक्तियों के लिए सुलभ हो गया है, जो बड़े पैमाने पर AI की क्षमताओं का उपयोग कर रहे हैं। यह सुलभता हमारे काम करने, सीखने और खेलने के तरीके में क्रांतिकारी बदलाव ला रही है।

एआई का लोकतांत्रिकरण नवाचार की असीम संभावनाओं का संकेत देता है, लेकिन यह काफी जोखिम भी लाता है। दुरुपयोग, सुरक्षा, पूर्वाग्रह और गलत सूचना पर बढ़ती चिंताएं जिम्मेदारी को अपनाने के महत्व को रेखांकित करती हैं ऐ अब पहले से कहीं अधिक अभ्यास किया जाता है।

एक नैतिक पहेली

ग्रीक शब्द से व्युत्पन्न प्रकृति जिसका अर्थ रिवाज, आदत, चरित्र या स्वभाव हो सकता है, नैतिकता नैतिक सिद्धांतों की एक प्रणाली है। एआई की नैतिकता उन मनुष्यों के व्यवहार को संदर्भित करती है जो एआई सिस्टम का निर्माण और उपयोग करते हैं और साथ ही इन प्रणालियों के व्यवहार को भी।

पिछले कुछ समय से, नैतिक और न्यायसंगत AI को सक्षम करने के लिए जिम्मेदार AI प्रथाओं की आवश्यकता के बारे में अकादमिक, व्यावसायिक और विनियामक चर्चाएँ चल रही हैं। हम सभी हितधारकों – चिप निर्माताओं से लेकर डिवाइस निर्माताओं और सॉफ़्टवेयर डेवलपर्स तक – को AI क्षमताओं को डिज़ाइन करने के लिए मिलकर काम करना चाहिए जो जोखिम को कम करते हैं और AI के संभावित हानिकारक उपयोगों को कम करते हैं।

यहां तक ​​की सैम ऑल्टमैनओपनएआई के मुख्य कार्यकारी अधिकारी ने टिप्पणी की है कि हालांकि एआई “मानवता द्वारा अब तक विकसित सबसे महान तकनीक होगी”, लेकिन वे इसकी क्षमता से “थोड़ा डरे हुए” हैं।

इन चुनौतियों का समाधान

जिम्मेदार विकास को एआई जीवन चक्र के दौरान नवाचार का आधार बनाना चाहिए ताकि यह सुनिश्चित हो सके कि एआई का निर्माण, तैनाती और उपयोग सुरक्षित, टिकाऊ और नैतिक तरीके से हो। कुछ साल पहले, यूरोपीय आयोग ने प्रकाशित किया था विश्वसनीय AI के लिए नैतिकता संबंधी दिशानिर्देशनैतिक और भरोसेमंद एआई विकसित करने के लिए आवश्यक आवश्यकताओं को रेखांकित करते हुए। दिशानिर्देशों के अनुसार, भरोसेमंद एआई वैध, नैतिक और मजबूत होना चाहिए।

जबकि पारदर्शिता और जवाबदेही को अपनाना नैतिक एआई सिद्धांतों की आधारशिलाओं में से एक है, डेटा अखंडता भी सर्वोपरि है क्योंकि डेटा सभी मशीन लर्निंग एल्गोरिदम और लार्ज लैंग्वेज मॉडल (LLM) का आधार है। डेटा गोपनीयता की सुरक्षा के अलावा, उस डेटा के जिम्मेदार सोर्सिंग और प्रोसेसिंग के साथ डेटा उपयोग के लिए स्पष्ट सहमति प्राप्त करने की भी आवश्यकता है। इसके अतिरिक्त, चूँकि हमारे अंतर्निहित पूर्वाग्रह और पक्षपात हमारे डेटा में प्रदर्शित होते हैं, इसलिए इन डेटासेट पर प्रशिक्षित AI मॉडल संभावित रूप से इन मानवीय पूर्वाग्रहों को बढ़ा सकते हैं और उनका पैमाना तय कर सकते हैं। इसलिए, हमें AI सिस्टम के विकास में विविधता और समावेशिता सुनिश्चित करते हुए, डेटा में पूर्वाग्रह को सक्रिय रूप से कम करना चाहिए।

फिर डिजिटल रूप से हेरफेर किए गए सिंथेटिक मीडिया को लेकर चिंता है जिसे डीपफेक कहा जाता है। म्यूनिख सुरक्षा सम्मेलन2018 में, दुनिया की कुछ सबसे बड़ी प्रौद्योगिकी कंपनियों ने भ्रामक एआई-जनरेटेड सामग्री से लड़ने का संकल्प लिया। यह समझौता इस साल अमेरिका, ब्रिटेन और भारत में होने वाले हाई-प्रोफाइल चुनावों पर डीपफेक इमेज, वीडियो और ऑडियो द्वारा संचालित गलत सूचना के प्रभाव पर बढ़ती चिंताओं के संदर्भ में हुआ है।

इस तरह के और अधिक प्रयासों का लाभ उठाया जा सकता है सामाजिक मीडिया प्लेटफार्मों और मीडिया संगठनों को हानिकारक के प्रवर्धन को रोकने के लिए डीपफेक वीडियो। उदाहरण के लिए, इंटेल ने एक वास्तविक समय वीडियो पेश किया है। डीपफेक पता लगाने मंच – फ़ेककैचर – जो 96% सटीकता दर के साथ नकली वीडियो का पता लगा सकता है और मिलीसेकंड में परिणाम देता है।

अंत में, जबकि विज्ञान-कथा के प्रशंसक तकनीकी विलक्षणता के बारे में बातचीत में लगे हुए हैं, जोखिमों की पहचान करने और मानव एजेंसी की कमी को दूर करने के लिए नियंत्रण को परिभाषित करने और इस प्रकार स्पष्ट जवाबदेही की कमी को दूर करने की निश्चित आवश्यकता है, ताकि एआई के गलत हो जाने के कारण होने वाले किसी भी अनपेक्षित परिणाम से बचा जा सके।

नैतिक एआई दिशा-निर्देशों को आकार देना

अग्रणी तकनीकी कंपनियाँ अपने वांछित व्यावसायिक लक्ष्यों को प्राप्त करते हुए विश्वास और पारदर्शिता के सिद्धांत बनाने के प्रयास में नैतिक AI दिशा-निर्देशों को तेजी से परिभाषित कर रही हैं। यह सक्रिय दृष्टिकोण दुनिया भर की सरकारों द्वारा प्रतिबिम्बित किया जाता है। पिछले साल, अमेरिकी राष्ट्रपति जो बिडेन ने AI पर एक कार्यकारी आदेश पर हस्ताक्षर किए, जिसमें “अमेरिकियों को AI के संभावित जोखिमों से बचाने के लिए अब तक की सबसे व्यापक कार्रवाई” की रूपरेखा दी गई थी। और अब, यूरोपीय संघ ने AI अधिनियम को मंजूरी दे दी है जो AI को नियंत्रित करने पर ध्यान केंद्रित करने वाला दुनिया का पहला विनियमन ढांचा है। नियम कुछ AI तकनीकों को उनके संभावित जोखिमों और प्रभाव के स्तर के आधार पर प्रतिबंधित करेंगे, नए पारदर्शिता नियम पेश करेंगे और उच्च जोखिम वाली AI प्रणालियों के लिए जोखिम आकलन की आवश्यकता होगी।

अपने वैश्विक समकक्षों की तरह, भारत सरकार भी एआई के गहन सामाजिक प्रभाव को स्वीकार करती है, इसके संभावित लाभों और पूर्वाग्रह और गोपनीयता के उल्लंघन के जोखिमों को पहचानती है। हाल के वर्षों में, भारत ने जिम्मेदार एआई विकास और तैनाती सुनिश्चित करने के लिए पहल और दिशा-निर्देश लागू किए हैं। मार्च में, MeitY ने प्रमुख सोशल मीडिया कंपनियों को दिए गए अपने पहले के परामर्श को संशोधित किया, जिसमें एक प्रावधान को बदल दिया गया, जिसके अनुसार मध्यस्थों और प्लेटफार्मों को देश में “अंडर-टेस्टेड” या “अविश्वसनीय” एआई मॉडल और टूल को तैनात करने से पहले सरकार की अनुमति लेनी होगी।

नए परामर्श में MeitY का जोर इस बात पर बना हुआ है कि सभी डीपफेक और गलत सूचनाओं को आसानी से पहचाना जा सके, तथा मध्यस्थों को सलाह दी गई है कि वे या तो सामग्री को लेबल करें या “अद्वितीय मेटाडेटा या पहचानकर्ता” के साथ एम्बेड करें।

निष्कर्ष के तौर पर, ऐसे परिदृश्य में जहाँ नवाचार विनियमन से आगे निकल रहा है, जिम्मेदार एआई सिद्धांतों को बनाए रखने के महत्व को कम करके नहीं आंका जा सकता। जब एआई विकास को नैतिक ढाँचों से अलग कर दिया जाता है, तो सामाजिक नुकसान की संभावना बहुत अधिक होती है। इसलिए, हमें यह सुनिश्चित करना चाहिए कि नवाचार को जिम्मेदारी के साथ संतुलित किया जाए, दुरुपयोग, पूर्वाग्रह और गलत सूचना के नुकसान से सुरक्षा प्रदान की जाए। सामूहिक सतर्कता और नैतिक अभ्यास के प्रति अटूट समर्पण के माध्यम से ही हम मानवता की बेहतरी के लिए एआई की वास्तविक क्षमता का दोहन कर सकते हैं।

– लेखक: संतोष विश्वनाथन, उपाध्यक्ष एवं प्रबंध निदेशक (भारत क्षेत्र), इंटेल।

navigating-the-ethical-minefield-of-the-ai-landscape-intels-santhosh-viswanathan-on-what-india-should-do