0

ChatGPT-maker OpenAI announces Safety and Security Committee: All details you need to know

चैटजीपीटी बनाने वाली कंपनी ओपनएआई ने अपनी नई पीढ़ी के एआई मॉडल, जीपीटी-5 के लिए प्रशिक्षण प्रक्रिया शुरू कर दी है। एआई मॉडल प्रशिक्षण शुरू होने के साथ ही कंपनी ने मंगलवार को एक नई सुरक्षा और सुरक्षा समिति के गठन की घोषणा की, जिसमें प्रमुख बोर्ड सदस्य शामिल होंगे। ओपनएआई ने हाल ही में अपनी सुपरअलाइनमेंट टीम को भंग करने की घोषणा की, जिसका गठन दीर्घकालिक एआई जोखिम से निपटने के लिए किया गया था। हालाँकि, अब नई समिति उसी तरह काम करेगी क्योंकि यह नई परियोजनाओं और संचालन के लिए सुरक्षा और सुरक्षा निर्णयों को देखेगी।

सुरक्षा एवं संरक्षा समिति और उसके सदस्यों के बारे में

मंगलवार को ओपनएआई ने एक ब्लॉग साझा किया डाक निदेशकों ब्रेट टेलर (अध्यक्ष), एडम डी’एंजेलो, निकोल सेलिगमैन और सैम ऑल्टमैन (सीईओ) की अध्यक्षता में एक नई सुरक्षा और सुरक्षा समिति के गठन की घोषणा की। ओपनएआई ने कहा कि यह “सभी ओपनएआई परियोजनाओं के लिए महत्वपूर्ण सुरक्षा और सुरक्षा निर्णयों” के संबंध में कंपनी बोर्ड को सिफारिशें करने के लिए जिम्मेदार है।

इसके अलावा, समिति में ओपनएआई के तकनीकी और नीति विशेषज्ञ जैसे कि एलेक्जेंडर मैड्री, जॉन शुलमैन (सुरक्षा प्रणालियों के प्रमुख), मैट नाइट (सुरक्षा प्रमुख) और जैकब पचोकी (मुख्य वैज्ञानिक) शामिल होंगे। सदस्य कंपनी की योजनाओं की देखरेख और गहन जांच करेंगे और 90 दिनों में प्रक्रियाएं और सुरक्षा उपाय विकसित करेंगे।

सुरक्षा एवं संरक्षा समिति क्यों?

ओपनएआई की नई सुरक्षा समिति कंपनी की नई परियोजनाओं और संचालनों की गहनता से जांच करेगी ताकि उनके उपकरणों और प्रौद्योगिकी के नैतिक उपयोग के लिए सुरक्षा प्रक्रियाएं प्रदान की जा सकें। कंपनी ने यह भी बताया कि वे एजीआई विकसित करने की क्षमताओं के अगले स्तर की ओर बढ़ रहे हैं और वे सुरक्षा के साथ-साथ प्रौद्योगिकी उन्नति पर भी ध्यान केंद्रित करना चाहते हैं। ओपनएआई ने कहा, “जबकि हमें ऐसे मॉडल बनाने और जारी करने पर गर्व है जो क्षमताओं और सुरक्षा दोनों के मामले में उद्योग में अग्रणी हैं, हम इस महत्वपूर्ण क्षण में एक मजबूत बहस का स्वागत करते हैं।”

90 दिनों के भीतर, OpenAI की सुरक्षा और सुरक्षा समिति अपनी परियोजनाओं में सुरक्षा और सुरक्षा के प्रबंधन के लिए सिफारिशें और प्रक्रियाएँ प्रस्तुत करेगी। यह OpenAI के लिए एक बड़ा कदम है क्योंकि वायर्ड रिपोर्ट ने इस बात पर प्रकाश डाला है कि सुपरअलाइनमेंट टीम के विघटन के बाद, कंपनी के सुरक्षा और सुरक्षा उपायों ने पीछे हटना शुरू कर दिया है। दूसरी ओर, AI शोधकर्ताओं ने आगामी AI क्षमताओं पर प्रमुख चिंताओं को भी उजागर किया है, जिन पर प्रौद्योगिकी की सुरक्षा और नैतिक उपयोग के मामले में प्रमुख ध्यान देने की आवश्यकता है।

एक और बात! अब हम WhatsApp चैनल पर हैं! हमें वहां फ़ॉलो करें ताकि आप तकनीक की दुनिया से जुड़ी कोई भी अपडेट मिस न करें। HT Tech चैनल को WhatsApp पर फ़ॉलो करने के लिए, क्लिक करें यहाँ अभी शामिल हों!

chatgpt-maker-openai-announces-safety-and-security-committee-all-details-you-need-to-know