बुधवार की सुबह, बीजिंग समय के शुरुआती घंटों में, ओपनएआई, एक अमेरिकी प्रौद्योगिकी स्टार्ट-अप, ने एक घोषणा जारी कर "रेड टीम" नेटवर्क के सदस्यों की वैश्विक भर्ती शुरू करने की घोषणा की, जिसका लक्ष्य एआई सिस्टम में खामियों और जोखिमों का पहले से पता लगाने के लिए बाहरी ताकतों को पेश करना है। तथाकथित "रेड टीम" नेटवर्क या रेडटीमिंग की अवधारणा सैन्य सिमुलेशन से आती है।
(स्रोत: ओपनएआई)
एआई के क्षेत्र में, "रेड टीम" का कार्य बड़े भाषा मॉडल में कमजोरियों को खोजने के प्रयास में हैकर्स या अन्य संभावित खतरनाक लोगों का अनुकरण करना है, जिससे एआई को वास्तविक समाज में सामाजिक सुरक्षा को खतरे में डालने जैसे अवैध उद्देश्यों में सहायता करने से रोका जा सके।
ओपनएआई ने कहा कि पिछले कुछ वर्षों में, विभिन्न क्षेत्रों के विशेषज्ञ अप्रकाशित मॉडलों का परीक्षण करने में मदद कर रहे हैं। अब यह एआई मॉडल को संयुक्त रूप से अधिक सुरक्षित बनाने के लिए विभिन्न क्षेत्रों, विभिन्न भाषाओं, विभिन्न पेशेवर क्षेत्रों और विभिन्न जीवन के अनुभवों से बड़ी संख्या में लोगों को भर्ती करने के लिए एक "नियमित बल" की स्थापना कर रहा है। अतीत के विपरीत, जो एक महत्वपूर्ण संस्करण के ऑनलाइन होने से पहले केवल केंद्रीकृत परीक्षण के लिए लोगों के एक समूह को भर्ती करता था, ओपनएआई मांग के आधार पर पूरे विकास चक्र के दौरान अनिश्चित संख्या में सदस्यों को परीक्षण करने में सक्षम करेगा।
साथ ही, यह "रेड टीम" नेटवर्क ओपनएआई की वैश्विक विशेषज्ञ लाइब्रेरी भी बन जाएगा, और ओपनएआई "रेड टीम" सदस्यों के बीच संचार के लिए एक मंच भी प्रदान करेगा। ओपनएआई अपनी आधिकारिक वेबसाइट पर कुछ विशेषज्ञ निर्देशों को भी सूचीबद्ध करता है जिनकी वे भर्ती करने की उम्मीद करते हैं, लेकिन यह भी जोर देता है कि यह इन क्षेत्रों तक सीमित नहीं है।
संज्ञानात्मक विज्ञान: संज्ञानात्मक विज्ञान
रसायन विज्ञान: रसायन शास्त्र
जीवविज्ञान: जीवविज्ञान
भौतिकी: भौतिकी
कंप्यूटर विज्ञान: कंप्यूटर विज्ञान
स्टेग्नोग्राफ़ी: स्टेग्नोग्राफ़ी
राजनीति विज्ञान: राजनीति विज्ञान
मनोविज्ञान: मनोविज्ञान
अनुनय: अनुनय
अर्थशास्त्र: अर्थशास्त्र
मानवविज्ञान: मानवविज्ञान
समाजशास्त्र: समाजशास्त्र
एचसीआई (मानव-कंप्यूटर इंटरेक्शन): मानव-कंप्यूटर इंटरेक्शन
निष्पक्षता और पूर्वाग्रह: निष्पक्षता और पूर्वाग्रह
संरेखण: लक्ष्य संरेखण
शिक्षा:शिक्षा
स्वास्थ्य देखभाल: चिकित्सा देखभाल
क़ानून: क़ानून
बाल सुरक्षा: बाल सुरक्षा
साइबर सुरक्षा: नेटवर्क सुरक्षा
वित्त: वित्त
गलत/गलत सूचना: गलत/झूठी जानकारी
राजनीतिक उपयोग: राजनीतिक अनुप्रयोग
गोपनीयता: गोपनीयता
बायोमेट्रिक्स: बायोमेट्रिक्स
भाषाएँ एवं भाषाविज्ञान: भाषाएँ एवं भाषा विज्ञान
वैसे, OpenAI ने यह भी कहा कि वह "रेड टीम" प्रोजेक्ट में भाग लेने वाले सदस्यों को पारिश्रमिक का भुगतान करेगा (लेकिन यह निर्दिष्ट नहीं किया कि वह कितना भुगतान करेगा), लेकिन OpenAI ने इस बात पर भी जोर दिया कि "रेड टीम" प्रोजेक्ट में भाग लेने के लिए आम तौर पर एक गोपनीयता समझौते पर हस्ताक्षर करने, या अनिर्दिष्ट अवधि के लिए चुप रहने की आवश्यकता होती है।
ओपनएआई ने कहा कि एप्लिकेशन चैनल इस साल 1 दिसंबर तक खुला रहेगा। कंपनी क्रमिक आधार पर आवेदनों की समीक्षा करेगी और बाद में मूल्यांकन करेगी कि क्या आगे खुली भर्ती की आवश्यकता है।
ओपनएआई "रेड टीम" के सदस्य जो मंच पर आए
जैसा कि ओपनएआई ने उल्लेख किया है, "रेड टीम" प्रणाली लंबे समय से अस्तित्व में है, और कई सदस्यों को पहले ही मीडिया से सार्वजनिक साक्षात्कार मिल चुके हैं।
इस साल अप्रैल में फाइनेंशियल टाइम्स में एक खुलासा लेख में, संयुक्त राज्य अमेरिका में रोचेस्टर विश्वविद्यालय में केमिकल इंजीनियरिंग के प्रोफेसर एंड्रयू व्हाइट ने कहा कि उन्होंने जीपीटी -4 के "रेड टीम" परीक्षण में भाग लिया था, और उनका हमला लक्ष्य एक नया न्यूरोटॉक्सिन बनाने के लिए चैटजीपीटी का उपयोग करना था। व्हाइट ने कहा कि उन्होंने बड़े मॉडल को रसायन शास्त्र के कागजात और रासायनिक निर्माता कैटलॉग को खिलाने के लिए "प्लग-इन" फ़ंक्शन का उपयोग किया, और बड़े मॉडल ने उन्हें एक जगह भी ढूंढ ली जहां वह अपने काल्पनिक विष का उत्पादन कर सकते थे।
व्हाइट ने कहा कि बड़े मॉडल अंततः कई लोगों को तेजी से और अधिक सटीक रूप से रासायनिक प्रयोग करने में मदद कर सकते हैं, लेकिन एक गंभीर खतरा यह भी है कि कुछ लोग कुछ खतरनाक प्रयोग करने के लिए एआई का उपयोग करेंगे।
व्हाइट से प्रतिक्रिया प्राप्त करने के बाद, ओपनएआई ने यह सुनिश्चित करने के लिए सिस्टम में बदलाव किए कि वह इसी तरह के सवालों का जवाब नहीं देगा। मीडिया के अनुसार, विभिन्न पृष्ठभूमि वाले लगभग 10 "रेड टीम" सदस्य हैं - वकील, शिक्षक, जोखिम नियंत्रण कर्मी, सुरक्षा शोधकर्ता, आदि। उनमें से अधिकांश संयुक्त राज्य अमेरिका और यूरोप में स्थित हैं। उन्होंने खुलासा किया कि GPT-4 जारी होने से पहले के महीनों में, उन्होंने मॉडल का परीक्षण करने में लगभग 10-40 घंटे बिताए थे, और उन्हें प्रति घंटे लगभग 100 डॉलर का भुगतान किया गया था।