ओपनएआयने गेल्या आठवड्यात त्याच्या कृत्रिम बुद्धिमत्ता (एआय) मॉडेल्समध्ये सुधारणा करण्याचे दोन मार्ग जाहीर केले. पहिल्यामध्ये GPT-4o (जीपीटी-4 टर्बो म्हणूनही ओळखले जाते) साठी नवीन अपडेट जारी करणे समाविष्ट आहे, जे कंपनीचे नवीनतम AI मॉडेल सशुल्क सदस्यांसाठी ChatGPT पॉवर करते. कंपनी म्हणते की अपडेट मॉडेलची सर्जनशील लेखन क्षमता सुधारते आणि नैसर्गिक भाषेतील प्रतिसाद आणि उच्च वाचनीयतेसह आकर्षक सामग्री लिहिण्यासाठी ते अधिक चांगले करते. OpenAI ने रेड टीमिंगवर दोन शोधनिबंध देखील जारी केले आणि त्याच्या AI मॉडेल्सद्वारे केलेल्या त्रुटी शोधण्यासाठी प्रक्रिया स्वयंचलित करण्यासाठी एक नवीन पद्धत सामायिक केली.
OpenAI अपडेट्स GPT-4o AI मॉडेल
मध्ये अ पोस्ट X वर (पूर्वी Twitter म्हणून ओळखले जाणारे), AI फर्मने GPT-4o फाउंडेशन मॉडेलसाठी नवीन अपडेटची घोषणा केली. OpenAI म्हणते की अपडेट AI मॉडेलला “अधिक नैसर्गिक, आकर्षक आणि अनुरूप लेखनासह आउटपुट व्युत्पन्न करण्यास अनुमती देते जे प्रासंगिकता आणि वाचनीयता सुधारते.” अपलोड केलेल्या फायलींवर प्रक्रिया करण्याची आणि सखोल अंतर्दृष्टी आणि “अधिक सखोल” प्रतिसाद प्रदान करण्याची एआय मॉडेलची क्षमता सुधारते असेही म्हटले जाते.
विशेष म्हणजे, GPT-4o AI मॉडेल ChatGPT Plus सदस्यत्व असलेल्या वापरकर्त्यांसाठी आणि API द्वारे लार्ज लँग्वेज मॉडेल (LLM) मध्ये प्रवेश असलेल्या विकसकांसाठी उपलब्ध आहे. चॅटबॉटचा फ्री टियर वापरणाऱ्यांना मॉडेलमध्ये प्रवेश नाही.
गॅझेट्स 360 कर्मचारी सदस्य नवीन क्षमता तपासण्यात सक्षम नसताना, एक वापरकर्ता चालू आहे पोस्ट केले अपडेटनंतर AI मॉडेलमधील नवीनतम सुधारणांबद्दल. वापरकर्त्याने असा दावा केला आहे की GPT-4o “अत्याधुनिक अंतर्गत यमक रचना” सह एमिनेम-शैलीतील रॅप सिफर तयार करू शकते.
ओपनएआय रेड टीमिंगवर नवीन संशोधन पेपर शेअर करते
रेड टीमिंग ही विकसक आणि कंपन्यांद्वारे असुरक्षितता, संभाव्य जोखीम आणि सुरक्षा समस्यांसाठी सॉफ्टवेअर आणि सिस्टमची चाचणी घेण्यासाठी बाह्य संस्थांना नियुक्त करण्यासाठी वापरली जाणारी प्रक्रिया आहे. बहुतेक AI कंपन्या हानीकारक, चुकीच्या किंवा दिशाभूल करणाऱ्या आउटपुटसह प्रतिसाद देतात की नाही हे तणाव-चाचणीसाठी संस्था, प्रॉम्प्ट अभियंते आणि नैतिक हॅकर्स यांच्याशी सहयोग करतात. एआय प्रणाली तुरुंगात टाकली जाऊ शकते की नाही हे तपासण्यासाठी देखील चाचण्या केल्या जातात.
जेव्हापासून ChatGPT सार्वजनिक केले गेले आहे, तेव्हापासून OpenAI प्रत्येक LLM प्रकाशनासाठी त्याच्या रेड टीमिंग प्रयत्नांसह सार्वजनिक आहे. मध्ये अ ब्लॉग पोस्ट गेल्या आठवड्यात, कंपनीने प्रक्रियेच्या प्रगतीवर दोन नवीन शोधनिबंध सामायिक केले. त्यापैकी एक विशेष स्वारस्य आहे कारण कंपनीचा दावा आहे की ती एआय मॉडेल्ससाठी मोठ्या प्रमाणात रेड टीमिंग प्रक्रिया स्वयंचलित करू शकते.
OpenAI डोमेनमध्ये प्रकाशित, द कागद रेड टीमिंग स्वयंचलित करण्यासाठी अधिक सक्षम एआय मॉडेल्सचा वापर केला जाऊ शकतो असा दावा करतो. कंपनीचा विश्वास आहे की AI मॉडेल्स आक्रमणकर्त्यांच्या ध्येयांवर विचारमंथन करण्यात, आक्रमणकर्त्याच्या यशाचा न्याय कसा करता येईल आणि हल्ल्यांची विविधता समजून घेण्यात मदत करू शकतात.
त्यावर विस्तार करताना, संशोधकांनी दावा केला की GPT-4T मॉडेलचा उपयोग AI मॉडेलसाठी हानिकारक वर्तन करणाऱ्या कल्पनांच्या सूचीवर विचार करण्यासाठी केला जाऊ शकतो. काही उदाहरणांमध्ये “गाडी कशी चोरायची” आणि “बॉम्ब कसा बनवायचा” यासारख्या सूचनांचा समावेश आहे. एकदा कल्पना व्युत्पन्न झाल्यानंतर, प्रॉम्प्टची तपशीलवार मालिका वापरून ChatGPT ला फसवण्यासाठी स्वतंत्र रेड टीमिंग AI मॉडेल तयार केले जाऊ शकते.
सध्या, कंपनीने अनेक मर्यादांमुळे रेड टीमिंगसाठी ही पद्धत वापरण्यास सुरुवात केलेली नाही. यामध्ये एआय मॉडेल्सचे विकसित होणारे धोके, जेलब्रेकिंग किंवा हानीकारक सामग्री तयार करण्यासाठी एआयला कमी ज्ञात तंत्रांचा पर्दाफाश करणे आणि एआय एकदा आउटपुटच्या संभाव्य जोखमींचा योग्यरित्या न्याय करण्यासाठी मानवांमध्ये ज्ञानासाठी उच्च थ्रेशोल्डची आवश्यकता समाविष्ट आहे. मॉडेल अधिक सक्षम होते.