ओपनएआयने गेल्या आठवड्यात त्याच्या कृत्रिम बुद्धिमत्ता (एआय) मॉडेल्समध्ये सुधारणा करण्याचे दोन मार्ग जाहीर केले. पहिल्यामध्ये GPT-4o (जीपीटी-4 टर्बो म्हणूनही ओळखले जाते) साठी नवीन अपडेट जारी करणे समाविष्ट आहे, जे कंपनीचे नवीनतम AI मॉडेल सशुल्क सदस्यांसाठी ChatGPT पॉवर करते. कंपनी म्हणते की अपडेट मॉडेलची सर्जनशील लेखन क्षमता सुधारते आणि नैसर्गिक भाषेतील प्रतिसाद आणि उच्च वाचनीयतेसह आकर्षक सामग्री लिहिण्यासाठी ते अधिक चांगले करते. OpenAI ने रेड टीमिंगवर दोन शोधनिबंध देखील जारी केले आणि त्याच्या AI मॉडेल्सद्वारे केलेल्या त्रुटी शोधण्यासाठी प्रक्रिया स्वयंचलित करण्यासाठी एक नवीन पद्धत सामायिक केली.
OpenAI अपडेट्स GPT-4o AI मॉडेल
मध्ये अ पोस्ट X वर (पूर्वी Twitter म्हणून ओळखले जाणारे), AI फर्मने GPT-4o फाउंडेशन मॉडेलसाठी नवीन अद्यतनाची घोषणा केली. OpenAI म्हणते की अपडेट AI मॉडेलला “अधिक नैसर्गिक, आकर्षक आणि अनुरूप लेखनासह आउटपुट व्युत्पन्न करण्यास अनुमती देते जे प्रासंगिकता आणि वाचनीयता सुधारते.” अपलोड केलेल्या फायलींवर प्रक्रिया करण्याची आणि सखोल अंतर्दृष्टी आणि “अधिक सखोल” प्रतिसाद प्रदान करण्याची AI मॉडेलची क्षमता सुधारते असेही म्हटले जाते.
विशेष म्हणजे, GPT-4o AI मॉडेल ChatGPT Plus सदस्यत्व असलेल्या वापरकर्त्यांसाठी आणि API द्वारे लार्ज लँग्वेज मॉडेल (LLM) मध्ये प्रवेश असलेल्या विकसकांसाठी उपलब्ध आहे. चॅटबॉटचा फ्री टियर वापरणाऱ्यांना मॉडेलमध्ये प्रवेश नाही.
गॅझेट्स 360 कर्मचारी सदस्य नवीन क्षमता तपासण्यात सक्षम नसताना, X वर एक वापरकर्ता पोस्ट केले अपडेटनंतर AI मॉडेलमधील नवीनतम सुधारणांबद्दल. वापरकर्त्याने असा दावा केला आहे की GPT-4o “अत्याधुनिक अंतर्गत यमक रचना” सह एमिनेम-शैलीतील रॅप सिफर तयार करू शकते.
ओपनएआय रेड टीमिंगवर नवीन संशोधन पेपर शेअर करते
रेड टीमिंग ही विकसक आणि कंपन्यांद्वारे असुरक्षा, संभाव्य जोखीम आणि सुरक्षितता समस्यांसाठी सॉफ्टवेअर आणि सिस्टमची चाचणी घेण्यासाठी बाह्य संस्थांना नियुक्त करण्यासाठी वापरली जाणारी प्रक्रिया आहे. बहुतेक AI कंपन्या हानीकारक, चुकीच्या किंवा दिशाभूल करणाऱ्या आउटपुटसह प्रतिसाद देतात की नाही याची तणाव-चाचणी करण्यासाठी संस्था, प्रॉम्प्ट अभियंते आणि नैतिक हॅकर्स यांच्याशी सहयोग करतात. एआय सिस्टम जेलब्रोकन करता येते का हे तपासण्यासाठी चाचण्या देखील केल्या जातात.
जेव्हापासून ChatGPT सार्वजनिक केले गेले आहे, तेव्हापासून OpenAI प्रत्येक LLM प्रकाशनासाठी त्याच्या रेड टीमिंग प्रयत्नांसह सार्वजनिक आहे. मध्ये अ ब्लॉग पोस्ट गेल्या आठवड्यात, कंपनीने प्रक्रियेच्या प्रगतीवर दोन नवीन शोधनिबंध सामायिक केले. त्यापैकी एक विशेष स्वारस्य आहे कारण कंपनीचा दावा आहे की ती एआय मॉडेल्ससाठी मोठ्या प्रमाणात रेड टीमिंग प्रक्रिया स्वयंचलित करू शकते.
OpenAI डोमेनमध्ये प्रकाशित, द कागद रेड टीमिंग स्वयंचलित करण्यासाठी अधिक सक्षम एआय मॉडेल्सचा वापर केला जाऊ शकतो असा दावा करतो. कंपनीचा विश्वास आहे की AI मॉडेल्स आक्रमणकर्त्यांच्या ध्येयांवर विचारमंथन करण्यात, आक्रमणकर्त्याच्या यशाचा न्याय कसा करता येईल आणि हल्ल्यांची विविधता समजून घेण्यात मदत करू शकतात.
त्यावर विस्तार करताना, संशोधकांनी दावा केला की GPT-4T मॉडेलचा उपयोग AI मॉडेलसाठी हानिकारक वर्तन करणाऱ्या कल्पनांच्या सूचीवर विचार करण्यासाठी केला जाऊ शकतो. काही उदाहरणांमध्ये “गाडी कशी चोरायची” आणि “बॉम्ब कसा बनवायचा” यासारख्या सूचनांचा समावेश होतो. एकदा कल्पना व्युत्पन्न झाल्यानंतर, प्रॉम्प्टची तपशीलवार मालिका वापरून ChatGPT ला फसवण्यासाठी स्वतंत्र रेड टीमिंग AI मॉडेल तयार केले जाऊ शकते.
सध्या, कंपनीने अनेक मर्यादांमुळे रेड टीमिंगसाठी ही पद्धत वापरण्यास सुरुवात केलेली नाही. यामध्ये एआय मॉडेल्सचे विकसित होणारे धोके, जेलब्रेकिंग किंवा हानीकारक सामग्री तयार करण्यासाठी एआयला कमी ज्ञात तंत्रांचा पर्दाफाश करणे आणि एआय मॉडेल अधिक सक्षम झाल्यानंतर आउटपुटच्या संभाव्य जोखमींचा योग्यरित्या न्याय करण्यासाठी मानवांमध्ये ज्ञानासाठी उच्च थ्रेशोल्डची आवश्यकता यांचा समावेश आहे. .
