डीपमाइंड 280 बिलियन-पैरामीटर मॉडल के साथ बड़ी एआई भाषा प्रणालियों की सीमाओं का परीक्षण करता है


भाषा निर्माण अभी एआई में सबसे हॉट चीज है, जिसमें “बड़े भाषा मॉडल” (या एलएलएम) के रूप में जाने जाने वाले सिस्टम के एक वर्ग का उपयोग Google के खोज इंजन को बेहतर बनाने से लेकर टेक्स्ट-आधारित फंतासी गेम बनाने तक हर चीज के लिए किया जा रहा है। लेकिन इन कार्यक्रमों में गंभीर समस्याएं भी हैं, जिनमें सेक्सिस्ट और नस्लवादी भाषा को पुनर्जीवित करना और तार्किक तर्क के असफल परीक्षण शामिल हैं। एक बड़ा सवाल यह है कि क्या केवल अधिक डेटा और कंप्यूटिंग शक्ति जोड़कर इन कमजोरियों को सुधारा जा सकता है, या हम इस तकनीकी प्रतिमान की सीमा तक पहुंच रहे हैं?

यह उन विषयों में से एक है जिसे अल्फाबेट की एआई लैब डीपमाइंड आज प्रकाशित शोध पत्रों की तिकड़ी में निपटा रहा है। कंपनी का निष्कर्ष यह है कि इन प्रणालियों को आगे बढ़ाने से काफी सुधार होना चाहिए। “कागज की एक प्रमुख खोज यह है कि बड़े भाषा मॉडल की प्रगति और क्षमताएं अभी भी बढ़ रही हैं। यह ऐसा क्षेत्र नहीं है जिसने पठार किया है, “दीपमाइंड शोध वैज्ञानिक जैक राय ने एक ब्रीफिंग कॉल में संवाददाताओं से कहा।

डीपमाइंड, जो नियमित रूप से अपने काम को Google उत्पादों में फीड करता है, ने गोफर नाम के 280 बिलियन मापदंडों के साथ एक भाषा मॉडल बनाकर इस एलएलएम की क्षमताओं की जांच की है। पैरामीटर एक भाषा के मॉडल आकार और जटिलता का एक त्वरित उपाय है, जिसका अर्थ है कि गोफर ओपनएआई के जीपीटी -3 (175 अरब पैरामीटर) से बड़ा है, लेकिन माइक्रोसॉफ्ट और एनवीडिया जैसे कुछ और प्रयोगात्मक सिस्टम जितना बड़ा नहीं है। मेगाट्रॉन मॉडल (530 अरब पैरामीटर)।

एआई की दुनिया में यह आम तौर पर सच है कि बड़ा बेहतर है, बड़े मॉडल आमतौर पर उच्च प्रदर्शन की पेशकश करते हैं। डीपमाइंड का शोध इस प्रवृत्ति की पुष्टि करता है और सुझाव देता है कि एलएलएम को बढ़ाने से भावना विश्लेषण और सारांश जैसी चीजों का परीक्षण करने वाले सबसे सामान्य बेंचमार्क पर बेहतर प्रदर्शन मिलता है। हालांकि, शोधकर्ताओं ने यह भी आगाह किया कि भाषा मॉडल में निहित कुछ मुद्दों को ठीक करने के लिए केवल डेटा और गणना से अधिक की आवश्यकता होगी।

“मुझे लगता है कि अभी ऐसा लग रहा है कि मॉडल कई तरह से विफल हो सकता है,” राय ने कहा। “उन तरीकों में से कुछ सबसेट इसलिए हैं क्योंकि मॉडल के पास जो कुछ भी पढ़ रहा है उसकी पर्याप्त अच्छी समझ नहीं है, और मुझे लगता है कि समस्याओं के उन वर्गों के लिए, हम अधिक डेटा और पैमाने के साथ बेहतर प्रदर्शन देखने जा रहे हैं।”

लेकिन, उन्होंने कहा, “समस्याओं की अन्य श्रेणियां हैं, जैसे मॉडल रूढ़िबद्ध पूर्वाग्रहों को कायम रखता है या मॉडल को गलतफहमियां देने के लिए मजबूर किया जाता है, जो कि […] डीपमाइंड में कोई नहीं सोचता कि स्केल ही समाधान होगा [to]।” इन मामलों में, भाषा मॉडल को “अतिरिक्त प्रशिक्षण दिनचर्या” की आवश्यकता होगी, जैसे मानव उपयोगकर्ताओं से प्रतिक्रिया, उन्होंने कहा।

इन निष्कर्षों पर आने के लिए, दीपमाइंड के शोधकर्ताओं ने 152 भाषा कार्यों या बेंचमार्क पर विभिन्न आकार के भाषा मॉडल का मूल्यांकन किया। उन्होंने पाया कि बड़े मॉडलों ने आम तौर पर बेहतर परिणाम दिए, गोफर ने खुद वैज्ञानिकों द्वारा चुने गए परीक्षणों के लगभग 80 प्रतिशत पर अत्याधुनिक प्रदर्शन की पेशकश की।

एक अन्य पेपर में, कंपनी ने एलएलएम की तैनाती से जुड़े संभावित नुकसान की विस्तृत श्रृंखला का भी सर्वेक्षण किया। इनमें सिस्टम द्वारा जहरीली भाषा का उपयोग, गलत सूचना साझा करने की उनकी क्षमता और स्पैम या प्रचार साझा करने जैसे दुर्भावनापूर्ण उद्देश्यों के लिए उपयोग किए जाने की उनकी क्षमता शामिल है। ये सभी मुद्दे तेजी से महत्वपूर्ण हो जाएंगे क्योंकि एआई भाषा मॉडल अधिक व्यापक रूप से तैनात हो जाते हैं – उदाहरण के लिए चैटबॉट और बिक्री एजेंट के रूप में।

हालांकि, यह याद रखने योग्य है कि बेंचमार्क पर प्रदर्शन मशीन लर्निंग सिस्टम का मूल्यांकन करने में सब कुछ नहीं है। में एक हाल का पेपर, कई AI शोधकर्ताओं (Google के दो सहित) ने बेंचमार्क की सीमाओं का पता लगाया, यह देखते हुए कि ये डेटासेट हमेशा दायरे में सीमित रहेंगे और वास्तविक दुनिया की जटिलता से मेल खाने में असमर्थ होंगे। जैसा कि अक्सर नई तकनीक के मामले में होता है, इन प्रणालियों का परीक्षण करने का एकमात्र विश्वसनीय तरीका यह देखना है कि वे वास्तविकता में कैसा प्रदर्शन करते हैं। बड़े भाषा मॉडल के साथ, हम जल्द ही इनमें से अधिक एप्लिकेशन देखेंगे।

Source link

Leave a Reply

Your email address will not be published.

Enable Notifications OK No thanks