मुंबई, 10 नवंबर, (न्यूज़ हेल्पलाइन) आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में एक बड़ी सफलता हासिल करते हुए, Google के शोधकर्ताओं ने एक नया मशीन लर्निंग मॉडल विकसित करने का दावा किया है, जो निरंतर सीखने (Continual Learning) और खुद को बेहतर बनाने की दिशा में एक महत्वपूर्ण कदम है। इस नए मॉडल को 'HOPE' नाम दिया गया है, और यह मौजूदा अत्याधुनिक AI मॉडलों की तुलना में लंबी-संदर्भ मेमोरी (long-context memory management) को बेहतर ढंग से प्रबंधित करने में सक्षम है।
'HOPE' किस नई तकनीक पर आधारित है?
Google के शोधकर्ताओं का कहना है कि HOPE मॉडल 'नेस्टेड लर्निंग' (Nested Learning) नामक एक नए कॉन्सेप्ट पर आधारित है। Google ने एक ब्लॉग पोस्ट में बताया कि इस दृष्टिकोण में, एक एकल मॉडल को एक सतत प्रक्रिया के बजाय "आपस में जुड़ी हुई, बहु-स्तरीय शिक्षण समस्याओं की एक प्रणाली" के रूप में देखा जाता है, जिन्हें एक साथ अनुकूलित (optimized simultaneously) किया जाता है।
नेस्टेड लर्निंग की यह नई अवधारणा आधुनिक लार्ज लैंग्वेज मॉडल (LLMs) में मौजूद एक बड़ी सीमा को हल करने में मदद कर सकती है, जिसे 'Catastrophic Forgetting' कहा जाता है। यह निरंतर सीखने की क्षमता की दिशा में एक महत्वपूर्ण कदम है, जो आर्टिफिशियल जनरल इंटेलिजेंस (AGI) या मानव-समान बुद्धिमत्ता प्राप्त करने के मार्ग में अत्यंत महत्वपूर्ण है।
AI के लिए निरंतर सीखना क्यों ज़रूरी है?
आज के LLMs (जैसे ChatGPT को शक्ति प्रदान करने वाले) सेकंडों में कोड और कविताएँ लिख सकते हैं, लेकिन उनमें अनुभव से सीखने की बुनियादी क्षमता की कमी होती है।
मानव मस्तिष्क के विपरीत, जो लगातार सीखता और खुद को बेहतर बनाता है, आज के LLMs नई जानकारी या कौशल को सीखने के लिए अक्सर अपनी पुरानी सीखी हुई जानकारी को भूल जाते हैं।
ज्ञान को खो देने की इस अक्षमता को ही 'Catastrophic Forgetting' (विनाशकारी विस्मृति) कहा जाता है।
गूगल के शोधकर्ताओं का तर्क है कि मॉडल का आर्किटेक्चर और उसे प्रशिक्षित करने के नियम (ऑप्टिमाइज़ेशन एल्गोरिदम) मूल रूप से एक ही अवधारणा हैं। नेस्टेड लर्निंग इस अंतर्निहित संरचना को पहचानता है, जिससे अधिक सक्षम AI को डिज़ाइन करने के लिए एक नया आयाम मिलता है और विनाशकारी विस्मृति जैसी समस्याओं को हल करने में मदद मिलती है।
AGI की राह में बड़ी चुनौती
AI/ML वैज्ञानिक आंद्रेज कार्पाथी (जो पहले Google DeepMind में थे) ने पिछले महीने एक पॉडकास्ट में कहा था कि AGI अभी भी लगभग एक दशक दूर है, जिसका मुख्य कारण यह है कि कोई भी AI सिस्टम विकसित नहीं कर पाया है जो निरंतर सीखता हो।
Google का मानना है कि नेस्टेड लर्निंग प्रतिमान वर्तमान LLMs की सीमित, भूलने वाली प्रकृति और मानव मस्तिष्क की असाधारण निरंतर सीखने की क्षमताओं के बीच के अंतर को कम करने के लिए एक मजबूत आधार प्रदान करता है।
शोधकर्ताओं ने अपने निष्कर्ष NeurIPS 2025 में प्रकाशित एक पेपर में दिए हैं, जिसका शीर्षक है 'Nested Learning: The Illusion of Deep Learning Architectures'। कंपनी के अनुसार, प्रूफ-ऑफ-कॉन्सेप्ट मॉडल, HOPE, ने सामान्य रूप से उपयोग किए जाने वाले भाषा मॉडलिंग और सामान्य-ज्ञान तर्क (common-sense reasoning) कार्यों के विविध सेट पर परीक्षण किए जाने पर आधुनिक LLMs की तुलना में कम जटिलता (lower perplexity) और उच्च सटीकता (higher accuracy) का प्रदर्शन किया है।