सर्वम-30B और सर्वम-105B | 19 Feb 2026

स्रोत: द हिंदू 

बंगलूरू स्थित सर्वम AI ने दो नए लार्ज लैंग्वेज मॉडल (LLM)  का अनावरण किया है: सर्वम-30B (30 अरब पैरामीटर वाला मॉडल) और सर्वम-105B (105 अरब पैरामीटर वाला मॉडल)। यह घोषणा इंडिया-एआई इंपैक्ट समिट 2026 में ‘विक्रम’ कार्यक्रम के तहत की गई।

  • समिट में सर्वम AI ने विक्रम नामक बहुभाषी चैटबॉट प्रस्तुत किया, जो भारतीय भाषाओं में सहज बातचीत की सुविधा देता है। इसे भौतिक विज्ञानी विक्रम साराभाई के सम्मान में नामित किया गया है, ताकि देशी वैज्ञानिक नवाचार को प्रतिबिंबित किया जा सके।
  • यह लॉन्च ओपन AI द्वारा 'IndQA' पेश किये जाने के बीच हुआ है, जो भारतीय भाषाओं और सांस्कृतिक संदर्भों की समझ का आकलन करने वाला एक बेंचमार्क है। यह भारत पर बढ़ते वैश्विक ध्यान को दर्शाता है।
  • स्वदेशी विकास: यह 30 बिलियन पैरामीटर वाला बहुभाषी मॉडल वास्तविक समय की बातचीत के लिये डिज़ाइन किया गया है, जिसमें 32,000-टोकन का संदर्भ विंडो है (एक बार में पढ़ने और याद रखने योग्य टेक्स्ट की मात्रा)। यह लंबी बातचीत के लिये मज़बूत तर्क तथा निर्देश पालन क्षमता प्रदान करता है।
    • 105 बिलियन पैरामीटर वाला मॉडल जिसमें 128,000-टोकन का संदर्भ विंडो है, यह जटिल तर्क, बहु-स्तरीय समस्या समाधान और भारतीय भाषाओं में लंबी-आकार की विश्लेषणात्मक बातचीत के लिये उपयुक्त है।
    • दोनों मॉडल मिश्रित-विशेषज्ञ आर्किटेक्चर का उपयोग करते हैं, जिसमें केवल संगणना के दौरान प्रासंगिक घटक सक्रिय होते हैं, ताकि लागत कम की जा सके और उच्च प्रदर्शन बनाए रखा जा सके।
    • पैरामीटर AI मॉडल के इंटरनल वेरिएबल या उसके “ब्रेन सेल्स” होते हैं, जो प्रशिक्षण के दौरान सीखे जाते हैं; उच्च पैरामीटर संख्या सामान्यतः अधिक जटिलता, तर्क‑क्षमता और सूक्ष्म कार्यों को सँभालने की अधिक क्षमता वाले मॉडल की ओर संकेत करती है।
  • प्रमुख विशेषता और क्षमता
    • भारतीय भाषाओं में महारथ: GPT-4 जैसे वैश्विक मॉडलों के विपरीत, जो मुख्य रूप से अंग्रेज़ी डेटा पर प्रशिक्षित हैं, सर्वम को सभी 22 भारतीय भाषाओं में उत्कृष्टता प्राप्त करने के लिये बनाया गया है, जिसमें वॉइस-फर्स्ट ऑप्टि
    • माइज़ेशन के साथ, 105B-पैरामीटर (डीपसीक के 600B R1 मॉडल के आकार का एक-छठा हिस्सा) के बावजूद AI को जनता के लिये अधिक सुलभ बनाया गया है।
      • यह भारतीय भाषाओं में "डेटा की कमी" की समस्या को दूर करता है, जिससे स्थानीय बोलियों में सटीक अनुवाद और कंटेंट जनरेशन संभव हो पाता है।
    • ओपन सोर्स: इन मॉडलों को ओपन सोर्स के रूप में जारी किया जाएगा, जिसका अर्थ है कि डेवलपर्स और शोधकर्त्ता ‘सर्वम' के आधार पर अपने स्वयं के एप्लिकेशन बनाने के लिये इसके कोड और वेट्स तक पहुँच सकते हैं।
  • प्रशिक्षण बुनियादी ढाँचा: LLM को प्रशिक्षित करने के लिये अत्यधिक कंप्यूटिंग शक्ति की आवश्यकता होती है। इन मॉडलों को IndiaAI मिशन के 'कॉमन कंप्यूट प्रोग्राम' के माध्यम से एक्सेस किये गए GPU (ग्राफिक्स प्रोसेसिंग यूनिट्स) का उपयोग करके प्रशिक्षित किया गया है, जो सार्वजनिक-निजी भागीदारी की सफलता को दर्शाता है।
    • IndiaAI मिशन के तहत सर्वम AI को शासन और सार्वजनिक सेवाओं के लिये एक ओपन-सोर्स 120B-पैरामीटर मॉडल के साथ भारत का पहला सोवरेन LLM ईकोसिस्टम निर्माण के लिये चुना गया है।
    • सर्वम AI के अतिरिक्त, सोकेट AI रक्षा, स्वास्थ्य सेवा और शिक्षा जैसे क्षेत्रों के लिये भारत-केंद्रित मॉडल विकसित करेगा। वहीं Gnani ने अपना मॉडल लॉन्च किया है और Gan AI एक 70B-पैरामीटर वाला मल्टीलिंगुअल 'टेक्स्ट-टू-स्पीच' फाउंडेशन मॉडल का निर्माण कर रहा है।

और पढ़ें: सर्वम AI और भारत में सॉवरेन AI