मेटा ने ओपन एआई के चैटजीपीटी और गूगल के बार्ड के साथ जनरेटिव एआई प्रतियोगिता में प्रवेश किया है

यूएसए: मेटा ने ओपन एआई के चैटजीपीटी और गूगल के बार्ड के साथ जनरेटिव एआई प्रतियोगिता में प्रवेश किया है। व्यवसाय का LLaMA भाषा मॉडल AI हथियारों की होड़ को बढ़ावा दे रहा है।
इसे Google के AI चैटबॉट और Microsoft-OpenAI गठबंधन के सुरक्षित विकल्प के रूप में प्रचारित किया गया है। इसकी अखंडता को बनाए रखने और दुरुपयोग को रोकने के लिए, LLaMA को एक गैर-वाणिज्यिक लाइसेंस के तहत उपलब्ध कराया गया है।
जब OpenAI के ChatGPT ने पिछले साल दुनिया का ध्यान आकर्षित किया, तो इसने AI प्रौद्योगिकी क्षेत्र में वर्चस्व के लिए एक प्रतियोगिता शुरू कर दी, जिसने Alphabet Inc. को देखा और Baidu को अपने उत्पादों को लॉन्च करने के लिए प्रेरित किया।
यह सुनिश्चित करने के लिए कि व्यवसाय सुपरचार्ज्ड जेनेरेटिव AI के लिए बाजार में पीछे नहीं रह गए हैं, META, जो लंबे समय से AI अनुसंधान और विकास में सबसे आगे है, ने अब LLAMA की शुरुआत की है।
मेटा के अनुसार, लार्ज लैंग्वेज मॉडल मेटा एआई (एलएलएएमए) एक "बेसलाइन, 65 बिलियन पैरामीटर लार्ज लैंग्वेज मॉडल" है। इसे आर्टिफिशियल इंटेलिजेंस के क्षेत्र में शोधकर्ताओं की मदद करने और एआई के लिए भाषा मॉडल के साथ समस्याओं को हल करने के लिए बनाया गया था।
मेटा के आधिकारिक ब्लॉग के अनुसार, LLaMA एक "छोटा, अधिक प्रदर्शन करने वाला" मॉडल है जो अनुसंधान समुदायों को महत्वपूर्ण बुनियादी ढांचे तक पहुंच के बिना AI मॉडल का अध्ययन करने में सक्षम करेगा।
अन्य बड़े भाषा मॉडल की तरह, LLaMA इनपुट शब्दों के एक सेट से अगले शब्द की भविष्यवाणी करके टेक्स्ट बनाता है। एलएलएम आम तौर पर सूचनाओं को संक्षेप में प्रस्तुत करने और सामग्री तैयार करने के लिए बड़ी मात्रा में टेक्स्ट माइन करते हैं।
लेकिन META से LLAMA पहले के तरीकों की तुलना में "बहुत कम" कंप्यूटिंग शक्ति का उपयोग करता है। यह उन प्रतिद्वंद्वियों को पछाड़ सकता है जो अधिक मापदंडों या चर पर विचार करते हैं।
LLaMA 7B, 13B, 33B और 65B पैरामिट्रीकृत मूलभूत भाषा मॉडल का एक संग्रह है। LLaMA 7B मॉडल के लिए एक ट्रिलियन टोकन की तुलना में, LLaMA 65B और 33B मॉडल को प्रशिक्षित करने के लिए 1.4 ट्रिलियन टोकन का उपयोग किया गया था। विशेष रूप से, Open AI का GPT-3 (175B) LLaMA 13B से बेहतर प्रदर्शन कर सकता है, भले ही यह दस गुना छोटा हो।
DeepMind और Google के चिनचिला70B और PaLM-540B मॉडल की तुलना 65B LLaMA मॉडल से की जा सकती है।
LLaMA सरकार, नागरिक समाज, या शिक्षा से संबद्ध शोधकर्ताओं और संगठनों को एक गैर-वाणिज्यिक लाइसेंस के तहत उपलब्ध कराया जाएगा।
मेटा के ब्लॉग के अनुसार, "हम आशा करते हैं कि LLaMA को अनुसंधान समुदाय के लिए उपलब्ध कराने से बड़े भाषा मॉडल के विकास में तेजी आएगी, उनकी मजबूती बढ़ेगी, और विषाक्तता/पूर्वाग्रह जैसी ज्ञात समस्याओं में कमी आएगी।"
व्यवसाय भविष्य में बड़े मॉडल जारी करने की योजना बना रहा है जिन्हें बड़े प्री-ट्रेनिंग डेटासेट पर प्रशिक्षित किया गया था।