इन दिनों हर बड़ी तकनीक कंपनी की तरह, मेटा का अपना प्रमुख जेनेरिक एआई मॉडल है, जिसे लामा कहा जाता है। लामा प्रमुख मॉडलों में कुछ हद तक अद्वितीय है, जिसमें यह “खुला” है, जिसका अर्थ है कि डेवलपर्स इसे डाउनलोड और उपयोग कर सकते हैं, हालांकि वे कृपया (कुछ सीमाओं के साथ)। यह एंथ्रोपिक के क्लाउड, Google की मिथुन, XAI के ग्रोक, और ओपनईएआई के अधिकांश चैट मॉडल जैसे मॉडल के विपरीत है, जिसे केवल एपीआई के माध्यम से एक्सेस किया जा सकता है।
डेवलपर्स की पसंद देने के हित में, हालांकि, मेटा ने लामा के क्लाउड-होस्टेड संस्करणों को उपलब्ध कराने के लिए AWS, Google Cloud और Microsoft Azure सहित विक्रेताओं के साथ भी भागीदारी की है। इसके अलावा, कंपनी डेवलपर्स को अपने डोमेन के लिए मॉडल को ठीक से ट्यून, मूल्यांकन और अनुकूलित करने में मदद करने के लिए अपनी लामा कुकबुक में उपकरण, पुस्तकालयों और व्यंजनों को प्रकाशित करती है। जैसे नई पीढ़ियों के साथ लामा 3 और लामा 4, इन क्षमताओं का विस्तार देशी मल्टीमॉडल सपोर्ट और व्यापक क्लाउड रोलआउट को शामिल करने के लिए किया गया है।
यहां आपको मेटा के लामा के बारे में जानने की जरूरत है, इसकी क्षमताओं और संस्करणों से जहां आप इसका उपयोग कर सकते हैं। हम इस पोस्ट को अद्यतन रखेंगे क्योंकि मेटा रिलीज़ अपग्रेड करता है और मॉडल के उपयोग का समर्थन करने के लिए नए देव टूल्स का परिचय देता है।
लामा क्या है?
लामा मॉडल का एक परिवार है – सिर्फ एक नहीं। नवीनतम संस्करण है लामा 4; यह अप्रैल 2025 में जारी किया गया था और इसमें तीन मॉडल शामिल हैं:
- स्काउट: 17 बिलियन सक्रिय पैरामीटर, 109 बिलियन कुल पैरामीटर, और 10 मिलियन टोकन की एक संदर्भ विंडो।
- Maverick: 17 बिलियन सक्रिय पैरामीटर, 400 बिलियन कुल पैरामीटर, और 1 मिलियन टोकन की एक संदर्भ विंडो।
- आबी घोड़ा: अभी तक जारी नहीं किया गया है, लेकिन 288 बिलियन सक्रिय पैरामीटर और 2 ट्रिलियन कुल पैरामीटर होंगे।
(डेटा साइंस में, टोकन कच्चे डेटा के उप -विभाजित बिट्स हैं, जैसे कि “फैन,” “टास” और “टिक” शब्द “फैंटास्टिक”) में।
एक मॉडल का संदर्भ, या संदर्भ विंडो, इनपुट डेटा (जैसे, पाठ) को संदर्भित करता है जो मॉडल आउटपुट (जैसे, अतिरिक्त पाठ) उत्पन्न करने से पहले मानता है। लंबे संदर्भ मॉडल को हाल के डॉक्स और डेटा की सामग्री को “भूल” से रोक सकते हैं, और विषय को बंद करने और गलत तरीके से एक्सट्रपलेशन करने से। हालांकि, लंबे समय तक संदर्भ विंडो भी कर सकते हैं मॉडल में परिणाम “भूल” कुछ सुरक्षा गार्ड्रिल और बातचीत के अनुरूप सामग्री का उत्पादन करने के लिए अधिक प्रवण होने के नाते, जिसने कुछ उपयोगकर्ताओं को आगे बढ़ाया है भ्रम संबंधी सोच।
संदर्भ के लिए, 10 मिलियन संदर्भ विंडो जो लामा 4 स्काउट का वादा करती है, लगभग 80 औसत उपन्यासों के पाठ के बराबर है। लामा 4 मावरिक ‘एस 1 मिलियन संदर्भ विंडो लगभग आठ उपन्यासों के बराबर है।
TechCrunch घटना
सान फ्रांसिस्को
|
27-29 अक्टूबर, 2025
मेटा के अनुसार, सभी लामा 4 मॉडल को “व्यापक दृश्य समझ” के साथ -साथ 200 भाषाओं पर “बड़ी मात्रा में अनबेल्ड टेक्स्ट, इमेज और वीडियो डेटा” की बड़ी मात्रा में प्रशिक्षित किया गया था।
लामा 4 स्काउट और मावरिक मेटा के पहले ओपन-वेट मूल रूप से मल्टीमॉडल मॉडल हैं। वे एक “मिश्रण-ऑफ-एक्सपर्ट्स” (एमओई) आर्किटेक्चर का उपयोग करके बनाया गया है, जो कम्प्यूटेशनल लोड को कम करता है और प्रशिक्षण और अनुमान में दक्षता में सुधार करता है। उदाहरण के लिए, स्काउट में 16 विशेषज्ञ हैं, और मावरिक में 128 विशेषज्ञ हैं।
Llama 4 Behemoth में 16 विशेषज्ञ शामिल हैं, और मेटा इसे छोटे मॉडल के लिए एक शिक्षक के रूप में संदर्भित कर रहा है।
लामा 4 लामा 3 श्रृंखला पर बनाता है, जिसमें निर्देश-ट्यून किए गए अनुप्रयोगों और क्लाउड परिनियोजन के लिए व्यापक रूप से उपयोग किए जाने वाले 3.1 और 3.2 मॉडल शामिल थे।
लामा क्या कर सकते हैं?
अन्य जनरेटिव एआई मॉडल की तरह, लामा विभिन्न सहायक कार्यों की एक श्रृंखला का प्रदर्शन कर सकते हैं, जैसे कि कोडिंग और बुनियादी गणित के सवालों का जवाब दे सकते हैं, साथ ही कम से कम 12 भाषाओं (अरबी, अंग्रेजी, जर्मन, फ्रांसीसी, हिंदी, इंडोनेशियाई, इतालवी, पुर्तगाली, हिंदी, स्पेनिश, टैगलोग, थाई और वियतनाम) में दस्तावेजों को संक्षेप में प्रस्तुत कर सकते हैं। अधिकांश पाठ-आधारित वर्कलोड-पीडीएफ और स्प्रेडशीट जैसी बड़ी फ़ाइलों का विश्लेषण करने के बारे में सोचें-इसके दायरे में हैं, और सभी लामा 4 मॉडल पाठ, छवि और वीडियो इनपुट का समर्थन करते हैं।
Llama 4 स्काउट को लंबे समय तक वर्कफ़्लो और बड़े पैमाने पर डेटा विश्लेषण के लिए डिज़ाइन किया गया है। Maverick एक सामान्यवादी मॉडल है जो तर्क शक्ति और प्रतिक्रिया की गति को संतुलित करने में बेहतर है, और कोडिंग, चैटबॉट्स और तकनीकी सहायकों के लिए उपयुक्त है। और Behemoth को उन्नत अनुसंधान, मॉडल आसवन और STEM कार्यों के लिए डिज़ाइन किया गया है।
लामा 3.1 सहित लामा मॉडल को कार्य करने के लिए तृतीय-पक्ष अनुप्रयोगों, उपकरणों और एपीआई का लाभ उठाने के लिए कॉन्फ़िगर किया जा सकता है। उन्हें हाल की घटनाओं के बारे में सवालों के जवाब देने के लिए बहादुर खोज का उपयोग करने के लिए प्रशिक्षित किया जाता है; गणित और विज्ञान से संबंधित प्रश्नों के लिए वोल्फ्राम अल्फा एपीआई; और कोड को मान्य करने के लिए एक पायथन दुभाषिया। हालाँकि, इन टूलों को उचित कॉन्फ़िगरेशन की आवश्यकता होती है और वे स्वचालित रूप से बॉक्स से बाहर सक्षम नहीं होते हैं।
मैं लामा का उपयोग कहां कर सकता हूं?
यदि आप बस लामा के साथ चैट करना चाहते हैं, तो यह है मेटा एआई चैटबोट अनुभव को पावर देना 40 देशों में फेसबुक मैसेंजर, व्हाट्सएप, इंस्टाग्राम, ओकुलस और मेटा.एआई पर। 200 से अधिक देशों और क्षेत्रों में मेटा एआई अनुभवों में लामा के ललित-ट्यून किए गए संस्करणों का उपयोग किया जाता है।
Llama 4 मॉडल स्काउट और Maverick Llama.com और मेटा के भागीदारों पर उपलब्ध हैं, जिसमें AI डेवलपर प्लेटफॉर्म हगिंग फेस शामिल हैं। Behemoth अभी भी प्रशिक्षण में है। लामा के साथ डेवलपर्स बिल्डिंग सबसे लोकप्रिय क्लाउड प्लेटफार्मों में से अधिकांश में मॉडल को डाउनलोड, उपयोग या ठीक कर सकते हैं। मेटा का दावा है कि इसमें 25 से अधिक भागीदार हैं, जिनमें एनवीडिया, डेटाब्रिक्स, ग्रोक, डेल और स्नोफ्लेक सहित लामा की मेजबानी होती है। और मेटा के खुले तौर पर उपलब्ध मॉडल के लिए “एक्सेस की बिक्री” करते समय मेटा का बिजनेस मॉडल नहीं है, कंपनी के माध्यम से कुछ पैसा कमाता है राजस्व-साझाकरण समझौते मॉडल होस्ट के साथ।
इनमें से कुछ भागीदारों ने लामा के शीर्ष पर अतिरिक्त उपकरण और सेवाएं बनाई हैं, जिनमें ऐसे उपकरण शामिल हैं जो मॉडल को मालिकाना डेटा का संदर्भ देते हैं और उन्हें कम विलंबता पर चलाने में सक्षम बनाते हैं।
महत्वपूर्ण रूप से, लामा लाइसेंस कैसे डेवलपर्स मॉडल को तैनात कर सकते हैं: 700 मिलियन से अधिक मासिक उपयोगकर्ताओं के साथ ऐप डेवलपर्स को मेटा से एक विशेष लाइसेंस का अनुरोध करना चाहिए जो कंपनी अपने विवेक पर अनुदान देगी।
मई 2025 में, मेटा ने एक लॉन्च किया नया कार्यक्रम अपने लामा मॉडल को अपनाने के लिए स्टार्टअप को प्रोत्साहित करने के लिए। स्टार्टअप के लिए लामा मेटा की लामा टीम से कंपनियों का समर्थन और संभावित फंडिंग तक पहुंच प्रदान करता है।
लामा के साथ, मेटा मॉडल को “सुरक्षित” बनाने के लिए उपकरण प्रदान करता है: उपयोग करने के लिए:
- लामा गार्डएक मॉडरेशन फ्रेमवर्क।
- साइबरसिवलएक साइबर सुरक्षा जोखिम मूल्यांकन सूट।
- लामा फ़ायरवॉलसुरक्षित एआई सिस्टम के निर्माण को सक्षम करने के लिए डिज़ाइन किया गया एक सुरक्षा रेलिंग।
- कोड शील्डजो LLMS द्वारा उत्पादित असुरक्षित कोड के अनुमान-समय फ़िल्टरिंग के लिए समर्थन प्रदान करता है।
लामा गार्ड संभावित रूप से समस्याग्रस्त सामग्री का पता लगाने की कोशिश करता है-या एक लामा मॉडल द्वारा-आपराधिक गतिविधि, बाल शोषण, कॉपीराइट उल्लंघन, नफरत, आत्म-हानि और यौन शोषण से संबंधित सामग्री सहित-या तो खिलाया गया-या उत्पन्न किया गया। उस ने कहा, यह स्पष्ट रूप से एक चांदी की गोली नहीं है मेटा के अपने पिछले दिशानिर्देश चैटबॉट को नाबालिगों के साथ कामुक और रोमांटिक चैट में संलग्न करने की अनुमति दी, और कुछ रिपोर्टों से पता चलता है कि यौन बातचीत। डेवलपर्स कर सकते हैं अनुकूलित करना अवरुद्ध सामग्री की श्रेणियां और सभी भाषाओं में ब्लॉक को लागू करते हैं, लामा का समर्थन करता है।
लामा गार्ड की तरह, प्रॉम्प्ट गार्ड लामा के लिए इच्छित पाठ को अवरुद्ध कर सकता है, लेकिन केवल पाठ का अर्थ केवल मॉडल पर “हमला” करना है और इसे अवांछनीय तरीके से व्यवहार करना है। मेटा का दावा है कि लामा गार्ड स्पष्ट रूप से दुर्भावनापूर्ण संकेतों (यानी, जेलब्रेक के खिलाफ बचाव कर सकते हैं, जो कि लामा के अंतर्निहित सुरक्षा फिल्टर के आसपास जाने का प्रयास करते हैं) के अलावा “इंजेक्ट इनपुट। ” लामा फ़ायरवॉल शीघ्र इंजेक्शन, असुरक्षित कोड और जोखिम भरा उपकरण इंटरैक्शन जैसे जोखिमों का पता लगाने और रोकने के लिए काम करता है।
साइबरसेवेल के लिए, यह मॉडल सुरक्षा को मापने के लिए बेंचमार्क के संग्रह की तुलना में कम एक उपकरण है। साइबरसेवल जोखिम का आकलन कर सकता है एक लामा मॉडल (कम से कम मेटा के मानदंडों के अनुसार) डेवलपर्स और “स्वचालित सोशल इंजीनियरिंग” और “स्केलिंग आक्रामक साइबर संचालन” जैसे क्षेत्रों में उपयोगकर्ताओं को समाप्त कर सकता है।
लामा की सीमाएँ

लामा कुछ जोखिमों और सीमाओं के साथ आता है, जैसे सभी जनरेटिव एआई मॉडल। उदाहरण के लिए, जबकि इसके सबसे हाल के मॉडल में मल्टीमॉडल विशेषताएं हैं, वे मुख्य रूप से अभी के लिए अंग्रेजी भाषा तक सीमित हैं।
ज़ूमिंग आउट, मेटा ने पायरेटेड ई-बुक्स के एक डेटासेट का इस्तेमाल किया और इसके लामा मॉडल को प्रशिक्षित करने के लिए लेख। एक संघीय न्यायाधीश ने हाल ही में 13 पुस्तक लेखकों द्वारा कंपनी के खिलाफ लाए गए कॉपीराइट मुकदमे में मेटा के साथ पक्षपात किया, जिसमें कहा गया कि प्रशिक्षण के लिए कॉपीराइट कार्यों का उपयोग “उचित उपयोग” के तहत गिर गया। हालांकि, अगर लामा पुनर्जीवित करना एक कॉपीराइट स्निपेट और कोई इसे किसी उत्पाद में उपयोग करता है, वे संभावित रूप से कॉपीराइट पर उल्लंघन कर सकते हैं और उत्तरदायी हो सकते हैं।
मेटा भी इंस्टाग्राम और फेसबुक पोस्ट, फोटो और कैप्शन पर अपने एआई को विवादास्पद रूप से प्रशिक्षित करता है, और उपयोगकर्ताओं के लिए बाहर निकलना मुश्किल हो जाता है।
प्रोग्रामिंग एक और क्षेत्र है जहां लामा का उपयोग करते समय हल्के से चलना बुद्धिमानी है। ऐसा इसलिए है क्योंकि लामा हो सकता है – शायद इसके उदार एआई समकक्षों की तुलना में अधिक – बग्गी या असुरक्षित कोड का उत्पादन करें। पर लिवकोडबेंचए बेंचमार्क प्रतिस्पर्धी कोडिंग समस्याओं पर एआई मॉडल का परीक्षण करता है, मेटा के लामा 4 मेवरिक मॉडल ने 40%का स्कोर हासिल किया। यह Openai के GPT-5 उच्च के लिए 85% और XAI के ग्रोक 4 के लिए 83% की तुलना में है।
हमेशा की तरह, एक मानव विशेषज्ञ को किसी भी एआई-जनित कोड की समीक्षा करना सबसे अच्छा है, जिसे सेवा या सॉफ्टवेयर में शामिल करने से पहले।
अंत में, अन्य एआई मॉडल के साथ, लामा मॉडल अभी भी प्रशंसनीय-ध्वनि लेकिन झूठी या भ्रामक जानकारी उत्पन्न करने के लिए दोषी हैं, चाहे वह कोडिंग, कानूनी मार्गदर्शन में हो, या एआई व्यक्तित्व के साथ भावनात्मक बातचीत।
यह मूल रूप से 8 सितंबर, 2024 को प्रकाशित किया गया था और इसे नई जानकारी के साथ नियमित रूप से अपडेट किया गया था।