लामा 4 को फाइनट्यून गर्ने तरिका: एक समग्र गाइड

Advanced Data Extraction Specialist
परिचय: लामा 4 और फाइन-ट्यूनिंग का महत्व
आर्टिफिशियल इंटेलिजेंस के तेजी से विकसित होते परिदृश्य में, बड़े भाषा मॉडल (LLMs) तकनीकी उन्नति को प्रबंधित करने में एक केंद्रीय बल के रूप में उभरे हैं। इनमें से, मीटा एआई की लामा श्रृंखला के मॉडल अपने ओपन-सोर्स स्वभाव और उच्च प्रदर्शन के कारण अनुसंधान और अनुप्रयोग क्षेत्रों में महत्वपूर्ण ध्यान आकर्षित कर चुके हैं। लामा 4, अपने नवीनतम पीढ़ी के रूप में, न केवल अपने पूर्ववर्तियों की ताकत को विरासत में लेता है बल्कि मल्टीमॉडल प्रोसेसिंग, फंक्शन कॉलिंग, और उपकरण एकीकरण में महत्वपूर्ण breakthroughs भी हासिल करता है, जो डेवलपर्स को अभूतपूर्व लचीलापन और शक्तिशाली क्षमताएँ प्रदान करता है। हालांकि, सामान्य उद्देश्य के मॉडल अक्सर विशेष कार्यों या क्षेत्रों में कमज़ोर होते हैं। यही वह स्थान है जहां फाइन-ट्यूनिंग एक सामान्य मॉडल को एक डोमेन-विशिष्ट विशेषज्ञ में बदलने के लिए एक महत्वपूर्ण कदम बन जाता है। फाइन-ट्यूनिंग के माध्यम से, हम लामा 4 मॉडल को विशिष्ट डेटा सेट और अनुप्रयोग परिदृश्यों के लिए अनुकूलित कर सकते हैं, इस प्रकार विशेष कार्यों में इसके प्रदर्शन और सटीकता को महत्वपूर्ण रूप से बढ़ा सकते हैं।
यह लेख लामा 4 को फाइन-ट्यून करने के लिए एक व्यापक व्यावहारिक गाइड प्रदान करने का लक्ष्य रखता है। हम लामा 4 की आर्किटेक्चर और वेरिएंट्स में गहराई से उतरेंगे, विभिन्न फाइन-ट्यूनिंग रणनीतियों की तुलना करेंगे, उच्च गुणवत्ता के डेटा के महत्व पर जोर देंगे, और कोड उदाहरणों के साथ विस्तृत व्यावहारिक कदम प्रदान करेंगे। इसके अलावा, हम फाइन-ट्यूनिंग की प्रभावशीलता का मूल्यांकन करने के तरीके पर चर्चा करेंगे और विशेष रूप से Scrapeless, एक शक्तिशाली डेटा स्क्रेपिंग टूल, की सिफारिश करेंगे, ताकि पाठक उच्च गुणवत्ता वाले प्रशिक्षण डेटा प्राप्त कर सकें। चाहे आप विशेष उद्योग अनुप्रयोगों में लामा 4 के प्रदर्शन को सुधारने की योजना बना रहे हों या इसकी संभावनाओं का पता लगाने की कोशिश कर रहे हों, यह गाइड मूल्यवान अंतर्दृष्टि और व्यावहारिक कदम प्रदान करेगा, जिससे आप सफलतापूर्वक लामा 4 को फाइन-ट्यून कर सकेंगे जैसे एक अनुभवी पेशेवर।
लामा 4 आर्किटेक्चर और वेरिएंट्स: इसके मूल को समझना
सफल लामा 4 को फाइन-ट्यून करने की प्रक्रिया इसके आर्किटेक्चर और उसके विभिन्न मॉडलों की विशेषताओं की गहरी समझ से शुरू होती है। लामा 4 मीटा एआई का चौथा पीढ़ी का ओपन-सोर्स बड़ा भाषा मॉडल परिवार है, जिसे असाधारण लचीलापन, स्केलेबिलिटी, और निर्बाध एकीकरण के लिए डिज़ाइन किया गया है। अपने पूर्ववर्तियों की तुलना में, लामा 4 महत्वपूर्ण बढ़ावा प्रदान करता है, इसे आज उपलब्ध सबसे उन्नत ओपन-सोर्स LLMs में से एक बनाता है।
लामा 4 की मुख्य विशेषताएँ:
- स्वदेशी मल्टीमॉडल क्षमताएँ: लामा 4 स्वदेशी रूप से टेक्स्ट और इमेज जानकारी दोनों को प्रोसेस कर सकता है। इसका अर्थ है कि यह न केवल टेक्स्ट को समझता और उत्पन्न करता है बल्कि दृश्य सामग्री को भी व्याख्या करता है, अधिक बुद्धिमान और इंटरैक्टिव एआई अनुप्रयोग बनाने के लिए दरवाजे खोलता है।
- फंक्शन कॉलिंग और बाहरी उपकरण एकीकरण: लामा 4 सीधे फंक्शन कॉल का समर्थन करता है और बाहरी उपकरणों जैसे वेब सर्च इंजनों या कोड निष्पादन वातावरणों के साथ निर्बाध एकीकरण सक्षम करता है। यह क्षमता लामा 4 को अधिक जटिल कार्य करने की अनुमति देती है, जैसे एंटरप्राइज डेटा प्राप्त करना, कस्टम एपीआई कॉल करना, और बहु-चरण वर्कफ़्लो का आयोजन करना।
- एक्सपर्ट्स का मिश्रण (MoE) आर्किटेक्चर: लामा 4 में सभी वेरिएंट्स के लिए एक महत्वपूर्ण वास्तुशिल्प विकल्प MoE डिज़ाइन का अपनाना है। यह आर्किटेक्चर मॉडल को विविध प्रकार के इनपुट को प्रोसेस करते समय विभिन्न 'विशेषज्ञ' उप-नेटवर्क सक्रिय करने की अनुमति देती है, जिससे दक्षता और स्केलेबिलिटी में महत्वपूर्ण वृद्धि होती है जबकि उच्च प्रदर्शन बनाए रखा जाता है। लामा 4 को फाइन-ट्यून करने के लिए, इसका अर्थ है कि कंप्यूटेशनल संसाधनों का अधिक कुशल उपयोग किया जा सकता है।
लामा 4 श्रृंखला में वर्तमान में कई वेरिएंट्स शामिल हैं, जो विभिन्न अनुप्रयोग परिदृश्यों और कंप्यूटेशनल संसाधन बाधाओं के लिए अनुकूलित हैं। दो सबसे उल्लेखनीय वेरिएंट्स हैं:
- लामा 4 स्काउट (17B, 16 विशेषज्ञ): यह अपेक्षाकृत छोटा मॉडल है, फिर भी यह अपने आकार के मॉडल के बीच उत्कृष्ट प्रदर्शन दर्शाता है, विशेषकर ऐसे कार्यों में जिनमें 10M कॉन्टेक्स्ट विंडो की आवश्यकता होती है। यह संसाधन-सीमित वातावरण में लामा 4 को फाइन-ट्यून करने के लिए एक आदर्श विकल्प है।
- लामा 4 मेवरिक (17B, 128 विशेषज्ञ): यह वेरिएंट तर्क और कोडिंग क्षमताओं में उत्कृष्टता प्राप्त करता है, कुछ बेंचमार्क में GPT-4o को भी पार कर जाता है। विशेषज्ञों की एक बड़ी संख्या के साथ, इसमें जटिल कार्यों को संभालने की क्षमता बढ़ जाती है।
यह महत्वपूर्ण है कि सभी लामा 4 चेकपॉइंट्स समान टोकनाइज़र, रोटरी स्थिति एन्कोडिंग, और एक्सपर्ट्स का मिश्रण राउटर साझा करते हैं। इस समानता का अर्थ है कि लामा 4 को फाइन-ट्यून करने की रणनीतियाँ और कोड जो एक वेरिएंट के लिए विकसित किए गए हैं, अक्सर अन्य के लिए आसानी से अनुकूलित किए जा सकते हैं, जिससे विकास और तैनाती की प्रक्रिया सरल हो जाती है।
इन आर्किटेक्चर विवरणों और वेरिएंट विशेषताओं को समझना सफलतापूर्वक लामा 4 को फाइन-ट्यून करने की ओर पहला कदम है। यह विशिष्ट आवश्यकताओं के आधार पर उपयुक्त मॉडल का चयन करने और लामा 4 की संभावनाओं को अधिकतम करने के लिए एक लक्षित फाइन-ट्यूनिंग दृष्टिकोण तैयार करने में मदद करता है।
फाइन-ट्यूनिंग रणनीतियाँ: आपके लिए सही विधि चुनना
सफलता से लामा 4 को फाइन-ट्यूनिंग करना केवल मॉडल की आर्किटेक्चर को समझने पर निर्भर नहीं करता है, बल्कि सही फाइन-ट्यूनिंग रणनीति चुनने पर भी निर्भर करता है। विभिन्न रणनीतियों में Fidelity, कंप्यूटेशनल संसाधनों की आवश्यकताएँ और लागत के बीच समझौता होता है। आपकी विशेष जरूरतों और उपलब्ध संसाधनों के आधार पर सबसे उपयुक्त विधि चुनना महत्वपूर्ण है। यहां कुछ सबसे लोकप्रिय फाइन-ट्यूनिंग रणनीतियाँ और उनके विशेषताएँ हैं:
-
पूर्ण सुपरवाइज़ड फाइन-ट्यूनिंग (SFT):
- विवरण: SFT सबसे सरल फाइन-ट्यूनिंग विधि है, जो प्री-ट्रेंड मॉडल के सभी पैरामीटर को अपडेट करती है। इसका मतलब है कि मॉडल की सभी परतें नए डेटासेट के आधार पर समायोजित की जाती हैं।
- फायदे: यह मॉडल को नए डेटा के साथ अधिकतम रूप से अनुकूलित करने की अनुमति देती है, आमतौर पर उच्चतम प्रदर्शन और Fidelity प्राप्त करती है।
- नुकसान: इसमें विशाल कंप्यूटेशनल संसाधनों की आवश्यकता होती है, जिसमें GPU मेमोरी और प्रशिक्षण समय की बड़ी मात्रा शामिल होती है, जिससे यह सबसे महंगी विकल्प बन जाती है। एक बड़े मॉडल जैसे लामा 4 के लिए, पूर्ण-पैरामीटर फाइन-ट्यूनिंग आमतौर पर कई हाई-एंड GPU की आवश्यकता होती है।
- लागू परिदृश्य: SFT पर विचार किया जा सकता है जब आपके पास प्रचुर कंप्यूटेशनल संसाधन हों और मॉडल प्रदर्शन की सबसे उच्च मांग हो। हालांकि, अधिकांश उपयोगकर्ताओं के लिए, यह लामा 4 को फाइन-ट्यून करने के लिए पहला विकल्प नहीं है।
-
लोरा (लो-रैंक अनुकूलन):
- विवरण: लोरा एक पैरामीटर-कुशल फाइन-ट्यूनिंग विधि है। यह प्री-ट्रेंड मॉडल के अधिकांश वेट्स को फ्रीज कर देता है और केवल विशिष्ट परतों में छोटे, ट्रेन करने योग्य लो-रैंक एडाप्टर मैट्रिक्स डालता है (जैसे कि ध्यान तंत्र के क्वेरी, की और मूल्य प्रक्षेपण परतें)। इन एडाप्टर मैट्रिक्स में पैमानों की संख्या मूल मॉडल की तुलना में बहुत कम होती है, इस प्रकार ट्रेन करने के लिए आवश्यक पैरामीटर्स की संख्या को बहुत कम कर देता है।
- फायदे: SFT की तुलना में, लोरा पूर्ण फाइन-ट्यूनिंग (लगभग 95% Fidelity) के करीब प्रदर्शन प्राप्त कर सकता है, जबकि इसका कंप्यूटेशनल लागत काफी कम होती है (आम तौर पर 25%)। यह VRAM के उपयोग को काफी कम करता है, जिससे इसे एक ही उपभोक्ता ग्रेड GPU पर लामा 4 को फाइन-ट्यून करने की संभावना बना देता है।
- नुकसान: हालांकि प्रदर्शन SFT के करीब है, फिर भी कुछ मामूली भिन्नताएँ हो सकती हैं। एडाप्टर इन्जेक्शन की स्थिति और रैंक को सावधानीपूर्वक चुनने की आवश्यकता होती है।
- लागू परिदृश्य: सीमित संसाधनों वाले उपयोगकर्ताओं के लिए, जो फिर भी उच्च प्रदर्शन की तलाश कर रहे हैं, लोरा लामा 4 को फाइन-ट्यून करने के लिए एक उत्कृष्ट विकल्प है।
-
क्यूलोरा (क्वांटाइज्ड लो-रैंक अनुकूलन):
- विवरण: क्यूलोरा लोरा का एक और ऑप्टिमाइज़ेशन है। यह प्री-ट्रेंड मॉडल के वेट्स को 4-बिट एनएफ4 (नॉर्मलफ्लोट 4-बिट) प्रिसिजन में क्वांटाइज करता है और प्रशिक्षण के दौरान इन क्वांटाइज्ड वेट्स को अपरिवर्तित रखता है। केवल लोरा एडाप्टर मैट्रिक्स को ट्रेन किया जा सकता है और आमतौर पर उच्च प्रिसिजन (जैसे 16-बिट) के साथ गणना की जाती है।
- फायदे: क्यूलोरा VRAM आवश्यकताओं को काफी कम करता है, जिससे एक ही GPU के साथ 16GB VRAM या उससे भी कम पर लामा 4 को फाइन-ट्यून करना यथार्थवादी बना देता है। यह एकल-GPU लैपटॉप पर बड़े मॉडलों को फाइन-ट्यून करने के लिए आदर्श विकल्प है।
- नुकसान: क्वांटाइजेशन के कारण, मॉडल का प्रदर्शन थोड़ा कम हो सकता है, लेकिन यह आमतौर पर स्वीकार्य सीमा के भीतर होता है।
- लागू परिदृश्य: सीमित VRAM वाले उपयोगकर्ताओं के लिए जो एक ही GPU पर लामा 4 को फाइन-ट्यून करना चाहते हैं, क्यूलोरा वर्तमान में सबसे सिफारिश की गई विधि है।
-
प्रॉम्प्ट-ट्यूनिंग:
- विवरण: प्रॉम्प्ट-ट्यूनिंग मॉडल के किसी भी पैरामीटर को संशोधित नहीं करती है। इसके बजाय, यह एक "सॉफ्ट प्रॉम्प्ट" या प्रिफिक्स वेक्टर सीखती है, जिसे मॉडल के इनपुट में जोड़ा जाता है। मॉडल इस प्रॉम्प्ट को सीखकर अपने व्यवहार को मार्गदर्शन करना सीखता है ताकि विशेष कार्यों के अनुकूल हो सके।
- फायदे: इसकी कंप्यूटेशनल लागत सबसे कम होती है, न्यूनतम VRAM आवश्यकताएँ होती हैं, और प्रशिक्षण गति तेज होती है।
- नुकसान: फाइन-ट्यूनिंग की सीमा सबसे संकीर्ण होती है, और प्रदर्शन में वृद्धि आमतौर पर लोरा या SFT की तुलना में उतनी अच्छी नहीं होती है, कार्यों के लिए सीमित अनुकूलनशीलता के साथ।
- लागू परिदृश्य: अत्यधिक सीमित संसाधनों और निम्न प्रदर्शन आवश्यकताओं वाले सरल कार्य।
निम्नलिखित तालिका इन फाइन-ट्यूनिंग रणनीतियों की तुलना को संक्षेप में प्रस्तुत करती है:
रणनीति का नाम | विवरण | फायदे | नुकसान | लागू परिदृश्य | लामा 4 को फाइन-ट्यून करने के लिए संसाधन आवश्यकताएँ |
---|---|---|---|---|---|
SFT | सभी पैरामीटर को अपडेट करता है | उच्चतम Fidelity | उच्चतम कंप्यूटेशनल लागत, बड़े VRAM की मांग | अत्यधिक उच्च प्रदर्शन की आवश्यकताएँ, प्रचुर संसाधन | उच्च |
Here is the translation of the provided text into Hindi: |
| लोरा | बेस मॉडल को फ्रीज करता है, एडेप्टर मैट्रिक्स इनजेक्ट करता है | कम गणनात्मक लागत, नज़दीक-SFT प्रदर्शन | अभी भी कुछ VRAM की आवश्यकता है | सीमित संसाधन लेकिन उच्च-प्रदर्शन का प्रयास | मध्यम |
| क्यूलोरा | लोरा का क्वांटाइज्ड संस्करण, 4-बिट NF4 क्वांटाइजेशन | बहुत कम VRAM मांग, एकल-GPU संभव | लोरा से थोड़ा कम प्रदर्शन | एकल-GPU वातावरण, सीमित VRAM | कम |
| प्रॉम्प्ट-ट्यूनिंग | एक प्रीफिक्स वेक्टर सीखता है | सबसे कम लागत | संकीर्णतम दायरा, प्रदर्शन सुधार के लिए सीमित | अत्यधिक सीमित संसाधन, कम प्रदर्शन आवश्यकताएँ | बहुत कम |
व्यवहार में, हम आमतौर पर लामा 4 को फाइन-ट्यून करने का प्रयास करते समय लोरा से शुरू करने की सिफारिश करते हैं, क्योंकि यह प्रदर्शन और संसाधन खपत के बीच अच्छा संतुलन बनाता है। यदि आपकी GPU मेमोरी बहुत सीमित है, तो फिर क्यूलोरा आपके लिए सबसे अच्छा विकल्प होगा। ये रणनीतियाँ लामा 4 को फाइन-ट्यून करने के तरीके को समझने का एक महत्वपूर्ण हिस्सा हैं, और सही विकल्प चुनने से फाइन-ट्यूनिंग की दक्षता और अंतिम परिणाम सीधे प्रभावित होंगे।
डेटा तैयारी: सफल फाइन-ट्यूनिंग की नींव
जब लामा 4 को फाइन-ट्यून करने के तरीके पर चर्चा की जाती है, तो एक अचूक सत्य है कि डेटा की गुणवत्ता मॉडल के प्रदर्शन की ऊपरी सीमा को निर्धारित करती है। सबसे उन्नत मॉडल आर्किटेक्चर और सबसे जटिल फाइन-ट्यूनिंग रणनीतियों के साथ भी, एक मॉडल अपनी पूरी क्षमता तक नहीं पहुँच सकता यदि प्रशिक्षण डेटा की गुणवत्ता कम है। एक उच्च गुणवत्ता वाला, प्रतिनिधि डेटा सेट सफलतापूर्वक लामा 4 को फाइन-ट्यून करने की नींव है, यह सुनिश्चित करते हुए कि मॉडल सही पैटर्न, डोमेन ज्ञान और वांछित व्यवहार सीखता है।
एक सामान्य फाइन-ट्यूनिंग डेटा सेट दो भागों में बंटा होता है:
- बेस कॉर्पस: डेटा का यह भाग मॉडल को सामान्य भाषा समझ और जनरेशन क्षमताएं प्रदान करता है। उदाहरण के लिए, OpenAssistant Conversations डेटा सेट (लगभग 161,000 संवाद, CC-BY-SA लाइसेंस के तहत) एक विविध रेंज की इरादों और संवाद संरचनाओं की पेशकश करता है, जो सामान्य संवादात्मक क्षमताओं को बनाने के लिए एक अच्छा विकल्प बनाता है।
- डोमेन-विशिष्ट डेटा: डेटा का यह भाग किसी विशेष कार्य या डोमेन के लिए तैयार किया गया है, जैसे कि आपकी कंपनी के आंतरिक प्रश्नोत्तर लॉग, उत्पाद प्रलेखन, ग्राहक सेवा संवाद रिकॉर्ड, या किसी विशेष उद्योग से पेशेवर लेख और फोरम चर्चाएँ। यह डेटा लामा 4 को एक विशेष डोमेन की शब्दावली, तथ्यों और तर्क पैटर्न सीखने में मदद करता है।
कच्चे डेटा को प्राप्त करने के बाद, एक कठोर डेटा सफाई प्रक्रिया महत्वपूर्ण है:
- लंबाई फ़िल्टरिंग: बहुत छोटे (जैसे, 4 टोकन से कम) या बहुत लंबे (जैसे, 3000 टोकन से अधिक) पाठों को हटाएं। छोटे पाठ में अर्थपूर्ण जानकारी की कमी हो सकती है, जबकि लंबे पाठ अप्रभावी प्रशिक्षण का कारण बन सकते हैं या मॉडल के लिए उन्हें संसाधित करना कठिन हो सकता है।
- फॉर्मेट मानकीकरण और डुप्लीकेशन हटाना: यूनिकोड कोडिंग को मानकीकृत करें, HTML टैग, मार्कडाउन फ़ॉर्मेटिंग या अन्य गैर-टेक्स्ट सामग्री को हटा दें। सामग्री के SHA256 हैश की गणना करके डुप्लीकेट हटा दें ताकि यह सुनिश्चित किया जा सके कि डेटा सेट में कोई डुप्लीकेट नमूने नहीं हैं, जो मॉडल के ओवरफिटिंग से बचने में मदद करता है।
- सामग्री फ़िल्टरिंग: अनुपयुक्त या हानिकारक सामग्री को हटाने के लिए अश्लीलता फ़िल्टर या अन्य सामग्री फ़िल्टर लागू करें। फिर, स्वचालित उपकरणों द्वारा छूटे हुए मुद्दों की पहचान के लिए मैनुअल स्पॉट चेक करें।
- लाइसेंस ट्रैकिंग: यदि आप विभिन्न स्रोतों से डेटा सेट को मिला रहे हैं, तो यह सुनिश्चित करने के लिए प्रत्येक उदाहरण के लिए स्रोत और लाइसेंस जानकारी को सावधानीपूर्वक ट्रैक करें कि अंतिम मॉडल के अनुपालन हो।
स्क्रेपलेस: उच्च गुणवत्ता वाले डेटा प्राप्त करने के लिए एक शक्तिशाली उपकरण
लामा 4 को फाइन-ट्यून करने की प्रक्रिया में, एक सबसे बड़ी चुनौती अक्सर उच्च गुणवत्ता वाले डोमेन-विशिष्ट डेटा प्राप्त करना होती है। पारंपरिक वेब स्क्रैपिंग विधियाँ एंटी-स्क्रैपिंग तंत्र, जटिल डेटा संरचनाओं और मुश्किल डेटा सफाई जैसी समस्याओं का सामना कर सकती हैं। यहाँ एक शक्तिशाली डेटा स्क्रैपिंग टूल जैसे स्क्रेपलेस का होना विशेष रूप से महत्वपूर्ण हो जाता है। स्क्रेपलेस उपयोगकर्ताओं को उच्च गुणवत्ता वाले वेब डेटा प्राप्त करने में कुशल और सटीक सहायता प्रदान कर सकता है, जो लामा 4 को फाइन-ट्यून करने के लिए एक ठोस डेटा आधार प्रदान करता है।
स्क्रेपलेस के लाभ:
- उच्च दक्षता: स्क्रेपलेस एक स्वचालित डेटा स्क्रैपिंग प्रक्रिया प्रदान करता है जो बड़ी संख्या में वेब पृष्ठों से आवश्यक जानकारी को जल्दी से निकाल सकती है, मैन्युअल डेटा संग्रह और संगठन पर खर्च किए गए समय को महत्वपूर्ण रूप से बचाती है।
- उच्च सटीकता: यह वेब पृष्ठों की संरचना को बुद्धिमानी से पार्स करने की क्षमता रखता है, लक्ष्य डेटा की सटीक पहचान और निकासी सुनिश्चित करता है, डेटा की संपूर्णता और सटीकता बनाए रखता है, और बाद की सफाई का कार्यभार कम करता है।
- लचीलापन: Scrapeless विभिन्न स्रोतों (जैसे समाचार वेबसाइटें, ब्लॉग, फोरम, ई-कॉमर्स प्लेटफार्म आदि) से डेटा स्क्रैपिंग का समर्थन करता है और विभिन्न प्रारूपों (जैसे JSON, CSV) में डेटा आउटपुट कर सकता है, ताकि विभिन्न फाइन-ट्यूनिंग लामा 4 परियोजनाओं की विशिष्ट आवश्यकताओं को पूरा किया जा सके।
- उपयोग में आसानी: Scrapeless सामान्यतः एक साधारण एपीआई इंटरफेस या एक सहज उपयोगकर्ता इंटरफेस प्रदान करता है, जिससे यहां तक कि गैर-प्रोफेशनल डेटा इंजीनियरों के लिए शुरुआत करना आसान हो जाता है, जो डेटा अधिग्रहण की तकनीकी बाधा को greatly घटित करता है।
- विरोधी स्क्रैपिंग बचाव: Scrapeless में अंतर्निहित उन्नत विरोधी स्क्रैपिंग तंत्र शामिल हैं जो आईपी प्रतिबंधों, CAPTCHA, और गतिशील सामग्री लोडिंग जैसी विरोधी स्क्रैपिंग उपायों का प्रभावी ढंग से समाधान कर सकते हैं, जिससे डेटा स्क्रैपिंग की स्थिरता और सफलता दर सुनिश्चित होती है।
आवेदन परिदृश्य:
Scrapeless के साथ, आप आसानी से स्क्रैप कर सकते हैं:
- विशेष डोमेन में पेशेवर लेख और शोध रिपोर्ट: ताकि लामा 4 को नवीनतम उद्योग ज्ञान और पेशेवर शब्दावली प्रदान की जा सके।
- फोरम चर्चाएँ और सोशल मीडिया सामग्री: ताकि उपयोगकर्ताओं की वास्तविक भाषा आदतों, भावनात्मक अभिव्यक्तियों और सामान्य प्रश्नों को कैप्चर किया जा सके, जो मॉडल को अधिक प्राकृतिक संवादात्मक शैली सीखने में मदद करता है।
- उत्पाद समीक्षाएँ और उपयोगकर्ता फीडबैक: ताकि लामा 4 को उत्पादों या सेवाओं पर उपयोगकर्ताओं की राय समझने में मदद की जा सके, जिससे ग्राहक सेवा या भावना विश्लेषण कार्यों में इसके प्रदर्शन में सुधार हो सके।
- प्रश्नोत्तर जोड़े Q&A समुदायों से: ताकि सीधे लामा 4 को उच्च गुणवत्ता वाले प्रश्न और उत्तर डेटा प्रदान किया जा सके, इसके प्रश्नोत्तर क्षमताओं को बढ़ाने के लिए।
सारांश में, Scrapeless के माध्यम से प्राप्त डेटा यह सुनिश्चित कर सकता है कि आपकी फाइन-ट्यूनिंग लामा 4 परियोजना को शुरू से ही बेहतरीन गुणवत्ता का "ईंधन" मिले, जिससे मॉडल के प्रदर्शन और विशेष कार्यों पर इसके प्रदर्शन में काफी सुधार हो सके। यह केवल एक स्क्रैपिंग उपकरण नहीं है, बल्कि लामा 4 फाइन-ट्यूनिंग परियोजना में एक आवश्यक डेटा बुनियादी ढांचा है, जो विशिष्ट आवश्यकताओं के अनुरूप उच्च गुणवत्ता वाले प्रशिक्षण डेटा का निरंतर प्रवाह प्रदान करने में सक्षम है।
व्यावहारिक कदम: लामा 4 को फाइन-ट्यून करने के लिए एक विस्तृत गाइड
अब जब हमने सैद्धांतिक पहलुओं और डेटा तैयारी को कवर कर लिया है, आइए लामा 4 को फाइन-ट्यून करने के लिए व्यावहारिक कदमों में गोता लगाते हैं। यह अनुभाग एक सामान्य और प्रभावी दृष्टिकोण पर विस्तृत गाइड प्रदान करेगा जो Unsloth और Hugging Face Transformers जैसे लोकप्रिय उपकरणों का उपयोग करता है। हम Google Colab को उदाहरण पर्यावरण के रूप में उपयोग करेंगे, जो कई उपयोगकर्ताओं के लिए पहुंच योग्य है।
1. पर्यावरण सेटअप
पहले, आपको अपना विकास वातावरण सेट अप करना होगा। यदि आप Google Colab का उपयोग कर रहे हैं, तो सुनिश्चित करें कि आपको GPU रनटाइम तक पहुंच है।
-
GPU सक्षम करें: Google Colab में,
Runtime
->Change runtime type
पर जाएँ -> हार्डवेयर एक्सेलरेटर के रूप मेंGPU
का चयन करें। -
निर्भरता स्थापित करें: आवश्यक पुस्तकालय स्थापित करें। Unsloth को LoRA/QLoRA के साथ फाइन-ट्यूनिंग लामा 4 के लिए इसकी दक्षता के लिए अत्यधिक अनुशंसित किया जाता है, जो महत्वपूर्ण गति बढ़ाने और VRAM कमी प्रदान करता है।
bash!pip install -qU unsloth[flash-attn] bitsandbytes==0.43.0
unsloth
: LoRA/QLoRA फाइन-ट्यूनिंग के लिए अनुकूलित कार्यान्वयन प्रदान करता है।flash-attn
: यह एक तेज ध्यान तंत्र है जो प्रशिक्षण को और तेज बनाता है।bitsandbytes
: 4-बिट क्वांटाइजेशन (QLoRA) के लिए आवश्यक।
2. बेस लामा 4 मॉडल लोड करें
पर्यावरण सेट करने के बाद, अगला कदम पूर्व-प्रशिक्षित लामा 4 मॉडल को लोड करना है। आपको मॉडल तक पहुंच प्राप्त करने के लिए Hugging Face पर मेटा की लाइसेंस को स्वीकार करना होगा।
python
from unsloth import FastLanguageModel
model_name = "meta-llama/Llama-4-Scout-17B-16E-Instruct" # या किसी अन्य लामा 4 वैरिएंट
model, tokenizer = FastLanguageModel.from_pretrained(
model_name,
max_seq_length=2048, # अपने डेटा और GPU मेमोरी के आधार पर समायोजित करें
dtype=None, # GPU क्षमताओं के आधार पर स्वचालित पहचान
load_in_4bit=True, # QLoRA सक्षम करता है, VRAM उपयोग को काफी कम करता है (उदाहरण के लिए, 17B मॉडल के लिए ~11 GB)
)
model_name
: उस लामा 4 मॉडल को निर्दिष्ट करें जिसे आप फाइन-ट्यून करना चाहते हैं।Llama-4-Scout-17B-16E-Instruct
एक अच्छा प्रारंभिक बिंदु है।max_seq_length
: आपके प्रशिक्षण डेटा के लिए अधिकतम अनुक्रम लंबाई को परिभाषित करता है। लंबी अनुक्रमों के लिए अधिक VRAM की आवश्यकता होती है। इसे आपके डेटा सेट की विशेषताओं और GPU मेमोरी के आधार पर समायोजित करें।load_in_4bit=True
: यह महत्वपूर्ण पैरामीटर 4-बिट क्वांटाइजेशन को सक्षम करता है, जिससे आप भव्य मात्रा में VRAM के साथ लामा 4 को फाइन-ट्यून कर सकते हैं, इसे उपभोक्ता-ग्रेड GPUs पर व्यवहार्य बनाता है।
3. LoRA एडेप्टर संलग्न करें
एक बार जब बेस मॉडल लोड हो जाए, तो आपको LoRA एडेप्टर संलग्न करने की आवश्यकता होगी। यह Unsloth को बताता है कि मॉडल के कौन से भागों को प्रशिक्षित करने योग्य बनाना है।
python
model = FastLanguageModel.get_peft_model(
model,
r=16, # LoRA रैंक। उच्च रैंक का अर्थ है अधिक पैरामीटर, संभावित रूप से बेहतर प्रदर्शन, लेकिन अधिक VRAM।
lora_alpha=32, # LoRA स्केलिंग फैक्टर
target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # लामा मॉडलों के लिए सामान्य लक्षित मॉड्यूल
seed=42, # पुनरुत्पादन के लिए
random_state=42, # पुनरुत्पादन के लिए
)
r
: LoRA रैंक। एक सामान्य मान 16 या 32 है। जब आप Llama 4 को फाइन-ट्यून करते हैं तो प्रदर्शन और संसाधन उपयोग के बीच आदर्श संतुलन खोजने के लिए इस पैरामीटर के साथ प्रयोग करें।lora_alpha
: LoRA अपडेट के लिए एक स्केलिंग फ़ैक्टर।target_modules
: निर्दिष्ट करता है कि मॉडल की कौन सी रैखिक परतों में LoRA अडाप्टर लगाए जाएंगे। Llama मॉडलों के लिए,q_proj
,k_proj
,v_proj
,o_proj
,gate_proj
,up_proj
, औरdown_proj
सामान्य विकल्प हैं।
4. डेटा लोडिंग और प्रशिक्षण
अब जब मॉडल और अडाप्टर तैयार हैं, तो आप अपने बनाए गए डेटासेट को लोड कर सकते हैं और प्रशिक्षण प्रक्रिया शुरू कर सकते हैं। Hugging Face datasets
पुस्तकालय का सामान्यतः इसके लिए उपयोग किया जाता है।
python
from datasets import load_dataset
from unsloth import SFTTrainer
from transformers import TrainingArguments
# अपना डेटासेट लोड करें। "tatsu-lab/alpaca" को अपने खुद के डेटासेट पथ या नाम से बदलें।
# सुनिश्चित करें कि आपका डेटासेट SFTTrainer के लिए एक संगत प्रारूप में है (जैसे, Alpaca प्रारूप)।
# प्रदर्शनी के लिए, हम Alpaca डेटासेट का एक छोटा टुकड़ा उपयोग करते हैं।
data = load_dataset("tatsu-lab/alpaca", split="train[:1%]", token=True) # token=True यदि निजी डेटासेट है
# प्रशिक्षण तर्कों को परिभाषित करें
training_args = TrainingArguments(
output_dir="./lora_model", # चेकपॉइंट्स को सहेजने के लिए निर्देशिका
per_device_train_batch_size=1, # प्रति GPU बैच का आकार
gradient_accumulation_steps=16, # कई चरणों में ग्रेडियंट को संचित करें
warmup_steps=5, # लर्निंग रेट शेड्यूलर के लिए वार्मअप चरणों की संख्या
num_train_epochs=1, # प्रशिक्षण युगों की संख्या
learning_rate=2e-4, # लर्निंग रेट
fp16=True, # तेजी से प्रशिक्षण और कम VRAM के लिए मिश्रित सटीकता प्रशिक्षण सक्षम करें
logging_steps=1, # हर N चरण में लॉग करें
optim="adamw_8bit", # ऑप्टिमाइज़र
weight_decay=0.01, # वजन घटाना
lr_scheduler_type="cosine", # लर्निंग रेट शेड्यूलर प्रकार
seed=42, # पुनरुत्पादन के लिए यादृच्छिक बीज
)
# SFTTrainer को प्रारंभ करें
trainer = SFTTrainer(
model=model,
tokenizer=tokenizer,
train_dataset=data,
dataset_text_field="text", # आपके डेटासेट में टेक्स्ट वाले कॉलम का नाम
max_seq_length=2048, # जब मॉडल लोड करते समय उपयोग किए गए max_seq_length से मेल खाना चाहिए
args=training_args,
)
# प्रशिक्षण शुरू करें
trainer.train() # यह प्रक्रिया आपके डेटा के आकार और GPU के आधार पर थोड़ा समय ले सकती है।
# फाइन-ट्यून किए गए मॉडल (LoRA अडाप्टर) को सहेजें
trainer.save_model("l4-scout-lora")
- डेटासेट प्रारूप: सुनिश्चित करें कि आपका डेटासेट सही तरीके से स्वरूपित है। निर्देश फाइन-ट्यूनिंग के लिए, Alpaca प्रारूप (
{"instruction": "...", "input": "...", "output": "..."}
) सामान्य है, जिसेSFTTrainer
संभाल सकता है यदि आपdataset_text_field
को सही तरीके से निर्दिष्ट करते हैं या एक स्वरूप फ़ंक्शन का उपयोग करते हैं। TrainingArguments
: बैच के आकार, लर्निंग रेट, युगों की संख्या और ऑप्टिमाइज़र जैसे विभिन्न प्रशिक्षण पैरामीटर को कॉन्फ़िगर करें।gradient_accumulation_steps
आपको सीमित VRAM के साथ बड़े बैच आकारों का अनुकरण करने की अनुमति देता है।fp16=True
मिश्रित-सटीकता प्रशिक्षण को सक्षम करता है, जो Llama 4 फाइन-ट्यूनिंग के लिए आवश्यक है।trainer.train()
: यह आदेश फाइन-ट्यूनिंग प्रक्रिया शुरू करता है। प्रशिक्षण के दौरान अपने GPU उपयोग और हानि की निगरानी करें।
5. फाइन-ट्यून किए गए मॉडल को मर्ज और टेस्ट करना
प्रशिक्षण के बाद, LoRA अडाप्टरों को बेस मॉडल में वापस मिलाने की आवश्यकता है ताकि एकल, तैनात करने योग्य मॉडल बनाया जा सके। फिर आप इसके प्रदर्शन का परीक्षण कर सकते हैं।
python
# बेस मॉडल के साथ LoRA अडाप्टर को मर्ज करें
merged_model = model.merge_and_unload()
# वैकल्पिक रूप से, यदि आपने अडाप्टर को अलग से सहेजा और बाद में उन्हें लोड करना चाहते हैं:
# from peft import PeftModel, PeftConfig
# peft_model_id = "./l4-scout-lora"
# config = PeftConfig.from_pretrained(peft_model_id)
# model = FastLanguageModel.from_pretrained(config.base_model_name_or_path, load_in_4bit=True)
# model = PeftModel.from_pretrained(model, peft_model_id)
# merged_model = model.merge_and_unload()
# फाइन-ट्यून किए गए मॉडल का परीक्षण करें
from transformers import pipeline
pipeline = pipeline("text-generation", model=merged_model, tokenizer=tokenizer)
# उदाहरण इनफेरेंस
input_text = "बैकप्रोपगेशन को दो वाक्यों में समझाएं।"
result = pipeline(input_text, max_new_tokens=120, do_sample=True, temperature=0.7)
print(result[0]["generated_text"])
merge_and_unload()
: यह फंक्शन Unsloth से LoRA अडाप्टरों को बेस मॉडल में मिलाता है और PEFT (पैरामीटर-कुशल फाइन-ट्यूनिंग) कॉन्फ़िगरेशन को अनलोड करता है, जिससे मॉडल एक मानक Hugging Face मॉडल बन जाता है जिसे सहेजने और तैनात करने की अनुमति होती है।- इन्फेरेंस: अपने नए फाइन-ट्यून किए गए Llama 4 मॉडल के साथ आसानी से इन्फेरेंस करने के लिए
transformers
सेpipeline
फ़ंक्शन का उपयोग करें। उत्पन्न आउटपुट को नियंत्रित करने के लिएmax_new_tokens
,do_sample
, औरtemperature
के साथ प्रयोग करें।
ये विस्तृत कदम Llama 4 को फाइन-ट्यून करने के तरीके पर एक स्पष्ट रोडमैप प्रदान करते हैं। याद रखें कि सफल फाइन-ट्यूनिंग में अक्सर डेटा, हाइपरपैरामीटर और मूल्यांकन मीट्रिक के साथ क्रमिक प्रयोग शामिल होते हैं।
प्रयोग ट्रैकिंग और मूल्यांकन: फाइन-ट्यूनिंग की सफलता सुनिश्चित करना
एक बार जब आपके पास एक बारीकी से समायोजित मॉडल हो, तब Llama 4 को बारीकी से समायोजित करने की प्रक्रिया अभी पूरी नहीं हुई है। एक महत्वपूर्ण, और अक्सर अनदेखी की जाने वाली, अवस्था कठोर मूल्यांकन और प्रयोग ट्रैकिंग है। यह सुनिश्चित करता है कि आपका बारीकी से समायोजित मॉडल न केवल आपके विशेष कार्यों पर अच्छी तरह से प्रदर्शन करे, बल्कि उत्पादन वातावरण में अपनी गुणवत्ता, सुरक्षा और विश्वसनीयता को भी बनाए रखे। एक बहु-स्तरीय मूल्यांकन प्रोटोकॉल आवश्यक है।
मूल्यांकन प्रोटोकॉल
-
स्वचालित बेंचमार्क: मानक कार्यों पर
lm-eval-harness
सूट चलाकर आधार मॉडल पर लाभों को मात्रात्मक रूप से मापें। प्रमुख बेंचमार्क में शामिल हैं:- MMLU (मासिव मल्टीटास्क लैंग्वेज अंडरस्टैंडिंग): ज्ञान पुनःकाल को आकलित करने के लिए।
- GSM8K (ग्रेड स्कूल मैथ 8K): गणितीय तर्कशक्ति का मूल्यांकन करने के लिए।
- TruthfulQA: मॉडल की भ्रांतियों का उत्पादन करने की प्रतिरोध क्षमता को मापने के लिए।
बंद रूप के प्रश्नों के लिए सटीक मिलान और मुक्त-फॉर्म आउटपुट के लिए BERTScore जैसी मीट्रिक को ट्रैक करें।
-
मानव समीक्षा: स्वचालित बेंचमार्क उपयोगी होते हैं, लेकिन वे हमेशा मानव प्राथमिकताओं की बारीकियों को नहीं पकड़ते। अपने लाइव उत्पादन ट्रैफिक से लगभग 200 प्रॉम्प्ट का एक नमूना खींचें और दो स्वतंत्र एनोटेटरों से प्रत्येक प्रतिक्रिया को 1-5 लिकर्ट स्केल पर रेट करने के लिए कहें:
- सहायता प्रदान करने की क्षमता: क्या प्रतिक्रिया उपयोगकर्ता के प्रश्न को प्रभावी ढंग से संबोधित करती है?
- सही जानकारी: क्या प्रदान की गई जानकारी सटीक है?
- स्वर स्थिरता: क्या प्रतिक्रिया आपके ब्रांड की आवाज के साथ मेल खाती है?
ओवरलैप का उपयोग करके इंटर-एनोटेटर सहमति की गणना करें और किनारे के मामलों में विफलताओं की पहचान करें।
-
केनरी टोकन: अपने बारीकी से समायोजित उदाहरणों के एक छोटे हिस्से (जैसे, 0.1%) में अद्वितीय केनरी स्ट्रिंग डालें। मॉडल को एक स्टेजिंग वातावरण में तैनात करें और इन स्ट्रिंग्स के अप्रत्याशित पुनरुत्पादन के लिए लॉग को मॉनिटर करें। यह असुरक्षित मेमोराइजेशन या डेटा रिसाव का संकेत दे सकता है।
-
निरंतर निगरानी: तैनाती के बाद, प्रॉम्प्ट इनपुट, टोकन वितरण और विलंबता प्रतिशतों को लॉग करने के लिए हल्का टेलीमेट्री एम्बेड करें। गुणवत्ता मेट्रिक्स में किसी भी बदलाव या उपयोग में वृद्धि के लिए चेतावनियाँ स्थापित करें जो नई विफलता मोड का खुलासा कर सकती हैं।
तैनाती चेकलिस्ट
एक बार जब आपका मॉडल कठोर मूल्यांकन में पास हो जाता है, तो अगला कदम इसे प्रदर्शन, सुरक्षा, और रखरखाव को कवर करने वाली संरचित तैनाती चेकलिस्ट के साथ संचालन करना है।
- क्वांटाइजेशन: अपने मर्ज़ किए हुए वजन को 4-बिट पूर्णांक प्रारूप (int4) में निर्यात करें, जैसे GPTQ जैसे उपकरण का उपयोग करके। गुणवत्ता में कमी से बचने के लिए, पुष्टि करें कि डाउनस्ट्रीम पेरप्लेक्सिटी पूर्ण-परिशुद्धता मॉडल की तुलना में 2% से कम बढ़ती है।
- सुरक्षा: अनुमान अंत बिंदु को एक सुरक्षा फ़िल्टर के साथ लपेटें, जैसे मेटा का Llama Guard या एक ओपन-सोर्स सुरक्षित पूर्णता पुस्तकालय। अस्वीकार्य सामग्री के लिए प्रॉम्प्ट निस्पंदन और अस्वीकृति नीतियों को शामिल करें।
- निगरानी: अपनी सेवा को लॉग करने के लिए उपकरण बनाएं, जिसमें आने वाले प्रॉम्प्ट, शीर्ष-k टोकन वितरण, और प्रमुख विलंबता प्रतिशत (जैसे, P95) शामिल हैं। असामान्य थ्रूपुट, त्रुटि दरों, या प्रतिक्रिया विशेषताओं में बदलाव के लिए डैशबोर्ड और चेतावनियाँ सेट करें।
- रोलबैक: पिछले एडाप्टर और मर्ज़ किए हुए वजन को ऑब्जेक्ट स्टोरेज में रखें। अपनी सेवा परत का आर्किटेक्चर बनाएं (जैसे, vLLM या एक कस्टम FastAPI के साथ) ताकि एडाप्टर को बदलना दो-पंक्ति विन्यास परिवर्तन हो, जिससे यदि एक तैनाती असामान्य व्यवहार करती है तो तात्कालिक रोलबैक संभव हो सके।
मूल्यांकन एक महत्वपूर्ण कदम है यह सत्यापित करने के लिए कि Llama 4 को बारीकी से समायोजित करने के आपके दृष्टिकोण ने सफलता प्राप्त की है। यह आवधिक सुधार के लिए आवश्यक फीडबैक लूप प्रदान करता है और यह सुनिश्चित करता है कि आपका मॉडल वास्तविक दुनिया के अनुप्रयोगों के लिए तैयार है।
निष्कर्ष: Llama 4 को बारीकी से समायोजित करने के लिए प्रमुख निष्कर्ष और Scrapeless का महत्व
Llama 4 को बारीकी से समायोजित करना एक शक्तिशाली तकनीक है जो एक सामान्य उद्देश्य के बड़े भाषा मॉडल को एक डोमेन-विशिष्ट विशेषज्ञ में बदल देती है। एक संरचित दृष्टिकोण का पालन करके, आप एक ऐसा मॉडल बना सकते हैं जो आपके ब्रांड की आवाज़ में बोलता हो, आपके विशेष डोमेन को समझता हो, और उच्च सटीकता के साथ कार्य करता हो। सफलता की कुंजी उच्च गुणवत्ता वाले डेटा, सही बारीकी से समायोजन रणनीति (जैसे LoRA या QLoRA) और कठोर मूल्यांकन और तैनाती प्रक्रिया के संयोजन में निहित है। Llama 4 को बारीकी से समायोजित करने का तरीका जानना किसी भी एआई डेवलपर या उत्पाद प्रबंधक के लिए एक मूल्यवान कौशल है जो ओपन-सोर्स LLMs की पूरी क्षमता का लाभ उठाना चाहता है।
इस गाइड में, हमने किसी भी फाइन-ट्यूनिंग परियोजना की सफलता में डेटा गुणवत्ता की महत्वपूर्ण भूमिका पर जोर दिया है। यहीं एक उपकरण जैसे Scrapeless का महत्व बढ़ता है। Scrapeless आपको वेब से उच्च-गुणवत्ता, प्रासंगिक डेटा प्राप्त करने में मदद करता है, जो आपके फाइन-ट्यूनिंग प्रक्रिया के लिए ईंधन है। डेटा एकत्र करने के लिए एक विश्वसनीय और कुशल तरीका प्रदान करके, Scrapeless सुनिश्चित करता है कि आपकी फाइन-ट्यूनिंग Llama 4 प्रयास एक मजबूत आधार पर निर्मित हैं। एंटी-सक्रेपिंग तंत्र को संभालने, जटिल वेबसाइटों को पार्स करने और साफ, संरचित डेटा प्रदान करने की इसकी क्षमता इसे आधुनिक AI विकास उपकरणों में एक आवश्यक उपकरण बनाती है। चाहे आप एक ग्राहक सेवा चैटबॉट, कोड जनरेशन सहायक, या शोध उपकरण का निर्माण कर रहे हों, Scrapeless का उपयोग करके अपने प्रशिक्षण डेटा को इकट्ठा करना आपको एक महत्वपूर्ण लाभ देगा।
कैसे Llama 4 को फाइन-ट्यून करें को समझकर और Scrapeless जैसे शक्तिशाली उपकरणों का उपयोग करके, आप AI में नई संभावनाओं को अनलॉक कर सकते हैं और वास्तव में बुद्धिमान अनुप्रयोग बना सकते हैं जो आपकी विशेष आवश्यकताओं के अनुसार हैं।
स्क्रैपलेस में, हम केवल सार्वजनिक रूप से उपलब्ध डेटा का उपयोग करते हैं, जबकि लागू कानूनों, विनियमों और वेबसाइट गोपनीयता नीतियों का सख्ती से अनुपालन करते हैं। इस ब्लॉग में सामग्री केवल प्रदर्शन उद्देश्यों के लिए है और इसमें कोई अवैध या उल्लंघन करने वाली गतिविधियों को शामिल नहीं किया गया है। हम इस ब्लॉग या तृतीय-पक्ष लिंक से जानकारी के उपयोग के लिए सभी देयता को कोई गारंटी नहीं देते हैं और सभी देयता का खुलासा करते हैं। किसी भी स्क्रैपिंग गतिविधियों में संलग्न होने से पहले, अपने कानूनी सलाहकार से परामर्श करें और लक्ष्य वेबसाइट की सेवा की शर्तों की समीक्षा करें या आवश्यक अनुमतियाँ प्राप्त करें।