लार्ज लैंग्वेज मॉडल (एलएलएम) एक नई टेक्नोलॉजी है. यह टोक़न या टोक़न के क्रम का अनुमान लगाती है. कभी-कभी, यह कई पैराग्राफ़ के बराबर टोक़न का अनुमान लगाती है. याद रखें कि टोकन कोई शब्द, सबवर्ड (किसी शब्द का सबसेट) या एक वर्ण भी हो सकता है. एलएलएम, एन-ग्राम लैंग्वेज मॉडल या बार-बार इस्तेमाल होने वाले न्यूरल नेटवर्क के मुकाबले काफ़ी बेहतर अनुमान लगाते हैं, क्योंकि:
- एलएलएम में, बार-बार इस्तेमाल होने वाले मॉडल के मुकाबले ज़्यादा पैरामीटर होते हैं.
- एलएलएम ज़्यादा जानकारी इकट्ठा करते हैं.
इस सेक्शन में, एलएलएम बनाने के लिए सबसे सफल और ज़्यादा इस्तेमाल किए जाने वाले आर्किटेक्चर के बारे में बताया गया है: ट्रांसफ़ॉर्मर.
ट्रांसफ़ॉर्मर क्या है?
ट्रांसफ़ॉर्मर, लैंग्वेज मॉडल के कई ऐप्लिकेशन के लिए सबसे बेहतर आर्किटेक्चर हैं. जैसे, अनुवाद:

फ़ुल ट्रांसफ़ॉर्मर में एक एन्कोडर और एक डिकोडर होता है:
- एन्कोडर, इनपुट टेक्स्ट को किसी इंटरमीडिएट रिप्रज़ेंटेशन में बदलता है. एन्कोडर एक बहुत बड़ा न्यूरल नेटवर्क होता है.
- डिकोडर, उस इंटरमीडिएट रिप्रज़ेंटेशन को काम के टेक्स्ट में बदलता है. डिकोडर भी एक बहुत बड़ा न्यूरल नेटवर्क होता है.
उदाहरण के लिए, अनुवाद करने वाले टूल में:
- एन्कोडर, इनपुट टेक्स्ट (उदाहरण के लिए, अंग्रेज़ी का कोई वाक्य) को किसी इंटरमीडिएट रिप्रज़ेंटेशन में प्रोसेस करता है.
- डिकोडर, उस इंटरमीडिएट रिप्रज़ेंटेशन को आउटपुट टेक्स्ट में बदल देता है. उदाहरण के लिए, फ़्रेंच में लिखा गया मिलता-जुलता वाक्य.

सेल्फ़-अटेंशन क्या है?
कॉन्टेक्स्ट को बेहतर बनाने के लिए, ट्रांसफ़ॉर्मर मुख्य रूप से सेल्फ़-अटेंशन नाम के कॉन्सेप्ट पर निर्भर करते हैं. असल में, इनपुट के हर टोकन के लिए, सेल्फ़-अटेंशन ये सवाल पूछता है:
"इनपुट के हर दूसरे टोकन से, इस टोकन के विश्लेषण पर कितना असर पड़ता है?"
"सेल्फ़-अटेंशन" में "सेल्फ़" का मतलब इनपुट क्रम से है. कुछ अटेंशन मशीन, इनपुट टोकन के बीच के संबंधों को, किसी अनुवाद जैसे आउटपुट सीक्वेंस में मौजूद टोकन के बीच के संबंधों के हिसाब से तय करती हैं. इसके अलावा, वे किसी दूसरे सीक्वेंस में मौजूद टोकन के बीच के संबंधों के हिसाब से भी इनपुट टोकन के बीच के संबंधों को तय कर सकती हैं. हालांकि, सेल्फ़-अटेंशन सिर्फ़ इनपुट क्रम में टोकन के बीच के संबंधों की अहमियत को तवज्जो देता है.
इसे आसानी से समझने के लिए, मान लें कि हर टोकन एक शब्द है और पूरा कॉन्टेक्स्ट सिर्फ़ एक वाक्य है. इस वाक्य पर ध्यान दें:
The animal didn't cross the street because it was too tired.
पिछले वाक्य में ग्यारह शब्द हैं. इन ग्यारह शब्दों में से हर शब्द, बाकी दस शब्दों पर ध्यान दे रहा है. साथ ही, यह सोच रहा है कि उन दस शब्दों में से हर शब्द उसके लिए कितना मायने रखता है. उदाहरण के लिए, ध्यान दें कि वाक्य में सर्वनाम it है. सर्वनाम अक्सर अस्पष्ट होते हैं. सर्वनाम it आम तौर पर किसी हाल ही के संज्ञा या संज्ञा वाले वाक्यांश का रेफ़रंस देता है. हालांकि, उदाहरण के वाक्य में, it किस हाल ही के संज्ञा का रेफ़रंस देता है—जानवर या सड़क?
सेल्फ़-अटेंशन मशीन, सर्वनाम it के लिए आस-पास मौजूद हर शब्द की अहमियत तय करती है. तीसरे चित्र में नतीजे दिखाए गए हैं—जितनी ज़्यादा नीली होगी, उतना ही ज़्यादा वह शब्द सर्वनाम it के लिए अहम होगा. इसका मतलब है कि सर्वनाम it के लिए, street के मुकाबले animal ज़्यादा अहम है.

इसके उलट, मान लें कि वाक्य का आखिरी शब्द इस तरह बदल जाता है:
The animal didn't cross the street because it was too wide.
इस बदले गए वाक्य में, उम्मीद है कि it सर्वनाम के लिए, street को animal से ज़्यादा काम का माना जाएगा.
सेल्फ़-अटेन्शन के कुछ तरीके दोतरफ़ा होते हैं. इसका मतलब है कि वे उस शब्द के पहले और बाद वाले टोकन के लिए, काम के होने के आधार पर स्कोर का हिसाब लगाते हैं जिस पर ध्यान दिया जा रहा है. उदाहरण के लिए, तीसरे चित्र में देखें कि it के दोनों ओर मौजूद शब्दों की जांच की गई है. इसलिए, बाइडायरेक्शनल सेल्फ़-अटेंशन मशीन, उस शब्द के दोनों ओर मौजूद शब्दों से कॉन्टेक्स्ट इकट्ठा कर सकती है जिस पर फ़ोकस किया जा रहा है. इसके उलट, एकतरफ़ा सेल्फ़-अटेन्शन मशीन लर्निंग, सिर्फ़ उस शब्द के एक तरफ़ मौजूद शब्दों से संदर्भ इकट्ठा कर सकती है जिस पर ध्यान दिया जा रहा है. पूरे क्रम को दिखाने के लिए, दोनों दिशाओं में सेल्फ़-अटेंशन का इस्तेमाल करना काफ़ी फ़ायदेमंद होता है. वहीं, टोक़न के हिसाब से क्रम जनरेट करने वाले ऐप्लिकेशन के लिए, एक दिशा में सेल्फ़-अटेंशन का इस्तेमाल करना ज़रूरी होता है. इस वजह से, एन्कोडर, द्वि-दिशात्मक सेल्फ़-अटेंशन का इस्तेमाल करते हैं, जबकि डिकोडर, एक-दिशात्मक सेल्फ़-अटेंशन का इस्तेमाल करते हैं.
मल्टी-हेड मल्टी-लेयर सेल्फ़-अटेंशन क्या है?
आम तौर पर, हर सेल्फ़-अटेन्शन लेयर में कई सेल्फ़-अटेन्शन हेड होते हैं. किसी लेयर का आउटपुट, अलग-अलग हेड के आउटपुट का मैथमैटिकल ऑपरेशन होता है. जैसे, वज़ीदार औसत या डॉट प्रॉडक्ट.
हर हेड के पैरामीटर को रैंडम वैल्यू पर शुरू किया जाता है. इसलिए, अलग-अलग हेड, ध्यान में रखे जा रहे हर शब्द और आस-पास के शब्दों के बीच अलग-अलग संबंधों को सीख सकते हैं. उदाहरण के लिए, पिछले सेक्शन में बताए गए सेल्फ़-अटेन्शन हेड का मकसद यह पता लगाना था कि सर्वनाम it किस संज्ञा का इस्तेमाल कर रहा है. हालांकि, एक ही लेयर में मौजूद अन्य सेल्फ़-अटेंशन हेड, हर शब्द के लिए दूसरे शब्द के व्याकरणिक महत्व को सीख सकते हैं या अन्य इंटरैक्शन सीख सकते हैं.
पूरा ट्रांसफ़ॉर्मर मॉडल, एक-दूसरे के ऊपर कई सेल्फ़-अटेंशन लेयर को स्टैक करता है. पिछली लेयर का आउटपुट, अगली लेयर का इनपुट बन जाता है. इस स्टैकिंग की मदद से, मॉडल टेक्स्ट को ज़्यादा बेहतर तरीके से समझ पाता है. शुरुआती लेयर, सिंटैक्स पर फ़ोकस कर सकती हैं. वहीं, अगली लेयर उस जानकारी को इंटिग्रेट कर सकती हैं, ताकि पूरे इनपुट में सेंटीमेंट, कॉन्टेक्स्ट, और थीम वाले लिंक जैसे ज़्यादा बारीक कॉन्सेप्ट को समझा जा सके.
ट्रांसफ़ॉर्मर इतने बड़े क्यों होते हैं?
ट्रांसफ़ॉर्मर में सैकड़ों अरब या खरबों पैरामीटर होते हैं. इस कोर्स में आम तौर पर, ज़्यादा पैरामीटर वाले मॉडल के बजाय, कम पैरामीटर वाले मॉडल बनाने का सुझाव दिया गया है. आखिरकार, कम पैरामीटर वाले मॉडल में, ज़्यादा पैरामीटर वाले मॉडल की तुलना में अनुमान लगाने के लिए कम संसाधनों का इस्तेमाल होता है. हालांकि, रिसर्च से पता चलता है कि ज़्यादा पैरामीटर वाले ट्रांसफ़ॉर्मर, कम पैरामीटर वाले ट्रांसफ़ॉर्मर की तुलना में लगातार बेहतर परफ़ॉर्म करते हैं.
लेकिन एलएलएम, टेक्स्ट को कैसे जनरेट करता है?
आपने देखा है कि रिसर्चर, एलएलएम को एक या दो शब्दों का अनुमान लगाने के लिए कैसे ट्रेन करते हैं. ऐसा हो सकता है कि आप इससे प्रभावित न हों. आखिरकार, एक या दो शब्दों का अनुमान लगाना, टेक्स्ट, ईमेल, और लेखन सॉफ़्टवेयर में पहले से मौजूद ऑटोकंप्लीट की सुविधा है. आपके मन में यह सवाल उठ रहा होगा कि एलएलएम, आर्बिट्रेज के बारे में वाक्य, पैराग्राफ़ या हाइकु कैसे जनरेट कर सकते हैं.
असल में, एलएलएम, ऑटोकंप्लीट की सुविधा देने वाले ऐसे मशीन हैं जो हज़ारों टोकन का अनुमान अपने-आप लगा सकते हैं (पूरा कर सकते हैं). उदाहरण के लिए, एक वाक्य के बाद मास्क किया गया वाक्य देखें:
My dog, Max, knows how to perform many traditional dog tricks. ___ (masked sentence)
एलएलएम, मास्क किए गए वाक्य के लिए संभावनाएं जनरेट कर सकता है. इनमें ये शामिल हैं:
प्रॉबेबिलिटी | शब्द |
---|---|
3.1% | उदाहरण के लिए, वह बैठ सकता है, बिस्तर पर लेट सकता है, और रोल कर सकता है. |
2.9% | उदाहरण के लिए, वह बैठना, रुकना, और रोल करना जानता है. |
ज़रूरत के मुताबिक बड़ा एलएलएम, पैराग्राफ़ और पूरी तरह के लेखों के लिए संभावनाएं जनरेट कर सकता है. उपयोगकर्ता के एलएलएम से पूछे गए सवालों को "दिए गए" वाक्य के तौर पर माना जा सकता है. इसके बाद, एक काल्पनिक मास्क होता है. उदाहरण के लिए:
User's question: What is the easiest trick to teach a dog? LLM's response: ___
एलएलएम, अलग-अलग संभावित जवाबों के लिए संभावनाएं जनरेट करता है.
एक और उदाहरण के तौर पर, गणित से जुड़ी बड़ी संख्या में "शब्द वाली समस्याओं" पर ट्रेन किया गया एलएलएम, ऐसा लग सकता है कि वह गणित के बेहतर तरीके से इस्तेमाल कर रहा है. हालांकि, ये एलएलएम, सिर्फ़ शब्द से जुड़े सवाल के प्रॉम्प्ट को अपने-आप पूरा करते हैं.
एलएलएम करने के फ़ायदे
एलएलएम, अलग-अलग तरह की टारगेट ऑडियंस के लिए, साफ़ और आसानी से समझ आने वाला टेक्स्ट जनरेट कर सकते हैं. एलएलएम उन टास्क के लिए अनुमान लगा सकते हैं जिनके लिए उन्हें खास तौर पर ट्रेन किया गया है. कुछ शोधकर्ताओं का दावा है कि एलएलएम, ऐसे इनपुट के लिए भी अनुमान लगा सकते हैं जिनके लिए उन्हें साफ़ तौर पर नहीं ट्रेन किया गया था. हालांकि, अन्य शोधकर्ताओं ने इस दावे का खंडन किया है.
एलएलएम से जुड़ी समस्याएं
एलएलएम की ट्रेनिंग में कई समस्याएं आती हैं. इनमें ये शामिल हैं:
- बहुत बड़ा ट्रेनिंग सेट इकट्ठा करना.
- इसमें कई महीने लगते हैं. साथ ही, कंप्यूटिंग के लिए ज़रूरी संसाधनों और बिजली का भी बहुत खर्च होता है.
- पैरलल प्रोसेस से जुड़ी समस्याओं को हल करना.
अनुमान नतीजे के लिए एलएलएम का इस्तेमाल करने पर, ये समस्याएं आ सकती हैं:
- एलएलएम गलत जानकारी देते हैं. इसका मतलब है कि उनके अनुमान में अक्सर गलतियां होती हैं.
- एलएलएम, कंप्यूटिंग रिसॉर्स और बिजली का बहुत ज़्यादा इस्तेमाल करते हैं. आम तौर पर, बड़े डेटासेट पर एलएलएम को ट्रेन करने से, अनुमान लगाने के लिए ज़रूरी संसाधनों की संख्या कम हो जाती है. हालांकि, बड़े डेटासेट के लिए ज़्यादा ट्रेनिंग संसाधनों की ज़रूरत होती है.
- सभी एमएल मॉडल की तरह, एलएलएम में भी किसी भी तरह का पूर्वाग्रह हो सकता है.