• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer

GKPAD.COM

ONLINE HINDI EDUCATION PORTAL

  • Home
  • Blog
  • Sarkari Result
  • University Books
  • University Papers
  • University Syllabus
  • About Us

IGNOU MECE-102 Solved Question Paper PDF Download

The IGNOU MECE-102 Solved Question Paper PDF Download page is designed to help students access high-quality exam resources in one place. Here, you can find ignou solved question paper IGNOU Previous Year Question paper solved PDF that covers all important questions with detailed answers. This page provides IGNOU all Previous year Question Papers in one PDF format, making it easier for students to prepare effectively.

  • IGNOU MECE-102 Solved Question Paper in Hindi
  • IGNOU MECE-102 Solved Question Paper in English
  • IGNOU Previous Year Solved Question Papers (All Courses)

Whether you are looking for IGNOU Previous Year Question paper solved in English or ignou previous year question paper solved in hindi, this page offers both options to suit your learning needs. These solved papers help you understand exam patterns, improve answer writing skills, and boost confidence for upcoming exams.

IGNOU MECE-102 Solved Question Paper PDF

IGNOU Previous Year Solved Question Papers

This section provides IGNOU MECE-102 Solved Question Paper PDF in both Hindi and English. These ignou solved question paper IGNOU Previous Year Question paper solved PDF include detailed answers to help you understand exam patterns and improve your preparation. You can also access IGNOU all Previous year Question Papers in one PDF for quick and effective revision before exams.


IGNOU MECE-102 Previous Year Solved Question Paper in Hindi

Q1. टोबिट (Tobit) प्रतिमान के आधारभूत विचारों की व्याख्या कीजिए।

Ans. टोबिट प्रतिमान, जिसका नाम अर्थशास्त्री जेम्स टोबिन के नाम पर रखा गया है, एक प्रकार का अर्थमितिक प्रतिमान है जिसका उपयोग आश्रित चर (dependent variable) के साथ काम करते समय किया जाता है जो एक निश्चित बिंदु पर सेंसर्ड (censored) या सीमित होता है। सेंसरिंग का मतलब है कि चर के मान एक निश्चित सीमा से नीचे या ऊपर दर्ज नहीं किए जाते हैं, भले ही वास्तविक मान उस सीमा से परे मौजूद हों।

टोबिट प्रतिमान के पीछे मूल विचार एक अंतर्निहित या अदृश्य चर (latent variable) , y , की अवधारणा पर आधारित है, जिसे एक सामान्य रैखिक प्रतिमान द्वारा निर्धारित माना जाता है: y ᵢ = βXᵢ + uᵢ

यहाँ, y ᵢ एक सतत चर है, Xᵢ व्याख्यात्मक चरों का एक वेक्टर है, और uᵢ एक त्रुटि पद है। हालांकि, हम y ᵢ का सीधे निरीक्षण नहीं करते हैं। इसके बजाय, हम एक प्रेक्षित चर (observed variable) yᵢ का निरीक्षण करते हैं, जो निम्नानुसार परिभाषित है:

yᵢ = y ᵢ यदि y ᵢ > 0 yᵢ = 0 यदि y*ᵢ ≤ 0

यह एक “कोने का समाधान” (corner solution) स्थिति का प्रतिनिधित्व करता है। उदाहरण के लिए, किसी टिकाऊ वस्तु (जैसे कार) पर किसी परिवार का व्यय। कुछ परिवार कार नहीं खरीदते हैं, इसलिए उनका व्यय शून्य है। यह इसलिए हो सकता है क्योंकि उनकी खरीदने की “इच्छा” (अंतर्निहित चर) सकारात्मक नहीं है। जिन परिवारों का व्यय सकारात्मक है, उनके लिए हम वास्तविक राशि का निरीक्षण करते हैं।

यदि हम केवल सकारात्मक मानों के लिए सामान्य न्यूनतम वर्ग (OLS) का उपयोग करते हैं, तो हमारे अनुमान पक्षपाती और असंगत होंगे। इसी तरह, यदि हम शून्य मानों सहित सभी प्रेक्षणों पर OLS लागू करते हैं, तो परिणाम भी पक्षपाती होंगे क्योंकि यह रैखिकता और सामान्यता की मान्यताओं का उल्लंघन करता है।

टोबिट प्रतिमान इस सेंसरिंग समस्या का समाधान अधिकतम संभाविता अनुमानन (Maximum Likelihood Estimation – MLE) का उपयोग करके करता है। यह संभावना फलन (likelihood function) उन प्रेक्षणों के लिए संभाव्यता घनत्व फलन (probability density function) को जोड़ता है जहां आश्रित चर सकारात्मक है और उन प्रेक्षणों के लिए संचयी वितरण फलन (cumulative distribution function) को जोड़ता है जहां यह शून्य पर सेंसर्ड है। यह दृष्टिकोण हमें गुणांकों (β) के सुसंगत और कुशल अनुमान प्राप्त करने की अनुमति देता है।

Q2. अनुमानन की अप्रत्यक्ष न्यूनतम वर्ग (ILS) विधि का प्रयोग आप कब करते हैं? व्याख्या कीजिए कि यह ILS विधि कैसे प्रयोग करते हैं?

Ans.

अप्रत्यक्ष न्यूनतम वर्ग (Indirect Least Squares – ILS) विधि का उपयोग युगपत समीकरण प्रतिमानों (simultaneous equation models) में किसी समीकरण के मापदंडों का अनुमान लगाने के लिए किया जाता है, जब वह समीकरण ठीक-ठीक अभिनिर्धारित (exactly identified) हो। अभिनिर्धारण (identification) यह निर्धारित करने की समस्या से संबंधित है कि क्या हम किसी प्रतिमान के संरचनात्मक मापदंडों के लिए अद्वितीय मान प्राप्त कर सकते हैं। एक समीकरण ठीक-ठीक अभिनिर्धारित होता है जब उस समीकरण से बाहर रखे गए बहिर्जात चरों (exogenous variables) की संख्या उस समीकरण में शामिल अंतर्जात चरों (endogenous variables) की संख्या से एक कम के बराबर होती है।

ILS विधि का अनुप्रयोग दो-चरणीय प्रक्रिया है:

चरण 1: समानीत रूप समीकरणों (Reduced-Form Equations) का अनुमानन पहला चरण युगपत समीकरण प्रतिमान के समानीत रूप को प्राप्त करना है। समानीत रूप में, प्रत्येक अंतर्जात चर को केवल प्रणाली के सभी बहिर्जात चरों (पूर्व निर्धारित चर सहित) के फलन के रूप में व्यक्त किया जाता है। उदाहरण के लिए, एक सरल मांग और आपूर्ति प्रतिमान पर विचार करें: मांग: Qₜ = α₀ + α₁Pₜ + α₂Yₜ + u₁ₜ (संरचनात्मक समीकरण) आपूर्ति: Qₜ = β₀ + β₁Pₜ + u₂ₜ (संरचनात्मक समीकरण)

यहां, Qₜ (मात्रा) और Pₜ (कीमत) अंतर्जात हैं, और Yₜ (आय) बहिर्जात है। हम इन समीकरणों को हल करके Qₜ और Pₜ के लिए समानीत रूप प्राप्त कर सकते हैं: Pₜ = π₁₀ + π₁₁Yₜ + v₁ₜ Qₜ = π₂₀ + π₂₁Yₜ + v₂ₜ

इस चरण में, हम प्रत्येक समानीत रूप समीकरण पर अलग-अलग सामान्य न्यूनतम वर्ग (OLS) लागू करते हैं। चूँकि दाहिने हाथ की ओर केवल बहिर्जात चर होते हैं, जो त्रुटि पदों से असंबद्ध होते हैं, OLS अनुमान सुसंगत होते हैं। यह हमें समानीत रूप गुणांकों (π) के अनुमान प्रदान करता है।

चरण 2: संरचनात्मक मापदंडों की गणना दूसरे चरण में, हम चरण 1 से प्राप्त अनुमानित समानीत रूप गुणांकों का उपयोग मूल संरचनात्मक गुणांकों (α और β) को बीजगणितीय रूप से हल करने के लिए करते हैं। हम संरचनात्मक और समानीत रूप गुणांकों के बीच संबंधों का उपयोग करते हैं। चूँकि समीकरण ठीक-ठीक अभिनिर्धारित है, संरचनात्मक मापदंडों के लिए एक अद्वितीय समाधान मौजूद होगा।

क्योंकि हम संरचनात्मक मापदंडों का अनुमान सीधे नहीं बल्कि अप्रत्यक्ष रूप से समानीत रूप मापदंडों के माध्यम से लगाते हैं, इस विधि को अप्रत्यक्ष न्यूनतम वर्ग कहा जाता है। यह ध्यान रखना महत्वपूर्ण है कि ILS केवल ठीक-ठीक अभिनिर्धारित समीकरणों के लिए लागू होता है; अति-अभिनिर्धारित (over-identified) समीकरणों के लिए, 2SLS जैसी अन्य विधियों की आवश्यकता होती है।

Q3. इकाई मूल समस्या क्या होती है? समझाइए कि किसी काल श्रेणी में इकाई मूल की उपस्थिति को DF कसौटी द्वारा कैसे पहचाना जा सकता है?

Ans.

इकाई मूल समस्या (unit root problem) अर्थमिति में एक महत्वपूर्ण मुद्दा है, विशेष रूप से काल श्रेणी विश्लेषण में। एक काल श्रेणी में इकाई मूल तब होता है जब यह अस्थिर (non-stationary) होती है और एक प्रसंभाव्य प्रवृत्ति (stochastic trend) प्रदर्शित करती है। इसका मतलब है कि समय के साथ श्रृंखला का माध्य, प्रसरण या सहप्रसरण स्थिर नहीं रहता है।

एक सरल प्रथम-क्रम स्वप्रतीपगामी (Autoregressive – AR(1)) प्रतिमान पर विचार करें: Yₜ = ρYₜ₋₁ + εₜ

यहाँ, Yₜ समय t पर चर का मान है, और εₜ एक सफेद शोर (white noise) त्रुटि पद है।

  • यदि |ρ| < 1 है, तो श्रृंखला स्थिर (stationary) है। कोई भी आघात (shock) क्षणिक होता है और श्रृंखला अपने दीर्घकालिक माध्य पर वापस लौट आती है।
  • यदि ρ = 1 है, तो श्रृंखला में एक इकाई मूल होता है। इस मामले में, Yₜ = Yₜ₋₁ + εₜ, जो एक “यादृच्छिक चाल” (random walk) है। आघातों का प्रभाव स्थायी होता है और श्रृंखला कभी भी अपने माध्य पर वापस नहीं आती है। प्रसरण समय के साथ बढ़ता है, जो अस्थिरता का एक स्पष्ट संकेत है।

इकाई मूल की उपस्थिति में मानक प्रतिगमन विश्लेषण करने से मिथ्या प्रतिगमन (spurious regression) की समस्या हो सकती है, जहां दो असंबंधित अस्थिर श्रृंखलाओं के बीच एक सांख्यिकीय रूप से महत्वपूर्ण संबंध दिखाई दे सकता है, जो वास्तव में मौजूद नहीं है।

डिकी-फुलर (DF) कसौटी: डिकी-फुलर (DF) कसौटी एक काल श्रेणी में इकाई मूल की उपस्थिति का परीक्षण करने के लिए एक औपचारिक परिकल्पना परीक्षण है। परीक्षण निम्नलिखित प्रतिगमन समीकरण का अनुमान लगाकर किया जाता है: ΔYₜ = δYₜ₋₁ + εₜ जहाँ ΔYₜ = Yₜ – Yₜ₋₁। यह मूल AR(1) समीकरण से Yₜ₋₁ घटाकर प्राप्त किया जाता है, जहाँ δ = (ρ – 1)।

परीक्षण में परिकल्पनाएँ इस प्रकार हैं:

  • शून्य परिकल्पना (H₀): δ = 0 (इसका अर्थ है ρ = 1, यानी एक इकाई मूल मौजूद है, और श्रृंखला अस्थिर है)।
  • वैकल्पिक परिकल्पना (H₁): δ < 0 (इसका अर्थ है ρ < 1, यानी कोई इकाई मूल नहीं है, और श्रृंखला स्थिर है)।

हम δ के अनुमान पर t-सांख्यिकीय की गणना करते हैं। हालांकि, शून्य परिकल्पना के तहत, यह सांख्यिकीय मानक t-वितरण का पालन नहीं करता है। इसके बजाय, यह एक विशेष डिकी-फुलर वितरण का पालन करता है। इसलिए, हमें मानक t-तालिकाओं के बजाय डिकी और फुलर द्वारा प्रदान किए गए क्रांतिक मानों का उपयोग करना चाहिए।

यदि परिकलित t-सांख्यिकीय (निरपेक्ष मान में) क्रांतिक मान से अधिक है, तो हम शून्य परिकल्पना को अस्वीकार करते हैं और यह निष्कर्ष निकालते हैं कि श्रृंखला स्थिर है। यदि यह क्रांतिक मान से कम है, तो हम शून्य परिकल्पना को अस्वीकार करने में विफल रहते हैं, जो इकाई मूल की उपस्थिति का सुझाव देता है। इस परीक्षण के विस्तारित रूप, जैसे कि संवर्धित डिकी-फुलर (ADF) कसौटी , त्रुटि पदों में संभावित क्रमिक सहसंबंध को नियंत्रित करने के लिए ΔYₜ के लैग्ड मानों को शामिल करते हैं।

Q4. एक सदिश स्वप्रतीपगमन (VAR) प्रतिमान को उसके संरचनात्मक रूप और समानीत (लघुकृत) रूप में निरूपित कीजिए। VAR प्रतिमान की लम्बाई को आप कैसे तय करेंगे?

Ans.

सदिश स्वप्रतीपगमन (Vector Autoregression – VAR) प्रतिमान एक बहु-समीकरण, बहु-चर काल श्रेणी प्रतिमान है जिसमें प्रत्येक चर को अपने स्वयं के लैग्ड मानों और प्रणाली के अन्य सभी चरों के लैग्ड मानों पर प्रतिगमन किया जाता है। VAR प्रतिमान को दो रूपों में निर्दिष्ट किया जा सकता है: संरचनात्मक और समानीत।

1. संरचनात्मक VAR (SVAR) प्रतिमान: संरचनात्मक रूप चरों के बीच समकालीन (contemporaneous) संबंधों को दर्शाता है। यह आर्थिक सिद्धांत पर आधारित होता है। दो-चर (Y₁ₜ, Y₂ₜ) और एक लैग (p=1) वाले एक सरल SVAR को इस प्रकार लिखा जा सकता है: Y₁ₜ = c₁ + b₁₂Y₂ₜ + γ₁₁Y₁ₜ₋₁ + γ₁₂Y₂ₜ₋₁ + ε₁ₜ Y₂ₜ = c₂ + b₂₁Y₁ₜ + γ₂₁Y₁ₜ₋₁ + γ₂₂Y₂ₜ₋₁ + ε₂ₜ

मैट्रिक्स रूप में, इसे इस प्रकार लिखा जा सकता है: B yₜ = Γ₀ + Γ₁ yₜ₋₁ + εₜ जहाँ B समकालीन संबंध मैट्रिक्स है, yₜ चरों का वेक्टर है, Γ₀ अंतःखंडों का वेक्टर है, Γ₁ गुणांक मैट्रिक्स है, और εₜ संरचनात्मक आघातों (structural shocks) का वेक्टर है, जिन्हें असंबद्ध माना जाता है। SVAR का अनुमान सीधे OLS द्वारा नहीं लगाया जा सकता है क्योंकि समकालीन चर (जैसे Y₂ₜ पहले समीकरण में) त्रुटि पद ε₁ₜ से संबंधित हो सकते हैं।

2. समानीत रूप VAR प्रतिमान: समानीत रूप संरचनात्मक रूप से प्राप्त होता है और इसमें दाईं ओर कोई समकालीन चर नहीं होता है। हम SVAR समीकरण को B⁻¹ से पूर्व-गुणा करके इसे प्राप्त करते हैं: yₜ = B⁻¹Γ₀ + B⁻¹Γ₁ yₜ₋₁ + B⁻¹εₜ इसे इस रूप में फिर से लिखा जा सकता है: yₜ = A₀ + A₁ yₜ₋₁ + uₜ जहाँ A₀ = B⁻¹Γ₀, A₁ = B⁻¹Γ₁, और uₜ = B⁻¹εₜ समानीत रूप त्रुटियों का वेक्टर है।

समानीत रूप में, प्रत्येक चर को केवल पूर्व निर्धारित चरों (सभी चरों के लैग्ड मान) के फलन के रूप में व्यक्त किया जाता है। चूंकि दाईं ओर के चर त्रुटि पदों से असंबद्ध होते हैं, इसलिए समानीत रूप VAR के प्रत्येक समीकरण का अनुमान समीकरण-दर-समीकरण OLS द्वारा कुशलतापूर्वक लगाया जा सकता है।

VAR प्रतिमान की लैग लंबाई का चयन: VAR प्रतिमान के लिए उपयुक्त लैग लंबाई (p) का चयन महत्वपूर्ण है। बहुत कम लैग एक विनिर्दिष्ट प्रतिमान को जन्म दे सकते हैं, जबकि बहुत अधिक लैग डिग्री ऑफ़ फ्रीडम को कम करते हैं। लैग लंबाई का चयन करने के लिए सामान्य दृष्टिकोण विभिन्न सूचना मानदंडों का उपयोग करना है:

  • अकाइके सूचना मानदंड (AIC): AIC = -2(LL/T) + 2(k/T)
  • श्वार्ज बायेसियन मानदंड (SBC/BIC): SBC = -2(LL/T) + k*ln(T)/T
  • हन्नान-क्विन मानदंड (HQ): HQ = -2(LL/T) + 2k*ln(ln(T))/T

यहाँ, LL लॉग-लाइवलीहुड है, T प्रेक्षणों की संख्या है, और k अनुमानित मापदंडों की संख्या है। प्रक्रिया में विभिन्न लैग लंबाई (p=1, 2, 3,…) के लिए VAR प्रतिमानों का अनुमान लगाना और प्रत्येक के लिए AIC, SBC और HQ के मानों की गणना करना शामिल है। वह लैग लंबाई चुनी जाती है जो इन मानदंडों के मान को न्यूनतम करती है। SBC सबसे मितव्ययी (parsimonious) प्रतिमान का चयन करता है (सबसे कम लैग), जबकि AIC अधिक लैग का चयन करता है। व्यवहार में, इन मानदंडों के परिणामों और अवशिष्टों (residuals) के नैदानिक परीक्षणों (diagnostic tests) दोनों पर विचार करना आम है।

Q5. एक काल श्रेणी में सदिश त्रुटि समाधान प्रक्रिया (VECM) को विनिर्दिष्ट कीजिए। एक VECM के विनिर्देशन में किन बातों पर ध्यान दिया जाना चाहिए?

Ans.

सदिश त्रुटि समाधान प्रक्रिया (Vector Error Correction Mechanism – VECM) एक विशेष प्रकार का सदिश स्वप्रतीपगमन (VAR) प्रतिमान है जिसका उपयोग तब किया जाता है जब एक प्रणाली में काल श्रेणी चर I(1) (पहले अंतर पर स्थिर) होते हैं लेकिन वे सह-एकीकृत (cointegrated) होते हैं। सह-एकीकरण का अर्थ है कि चरों के बीच एक स्थिर, दीर्घकालिक संतुलन संबंध मौजूद है।

VECM एक प्रतिबंधित VAR है जिसमें एक त्रुटि सुधार पद (Error Correction Term – ECT) शामिल है। यह पद पिछले अवधि के संतुलन से विचलन को मापता है और यह बताता है कि चर अपने दीर्घकालिक संबंध में कैसे वापस समायोजित होते हैं।

दो चरों (Yₜ, Xₜ) और एक लैग के साथ एक सरल VECM को इस प्रकार विनिर्दिष्ट किया जा सकता है: ΔYₜ = α₁ (Yₜ₋₁ – βXₜ₋₁) + γ₁₁ΔYₜ₋₁ + γ₁₂ΔXₜ₋₁ + ε₁ₜ ΔXₜ = α₂ (Yₜ₋₁ – βXₜ₋₁) + γ₂₁ΔYₜ₋₁ + γ₂₂ΔXₜ₋₁ + ε₂ₜ

यहाँ:

  • ΔYₜ और ΔXₜ चरों के प्रथम अंतर हैं, जो उनके अल्पकालिक परिवर्तनों को दर्शाते हैं।
  • (Yₜ₋₁ – βXₜ₋₁) त्रुटि सुधार पद (ECT) है। यह दीर्घकालिक सह-एकीकरण समीकरण (Y = βX) से पिछले अवधि के विचलन का प्रतिनिधित्व करता है।
  • α₁ और α₂ समायोजन के गति गुणांक (speed of adjustment coefficients) हैं। वे उस गति को मापते हैं जिस पर Yₜ और Xₜ असंतुलन के बाद अपने दीर्घकालिक संतुलन में वापस आते हैं। एक सार्थक सुधार के लिए, कम से “α” गुणांकों में से एक गैर-शून्य और सांख्यिकीय रूप से महत्वपूर्ण होना चाहिए।
  • γ गुणांक अल्पकालिक गतिकी को दर्शाते हैं।

VECM के विनिर्देशन में ध्यान देने योग्य मुद्दे: एक VECM को निर्दिष्ट करते समय, कई महत्वपूर्ण मुद्दों पर विचार किया जाना चाहिए:

  1. चरों का एकीकरण क्रम: सबसे पहले, यह पुष्टि करना आवश्यक है कि सभी चर I(1) हैं। यह डिकी-फुलर (DF) या संवर्धित डिकी-फुलर (ADF) जैसे इकाई मूल परीक्षणों का उपयोग करके किया जाता है।
  2. सह-एकीकरण की उपस्थिति और संख्या: जोहान्सन सह-एकीकरण परीक्षण (Johansen cointegration test) का उपयोग यह निर्धारित करने के लिए किया जाता है कि क्या चरों के बीच सह-एकीकरण संबंध मौजूद हैं और कितने (सह-एकीकरण रैंक)। यह VECM के विनिर्देशन के लिए महत्वपूर्ण है।
  3. उपयुक्त लैग लंबाई का चयन: VECM में शामिल किए जाने वाले अंतरित चरों की लैग लंबाई निर्धारित करने की आवश्यकता है। यह VAR प्रतिमान की तरह ही AIC, SBC, या HQ जैसे सूचना मानदंडों का उपयोग करके किया जाता है।
  4. त्रुटि सुधार पद का रूप: जब एक से अधिक सह-एकीकरण संबंध होते हैं, तो सह-एकीकरण वेक्टर (β) पर आर्थिक सिद्धांत के आधार पर प्रतिबंध लगाना आवश्यक हो सकता है ताकि उन्हें व्याख्या योग्य बनाया जा सके।
  5. बहिर्जात चर: यह तय करना कि प्रतिमान में बहिर्जात चर शामिल किए जाएं या नहीं और उन्हें सह-एकीकरण संबंध के अंदर या बाहर रखा जाए।
  6. प्रतिमान नैदानिकी: अनुमान के बाद, प्रतिमान की पर्याप्तता सुनिश्चित करने के लिए अवशिष्टों पर नैदानिक परीक्षण (जैसे क्रमिक सहसंबंध, विषमलैंगिकता के लिए परीक्षण) करना महत्वपूर्ण है।

Q6. ARCH प्रतिमान का क्या अर्थ होता है? ARCH प्रभावों की उपस्थिति की जाँच के लिए क्या कसौटियाँ उपलब्ध हैं?

Ans.

ARCH (Autoregressive Conditional Heteroskedasticity) प्रतिमान, जिसे रॉबर्ट एंगल द्वारा विकसित किया गया, एक सांख्यिकीय प्रतिमान है जिसका उपयोग वित्तीय अर्थमिति में समय-भिन्न अस्थिरता (time-varying volatility) को मॉडल करने के लिए किया जाता है। इसका मुख्य विचार यह है कि एक काल श्रेणी के त्रुटि पद का प्रसरण (variance) स्थिर नहीं होता है, बल्कि यह पिछले अवधियों के त्रुटि पदों के आकार पर निर्भर करता है।

विशेष रूप से, ARCH प्रतिमान मानता है कि सशर्त प्रसरण (conditional variance) , यानी पिछले सभी सूचनाओं को देखते हुए वर्तमान त्रुटि का प्रसरण, पिछले त्रुटि पदों के वर्गों का एक फलन है। एक ARCH(q) प्रतिमान को इस प्रकार निर्दिष्ट किया जाता है:

मान लीजिए εₜ प्रतिगमन का त्रुटि पद है। εₜ = vₜ√hₜ जहाँ vₜ एक स्वतंत्र और समान रूप से वितरित (i.i.d.) प्रक्रिया है जिसका माध्य शून्य और प्रसरण एक है। hₜ सशर्त प्रसरण है, जिसे इस प्रकार मॉडल किया जाता है: hₜ = α₀ + α₁ε²ₜ₋₁ + α₂ε²ₜ₋₂ + … + α_qε²ₜ₋_q

यहाँ, hₜ समय t पर सशर्त प्रसरण है, α₀ > 0 और αᵢ ≥ 0 (i=1,…,q) यह सुनिश्चित करने के लिए कि प्रसरण हमेशा सकारात्मक रहे। यह समीकरण दर्शाता है कि आज की अस्थिरता (hₜ) पिछली अवधियों के आघातों (ε²ₜ₋₁, ε²ₜ₋₂, आदि) के आकार पर निर्भर करती है। बड़े पिछले आघात (बड़े ε²ₜ₋ᵢ) आज की अस्थिरता को बढ़ाते हैं, जो वित्तीय बाजारों में देखी जाने वाली “अस्थिरता समूहन” (volatility clustering) की घटना को दर्शाता है – यानी, बड़ी अस्थिरता की अवधियाँ बड़ी अस्थिरता की अवधियों के बाद आती हैं, और छोटी अस्थिरता की अवधियाँ छोटी अस्थिरता की अवधियों के बाद आती हैं।

ARCH प्रभावों की उपस्थिति की जाँच के लिए कसौटियाँ: ARCH प्रभावों का परीक्षण यह निर्धारित करने के लिए महत्वपूर्ण है कि क्या एक ARCH प्रतिमान उपयुक्त है। मुख्य कसौटियाँ हैं:

1. अवशिष्टों का आलेखी निरीक्षण (Graphical Inspection of Residuals): एक प्रतिगमन प्रतिमान का अनुमान लगाने के बाद, हम अवशिष्टों (residuals) के वर्ग (ε²ₜ) का समय के विरुद्ध आलेख बना सकते हैं। यदि आलेख में समूहन के पैटर्न दिखाई देते हैं – यानी, बड़े वर्गों की अवधियाँ एक साथ और छोटे वर्गों की अवधियाँ एक साथ – तो यह ARCH प्रभावों का एक अनौपचारिक संकेत है।

2. एंगल का लैग्रेंज मल्टीप्लायर (LM) परीक्षण: यह ARCH प्रभावों के लिए सबसे आम औपचारिक परीक्षण है। इसके चरण हैं:

  • एक उपयुक्त प्रतिमान (जैसे, ARMA) का अनुमान लगाएं और अवशिष्ट (εₜ) प्राप्त करें।
  • अवशिष्टों का वर्ग करें (ε²ₜ)।
  • निम्नलिखित सहायक प्रतिगमन (auxiliary regression) चलाएं: ε²ₜ = α₀ + α₁ε²ₜ₋₁ + α₂ε²ₜ₋₂ + … + α_qε²ₜ₋_q + vₜ यहाँ, हम ε²ₜ को उसके ‘q’ लैग्ड मानों पर प्रतिगमन करते हैं।
  • शून्य परिकल्पना यह है कि कोई ARCH प्रभाव नहीं है (H₀: α₁ = α₂ = … = α_q = 0)।
  • परीक्षण सांख्यिकीय की गणना करें, जो T × R² है, जहाँ T प्रेक्षणों की संख्या है और R² सहायक प्रतिगमन से प्राप्त होता है। शून्य परिकल्पना के तहत, यह सांख्यिकीय q डिग्री ऑफ़ फ्रीडम के साथ एक काई-स्क्वायर (χ²) वितरण का पालन करता है।
  • यदि T × R² का मान χ² वितरण के क्रांतिक मान से अधिक है, तो हम शून्य परिकल्पना को अस्वीकार करते हैं और निष्कर्ष निकालते हैं कि ARCH प्रभाव मौजूद हैं।

Q7. किसी बहुपद लॉजिट प्रतिमान में असंबद्ध विकल्पों की स्वतंत्रता (IIA) की अवधारणा की व्याख्या कीजिए।

Ans.

बहुपद लॉजिट (Multinomial Logit – MNL) प्रतिमान एक लोकप्रिय असतत विकल्प प्रतिमान है जिसका उपयोग तब किया जाता है जब एक निर्णयकर्ता दो से अधिक अव्यवस्थित विकल्पों (unordered choices) में से एक का चयन करता है। उदाहरणों में परिवहन के साधनों (कार, बस, ट्रेन), ब्रांड की पसंद या व्यवसाय के स्थान का चयन शामिल है।

असंगत विकल्पों की स्वतंत्रता (Independence of Irrelevant Alternatives – IIA) MNL प्रतिमान की एक मौलिक और अक्सर विवादास्पद धारणा है। IIA धारणा यह बताती है कि किसी भी दो विकल्पों (मान लीजिए A और B) को चुनने की संभावनाओं का अनुपात केवल उन दो विकल्पों की विशेषताओं पर निर्भर करता है और किसी अन्य तीसरे, “असंगत” विकल्प (मान लीजिए C) की उपस्थिति या विशेषताओं से स्वतंत्र होता है।

गणितीय रूप से, यदि Pᵢ और Pⱼ क्रमशः विकल्प i और j को चुनने की संभावनाएं हैं, तो IIA धारणा का अर्थ है: Pᵢ / Pⱼ = f(Xᵢ, Xⱼ)

इसका मतलब है कि अनुपात Pᵢ / Pⱼ विकल्पों के सेट में किसी अन्य विकल्प k के जुड़ने या हटने से नहीं बदलता है।

IIA की समस्या: “रेड बस/ब्लू बस” उदाहरण IIA धारणा की सीमा को प्रसिद्ध “रेड बस/ब्लू बस” विरोधाभास द्वारा सबसे अच्छी तरह से समझाया गया है:

  1. मान लीजिए कि एक यात्री के पास दो विकल्प हैं: कार और बस । मान लीजिए कि प्रत्येक को चुनने की संभावना 0.5 है। तो, P(कार) / P(बस) = 0.5 / 0.5 = 1।
  2. अब एक नया विकल्प पेश किया गया है: एक नीली बस , जो मौजूदा बस (जिसे अब हम लाल बस कहेंगे) के समान है। अब हमारे पास तीन विकल्प हैं: कार, लाल बस, नीली बस।
  3. IIA धारणा के अनुसार, कार और लाल बस को चुनने की संभावनाओं का अनुपात अभी भी 1 होना चाहिए। यानी, P(कार) = P(लाल बस)। इसी तरह, P(कार) / P(नीली बस) भी 1 होना चाहिए (यह मानते हुए कि लाल और नीली बसें समान रूप से आकर्षक हैं), इसलिए P(कार) = P(नीली बस)।
  4. इसका मतलब है कि तीनों विकल्पों को चुनने की संभावना बराबर होनी चाहिए: P(कार) = P(लाल बस) = P(नीली बस) = 1/3।

यह परिणाम स्पष्ट रूप से अवास्तविक है। वास्तव में, हम उम्मीद करेंगे कि बस के विकल्प (लाल और नीली) कार के साथ प्रतिस्पर्धा करने के बजाय एक दूसरे के साथ अधिक प्रतिस्पर्धा करेंगे। एक अधिक सहज परिणाम यह होगा कि P(कार) ≈ 0.5 बनी रहे, जबकि बस की मूल 0.5 संभावना लाल और नीली बसों के बीच विभाजित हो जाए, जिससे P(लाल बस) ≈ 0.25 और P(नीली बस) ≈ 0.25 हो। MNL प्रतिमान, IIA धारणा के कारण, इस यथार्थवादी परिणाम को संभाल नहीं सकता है।

इस समस्या के कारण, जब विकल्प एक दूसरे के करीबी विकल्प होते हैं, तो MNL प्रतिमान अनुचित हो सकता है। IIA धारणा का उल्लंघन होता है या नहीं, यह जांचने के लिए हॉउसमन-मैकफैडेन (Hausman-McFadden) जैसे परीक्षण उपलब्ध हैं। यदि IIA का उल्लंघन होता है, तो नेस्टेड लॉजिट (Nested Logit) या मिक्स्ड लॉजिट (Mixed Logit) जैसे अधिक उन्नत प्रतिमानों का उपयोग किया जाना चाहिए।

Q8. एक वितरित अन्तराल प्रतिमान की परिभाषा कीजिए। कोयेक प्रतिमान का विनिर्देशन कीजिए।

Ans.

वितरित अन्तराल प्रतिमान (Distributed Lag Model) एक अर्थमितिक प्रतिमान है जिसमें एक आश्रित चर (Y) पर एक व्याख्यात्मक चर (X) का प्रभाव समय के साथ वितरित या फैला हुआ होता है। दूसरे शब्दों में, Yₜ पर न केवल X के वर्तमान मान (Xₜ) का प्रभाव पड़ता है, बल्कि X के पिछले (लैग्ड) मानों (Xₜ₋₁, Xₜ₋₂, आदि) का भी प्रभाव पड़ता है।

एक सामान्य परिमित वितरित अन्तराल प्रतिमान को इस प्रकार लिखा जा सकता है: Yₜ = α + β₀Xₜ + β₁Xₜ₋₁ + β₂Xₜ₋₂ + … + βₖXₜ₋ₖ + εₜ

और एक अनंत वितरित अन्तराल प्रतिमान को इस प्रकार लिखा जा सकता है: Yₜ = α + Σᵢ₌₀^∞ βᵢXₜ₋ᵢ + εₜ

यहाँ:

  • β₀ को अल्पकालिक या प्रभाव गुणक (short-run or impact multiplier) कहा जाता है। यह X में एक इकाई परिवर्तन का Y पर तत्काल प्रभाव दिखाता है।
  • Σβᵢ को दीर्घकालिक या कुल गुणक (long-run or total multiplier) कहा जाता है। यह X में एक स्थायी एक-इकाई परिवर्तन का Y पर कुल प्रभाव दिखाता है।

इन प्रतिमानों का अनुमान लगाने में समस्याएं उत्पन्न होती हैं, जैसे कि X के लैग्ड मानों के बीच बहुसंरेखता (multicollinearity) और बहुत अधिक लैग शामिल करने पर डिग्री ऑफ़ फ्रीडम का क्षय (loss of degrees of freedom) ।

कोयेक प्रतिमान (Koyck Model): कोयेक प्रतिमान (जिसे ज्यामितीय लैग प्रतिमान भी कहा जाता है) एक अनंत वितरित अन्तराल प्रतिमान को सरल बनाने की एक विधि है। यह लैग गुणांक (βᵢ) पर एक विशिष्ट संरचना लागू करता है। कोयेक यह मानता है कि गुणांक βᵢ ज्यामितीय रूप से एक स्थिर दर (λ) पर घटते हैं, जहाँ 0 < λ < 1।

यह धारणा इस प्रकार व्यक्त की जाती है: βₖ = β₀λᵏ สำหรับ k = 0, 1, 2, …

इस धारणा के साथ, अनंत वितरित अन्तराल प्रतिमान बन जाता है: Yₜ = α + β₀Xₜ + β₀λXₜ₋₁ + β₀λ²Xₜ₋₂ + … + εₜ

इस समीकरण का अनुमान लगाना अभी भी कठिन है। हालांकि, कोयेक परिवर्तन (Koyck transformation) का उपयोग करके, इसे एक सरल रूप में बदला जा सकता है। इस प्रक्रिया में समीकरण को λ से गुणा करके एक अवधि के लिए लैग करना और फिर परिणामी समीकरण को मूल समीकरण से घटाना शामिल है।

यह परिवर्तन निम्नलिखित अनुमान योग्य प्रतिमान देता है: Yₜ = α(1-λ) + β₀Xₜ + λYₜ₋₁ + vₜ

जहाँ vₜ = (εₜ – λεₜ₋₁) एक गतिशील त्रुटि पद है।

यह प्रतिमान बहुत सरल है क्योंकि इसमें केवल तीन मापदंडों का अनुमान लगाना होता है: α, β₀, और λ। हालांकि, एक नई समस्या उत्पन्न होती है: व्याख्यात्मक चर Yₜ₋₁ त्रुटि पद vₜ से सहसंबद्ध होता है (क्योंकि दोनों εₜ₋₁ पर निर्भर करते हैं), जिससे OLS अनुमान पक्षपाती और असंगत हो जाते हैं। इस समस्या को दूर करने के लिए इंस्ट्रूमेंटल वेरिएबल (IV) जैसी अनुमानन तकनीकों की आवश्यकता होती है।

Q9. एक द्विसोपानी न्यूनतम वर्ग प्रतिमान के अनुप्रयोग में शामिल दो सोपानों की व्याख्या कीजिए।

Ans.

द्विसोपानी न्यूनतम वर्ग (Two-Stage Least Squares – 2SLS या TSLS) एक सांख्यिकीय तकनीक है जिसका उपयोग एक या एक से अधिक व्याख्यात्मक चरों के अंतर्जात (endogenous) होने पर रैखिक प्रतिगमन प्रतिमानों का अनुमान लगाने के लिए किया जाता है। अंतर्जातता तब होती है जब एक व्याख्यात्मक चर त्रुटि पद (error term) के साथ सहसंबद्ध होता है, जिससे सामान्य न्यूनतम वर्ग (OLS) अनुमान पक्षपाती और असंगत हो जाते हैं। 2SLS उपकरण चर (Instrumental Variables – IV) अनुमानन का एक तरीका है और इसका व्यापक रूप से युगपत समीकरण प्रणालियों में उपयोग किया जाता है।

जैसा कि नाम से पता चलता है, 2SLS प्रक्रिया में दो चरण शामिल होते हैं:

सोपान 1: अंतर्जात चरों के लिए अनुमानित मान प्राप्त करना पहले चरण का उद्देश्य अंतर्जात व्याख्यात्मक चर के उस हिस्से को अलग करना है जो त्रुटि पद से असंबद्ध है। यह प्रणाली में सभी बहिर्जात चरों (exogenous variables) का उपयोग करके किया जाता है, जिन्हें उपकरण (instruments) के रूप में भी जाना जाता है।

प्रक्रिया इस प्रकार है:

  1. संरचनात्मक समीकरण में प्रत्येक अंतर्जात व्याख्यात्मक चर (endogenous explanatory variable) की पहचान करें।
  2. प्रत्येक अंतर्जात व्याख्यात्मक चर को प्रणाली के सभी बहिर्जात चरों पर प्रतिगमन (regress) करें। इसे समानीत रूप प्रतिगमन (reduced-form regression) कहा जाता है। उदाहरण के लिए, यदि Y₂ एक अंतर्जात व्याख्यात्मक चर है और Z₁, Z₂, और Z₃ बहिर्जात चर (उपकरण) हैं, तो प्रतिगमन होगा: Y₂ = π₀ + π₁Z₁ + π₂Z₂ + π₃Z₃ + त्रुटि
  3. इस प्रतिगमन का अनुमान OLS का उपयोग करके लगाया जाता है और प्रत्येक अंतर्जात चर के लिए अनुमानित मान (predicted values) , जिसे Ŷ₂ (Y₂-hat) कहा जाता है, प्राप्त किए जाते हैं।

ये अनुमानित मान, Ŷ₂, बहिर्जात चरों का एक रैखिक संयोजन हैं। इसलिए, वे परिभाषा के अनुसार, मूल संरचनात्मक समीकरण में त्रुटि पद से असंबद्ध हैं।

सोपान 2: संशोधित संरचनात्मक समीकरण का अनुमान लगाना दूसरे चरण में, हम मूल संरचनात्मक समीकरण पर वापस जाते हैं, लेकिन एक महत्वपूर्ण संशोधन के साथ।

प्रक्रिया इस प्रकार है:

  1. मूल संरचनात्मक समीकरण में, अंतर्जात व्याख्यात्मक चर (Y₂) को सोपान 1 से प्राप्त उसके अनुमानित मान (Ŷ₂) से बदल दें। उदाहरण के लिए, यदि मूल समीकरण Y₁ = β₀ + β₁Y₂ + β₂Z₁ + u₁ था, तो संशोधित समीकरण बन जाता है: Y₁ = β₀ + β₁Ŷ₂ + β₂Z₁ + u₁
  2. अब, इस संशोधित समीकरण का अनुमान OLS का उपयोग करके लगाया जाता है।

चूंकि Ŷ₂ अब त्रुटि पद u₁ से सहसंबद्ध नहीं है, इस दूसरे चरण के OLS प्रतिगमन से प्राप्त गुणांक अनुमानक (estimators) सुसंगत (consistent) होते हैं। यद्यपि मानक त्रुटियों की गणना के लिए एक छोटे से समायोजन की आवश्यकता होती है, यह 2SLS का मूल तर्क है: अंतर्जातता की समस्या को ठीक करने के लिए उपकरणों का उपयोग करके अंतर्जात चर को “शुद्ध” करना।

Q10. निम्नलिखित में से किन्हीं दो पर संक्षिप्त टिप्पणियाँ लिखिए : (a) अनुमानन की त्रि-सोपानीय न्यूनतम वर्ग विधि (b) कोटि एवं अनुक्रम की शर्तें (c) विकृतांग प्रतीपगमन प्रतिमान

Ans.

(a) अनुमानन की त्रि-सोपानीय न्यूनतम वर्ग (3SLS) विधि

त्रि-सोपानीय न्यूनतम वर्ग (Three-Stage Least Squares – 3SLS) युगपत समीकरण प्रणालियों के लिए एक प्रणाली अनुमानन विधि है। यह द्विसोपानी न्यूनतम वर्ग (2SLS) का एक विस्तार है और आम तौर पर अधिक कुशल अनुमान प्रदान करती है।

3SLS, 2SLS की तरह, अंतर्जातता की समस्या का समाधान करती है, लेकिन यह प्रणाली में समीकरणों के त्रुटि पदों के बीच समकालीन सहसंबंध (contemporaneous correlation) को भी ध्यान में रखती है। प्रक्रिया में तीन चरण शामिल हैं:

  1. सोपान 1: यह 2SLS के पहले चरण के समान है। प्रणाली के सभी बहिर्जात चरों का उपयोग करके अंतर्जात चरों के लिए समानीत रूप समीकरणों का अनुमान लगाया जाता है और उनके अनुमानित मान प्राप्त किए जाते हैं।
  2. सोपान 2: यह 2SLS के दूसरे चरण के समान है। प्रणाली में प्रत्येक समीकरण का अनुमान 2SLS का उपयोग करके लगाया जाता है (यानी, अंतर्जात चरों को उनके अनुमानित मानों से बदल दिया जाता है)। इस चरण का मुख्य उद्देश्य प्रत्येक समीकरण के लिए सुसंगत अवशिष्ट (consistent residuals) प्राप्त करना है।
  3. सोपान 3: इस चरण में, सोपान 2 से प्राप्त अवशिष्टों का उपयोग प्रणाली के समीकरणों के त्रुटि पदों के बीच सहप्रसरण मैट्रिक्स (covariance matrix) का अनुमान लगाने के लिए किया जाता है। फिर इस अनुमानित सहप्रसरण मैट्रिक्स का उपयोग एक प्रकार के सामान्यीकृत न्यूनतम वर्ग (Generalized Least Squares – GLS) अनुमानन में पूरी प्रणाली पर एक साथ किया जाता है।

चूंकि 3SLS समीकरणों के बीच की सूचना (त्रुटियों का सहसंबंध) का उपयोग करता है, यह 2SLS (जो प्रत्येक समीकरण का अलग-अलग अनुमान लगाता है) की तुलना में अधिक कुशल अनुमानक उत्पन्न करता है, बशर्ते कि प्रणाली सही ढंग से निर्दिष्ट हो। यदि प्रणाली में समीकरणों की त्रुटियां असंबद्ध हैं, तो 3SLS और 2SLS समान अनुमान देते हैं।

(b) कोटि एवं अनुक्रम की शर्तें

कोटि (Rank) और अनुक्रम (Order) की शर्तें युगपत समीकरण प्रणाली में एक समीकरण के अभिनिर्धारण (identification) की जांच के लिए उपयोग की जाने वाली शर्तें हैं। अभिनिर्धारण यह निर्धारित करता है कि क्या किसी समीकरण के संरचनात्मक मापदंडों के लिए अद्वितीय मान प्राप्त करना संभव है।

1. अनुक्रम की शर्त (Order Condition): यह एक आवश्यक लेकिन पर्याप्त नहीं (necessary but not sufficient) शर्त है। यह एक सरल गणना नियम है। एक समीकरण के अभिनिर्धारित होने के लिए, उस समीकरण से बाहर रखे गए पूर्व-निर्धारित (बहिर्जात और लैग्ड अंतर्जात) चरों की संख्या उस समीकरण में शामिल अंतर्जात चरों की संख्या से एक कम से अधिक या बराबर होनी चाहिए। गणितीय रूप से: K – k ≥ m – 1 जहाँ:

  • K = प्रणाली में कुल पूर्व-निर्धारित चरों की संख्या
  • k = उस विशेष समीकरण में शामिल पूर्व-निर्धारित चरों की संख्या
  • m = उस विशेष समीकरण में शामिल अंतर्जात चरों की संख्या

यदि K – k < m – 1, तो समीकरण अल्प-अभिनिर्धारित (under-identified) है।

यदि K – k = m – 1, तो समीकरण ठीक-ठीक अभिनिर्धारित (exactly identified) है।

यदि K – k > m – 1, तो समीकरण अति-अभिनिर्धारित (over-identified) है।

2. कोटि की शर्त (Rank Condition): यह एक आवश्यक और पर्याप्त (necessary and sufficient) शर्त है। यह अनुक्रम की शर्त से अधिक कठोर है। यह शर्त सुनिश्चित करती है कि समीकरण वास्तव में प्रणाली के अन्य समीकरणों के रैखिक संयोजन से अलग है। यह शर्त कहती है: “एक प्रणाली में एक समीकरण के अभिनिर्धारित होने के लिए, यह संभव होना चाहिए कि उस समीकरण से बाहर रखे गए लेकिन प्रणाली के अन्य समीकरणों में शामिल चरों के गुणांकों से कम से कम एक (m-1) x (m-1) कोटि का गैर-शून्य सारणिक (non-zero determinant) बनाया जा सके।” व्यवहार में, अनुक्रम की शर्त को सत्यापित करना आसान है, जबकि कोटि की शर्त को सत्यापित करना अधिक जटिल है। हालांकि, एक समीकरण के वास्तव में अभिनिर्धारित होने के लिए कोटि की शर्त को पूरा करना अनिवार्य है।

IGNOU MECE-102 Previous Year Solved Question Paper in English

Q1. Explain the underlying ideas behind the Tobit model.

Ans. The Tobit model, named after the economist James Tobin, is a type of econometric model used when dealing with a dependent variable that is censored or limited at a certain point. Censoring means that the values of the variable are not recorded below or above a certain threshold, even though the true value might exist beyond that limit. The fundamental idea behind the Tobit model is based on the concept of a latent or unobserved variable , y , which is assumed to be determined by a normal linear model: y ᵢ = βXᵢ + uᵢ Here, y ᵢ is a continuous variable, Xᵢ is a vector of explanatory variables, and uᵢ is an error term. However, we do not directly observe y ᵢ. Instead, we observe a variable yᵢ, which is defined as follows: yᵢ = y ᵢ if y ᵢ > 0 yᵢ = 0 if y*ᵢ ≤ 0 This represents a “corner solution” situation. A classic example is a household’s expenditure on a durable good like a car. Some households do not purchase a car, so their expenditure is zero. This might be because their “desire” to buy (the latent variable) is not positive. For households with positive expenditure, we observe the actual amount. If we were to use Ordinary Least Squares (OLS) only for the positive values, our estimates would be biased and inconsistent. Similarly, if we apply OLS to all observations, including the zeros, the results would also be biased because it violates the assumptions of linearity and normality. The Tobit model addresses this censoring problem by using Maximum Likelihood Estimation (MLE) . The likelihood function combines the probability density function for the observations where the dependent variable is positive and the cumulative distribution function for the observations where it is censored at zero. This approach allows us to obtain consistent and efficient estimates of the coefficients (β). In essence, the model estimates the probability of being above the limit (e.g., making a purchase) and the expected value of the outcome, conditional on being above that limit.

Q2. When do you use the Indirect Least Squares (ILS) method of estimation ? Explain how the ILS method is applied.

Ans. The Indirect Least Squares (ILS) method is used to estimate the parameters of an equation in a simultaneous equation model, specifically when that equation is exactly identified . Identification relates to the problem of determining whether we can obtain unique values for the structural parameters of a model. An equation is exactly identified when the number of excluded exogenous variables from that equation is equal to the number of included endogenous variables minus one. The application of the ILS method is a two-step procedure: Step 1: Estimate the Reduced-Form Equations The first step is to derive the reduced form of the simultaneous equation model. In the reduced form, each endogenous variable is expressed as a function of only the exogenous variables of the system (including any predetermined variables). For instance, consider a simple demand and supply model: Demand: Qₜ = α₀ + α₁Pₜ + α₂Yₜ + u₁ₜ (Structural Equation) Supply: Qₜ = β₀ + β₁Pₜ + u₂ₜ (Structural Equation) Here, Qₜ (quantity) and Pₜ (price) are endogenous, and Yₜ (income) is exogenous. We can solve these equations to get the reduced form for Qₜ and Pₜ: Pₜ = π₁₀ + π₁₁Yₜ + v₁ₜ Qₜ = π₂₀ + π₂₁Yₜ + v₂ₜ In this step, we apply Ordinary Least Squares (OLS) to each reduced-form equation separately. Since the right-hand side contains only exogenous variables, which are uncorrelated with the error terms, the OLS estimates are consistent. This provides us with estimates of the reduced-form coefficients (the π’s). Step 2: Calculate the Structural Parameters In the second step, we use the estimated reduced-form coefficients from Step 1 to algebraically solve for the original structural coefficients (the α’s and β’s). We use the relationships that exist between the structural and reduced-form coefficients. Since the equation is exactly identified, there will be a unique solution for the structural parameters. Because we estimate the structural parameters not directly, but indirectly via the reduced-form parameters, the method is called Indirect Least Squares. It is crucial to note that ILS is only applicable to exactly identified equations; for over-identified equations, other methods like 2SLS are required.

Q3. What is a unit root problem ? Explain how the presence of a unit root in a time series can be detected by the DF test.

Ans. The unit root problem is a critical issue in econometrics, particularly in time series analysis. A time series is said to have a unit root when it is non-stationary and exhibits a stochastic trend. This means that the mean, variance, or covariance of the series is not constant over time. Consider a simple first-order autoregressive (AR(1)) model: Yₜ = ρYₜ₋₁ + εₜ Here, Yₜ is the value of the variable at time t, and εₜ is a white noise error term.

  • If |ρ| < 1, the series is stationary. Any shock is transitory, and the series reverts to its long-run mean.
  • If ρ = 1, the series has a unit root . In this case, Yₜ = Yₜ₋₁ + εₜ, which is a “random walk”. The effect of shocks is permanent, and the series never returns to its mean. The variance increases over time, a clear sign of non-stationarity.

Performing standard regression analysis in the presence of unit roots can lead to the problem of

spurious regression

, where a statistically significant relationship might appear between two unrelated non-stationary series, which does not actually exist.


The Dickey-Fuller (DF) Test:

The Dickey-Fuller (DF) test is a formal hypothesis test to check for the presence of a unit root in a time series. The test is conducted by estimating the following regression equation:

ΔYₜ = δYₜ₋₁ + εₜ

where ΔYₜ = Yₜ – Yₜ₋₁. This is derived by subtracting Yₜ₋₁ from the original AR(1) equation, where δ = (ρ – 1).

The hypotheses for the test are:

  • Null Hypothesis (H₀): δ = 0 (which implies ρ = 1, i.e., a unit root exists, and the series is non-stationary).
  • Alternative Hypothesis (H₁): δ < 0 (which implies ρ < 1, i.e., no unit root, and the series is stationary).

We calculate the t-statistic on the estimate of δ. However, under the null hypothesis, this statistic does not follow the standard t-distribution. Instead, it follows a special

Dickey-Fuller distribution

. Therefore, we must use the critical values provided by Dickey and Fuller rather than the standard t-tables.

If the calculated t-statistic is more negative (larger in absolute value) than the critical value, we reject the null hypothesis and conclude that the series is stationary. If it is less negative, we fail to reject the null hypothesis, suggesting the presence of a unit root. Extensions of this test, such as the

Augmented Dickey-Fuller (ADF) test

, include lagged values of ΔYₜ to control for potential serial correlation in the error terms.

Q4. Specify a Vector Autoregression (VAR) model in structural form and in reduced form. How do you select the lag length of the VAR model ?

Ans. A Vector Autoregression (VAR) model is a multi-equation, multi-variable time series model where each variable is regressed on its own lagged values and the lagged values of all other variables in the system. A VAR model can be specified in two forms: structural and reduced. 1. Structural VAR (SVAR) Model: The structural form models the contemporaneous relationships between the variables, often based on economic theory. A simple SVAR with two variables (Y₁ₜ, Y₂ₜ) and one lag (p=1) can be written as: Y₁ₜ = c₁ + b₁₂Y₂ₜ + γ₁₁Y₁ₜ₋₁ + γ₁₂Y₂ₜ₋₁ + ε₁ₜ Y₂ₜ = c₂ + b₂₁Y₁ₜ + γ₂₁Y₁ₜ₋₁ + γ₂₂Y₂ₜ₋₁ + ε₂ₜ In matrix form, this can be written as: B yₜ = Γ₀ + Γ₁ yₜ₋₁ + εₜ where B is the contemporaneous relationship matrix, yₜ is the vector of variables, Γ₀ is the vector of intercepts, Γ₁ is the coefficient matrix, and εₜ is the vector of structural shocks, which are assumed to be uncorrelated. The SVAR cannot be estimated directly by OLS because the contemporaneous variables (e.g., Y₂ₜ in the first equation) may be correlated with the error term ε₁ₜ. 2. Reduced-Form VAR Model: The reduced form is derived from the structural form and has no contemporaneous variables on the right-hand side. We obtain it by pre-multiplying the SVAR equation by B⁻¹: yₜ = B⁻¹Γ₀ + B⁻¹Γ₁ yₜ₋₁ + B⁻¹εₜ This can be re-written as: yₜ = A₀ + A₁ yₜ₋₁ + uₜ where A₀ = B⁻¹Γ₀, A₁ = B⁻¹Γ₁, and uₜ = B⁻¹εₜ is the vector of reduced-form errors. In the reduced form, each variable is expressed as a function of only predetermined variables (the lagged values of all variables). Since the right-hand-side variables are uncorrelated with the error terms, each equation of the reduced-form VAR can be estimated efficiently by equation-by-equation OLS . Selecting the Lag Length of the VAR Model: Choosing the appropriate lag length (p) for a VAR model is crucial. Too few lags can lead to a misspecified model, while too many lags reduce the degrees of freedom. The common approach for lag length selection is to use various information criteria:

  • Akaike Information Criterion (AIC): AIC = -2(LL/T) + 2(k/T)
  • Schwarz Bayesian Criterion (SBC/BIC): SBC = -2(LL/T) + k*ln(T)/T
  • Hannan-Quinn Criterion (HQ): HQ = -2(LL/T) + 2k*ln(ln(T))/T

Here, LL is the log-likelihood, T is the number of observations, and k is the number of parameters estimated. The procedure involves estimating VAR models for different lag lengths (p=1, 2, 3,…) and calculating the values of AIC, SBC, and HQ for each. The lag length that

minimizes

the value of these criteria is chosen. SBC tends to select the most parsimonious model (fewest lags), while AIC tends to select more lags. In practice, it is common to consider the results from these criteria along with diagnostic tests of the residuals.

Q5. Specify the Vector Error Correction Mechanism (VECM) in a time series. What are the issues that one should look into while specifying a VECM ?

Ans. A Vector Error Correction Mechanism (VECM) is a special type of Vector Autoregression (VAR) model used when the time series variables in a system are I(1) (stationary at first difference) but are also cointegrated . Cointegration means that a stable, long-run equilibrium relationship exists among the variables. A VECM is a restricted VAR that includes an Error Correction Term (ECT) . This term measures the deviation from equilibrium in the previous period and dictates how the variables adjust back to their long-run relationship. A simple VECM with two variables (Yₜ, Xₜ) and one lag can be specified as: ΔYₜ = α₁ (Yₜ₋₁ – βXₜ₋₁) + γ₁₁ΔYₜ₋₁ + γ₁₂ΔXₜ₋₁ + ε₁ₜ ΔXₜ = α₂ (Yₜ₋₁ – βXₜ₋₁) + γ₂₁ΔYₜ₋₁ + γ₂₂ΔXₜ₋₁ + ε₂ₜ Here:

  • ΔYₜ and ΔXₜ are the first differences of the variables, capturing their short-run changes.
  • (Yₜ₋₁ – βXₜ₋₁) is the Error Correction Term (ECT) . It represents the deviation from the long-run cointegrating equation (Y = βX) in the previous period.
  • α₁ and α₂ are the speed of adjustment coefficients . They measure the speed at which Yₜ and Xₜ return to their long-run equilibrium after a disequilibrium. For a meaningful correction, at least one of the α coefficients must be non-zero and statistically significant.
  • The γ coefficients capture the short-run dynamics.


Issues to Consider in VECM Specification:

When specifying a VECM, several critical issues must be considered:

  1. Order of Integration of Variables: First, it is essential to confirm that all variables are I(1). This is done using unit root tests like the Dickey-Fuller (DF) or Augmented Dickey-Fuller (ADF) tests.
  2. Presence and Number of Cointegrating Relations: The Johansen cointegration test is used to determine if cointegrating relationships exist among the variables and how many (the cointegrating rank). This is crucial for the specification of the VECM.
  3. Appropriate Lag Length: The lag length of the differenced variables to be included in the VECM needs to be determined. This is done using information criteria like AIC, SBC, or HQ, similar to a VAR model.
  4. Form of the Error Correction Term: When there is more than one cointegrating relationship, it might be necessary to impose restrictions on the cointegrating vector(s) (β) based on economic theory to make them interpretable.
  5. Exogenous Variables: Deciding whether to include exogenous variables in the model and whether to place them inside or outside the cointegrating relationship.
  6. Model Diagnostics: After estimation, it is important to perform diagnostic tests on the residuals (e.g., tests for serial correlation, heteroskedasticity) to ensure the adequacy of the model.

Q6. What is meant by ARCH model ? What tests are available to check the presence of ARCH effects ?

Ans. The ARCH (Autoregressive Conditional Heteroskedasticity) model, developed by Robert Engle, is a statistical model used in financial econometrics to model time-varying volatility. Its core idea is that the variance of the error term of a time series is not constant, but rather depends on the size of the error terms from previous periods. Specifically, the ARCH model assumes that the conditional variance —that is, the variance of the current error given all past information—is a function of the squared past error terms. An ARCH(q) model is specified as follows: Let εₜ be the error term of a regression. εₜ = vₜ√hₜ where vₜ is an independent and identically distributed (i.i.d.) process with a mean of zero and variance of one. hₜ is the conditional variance, which is modeled as: hₜ = α₀ + α₁ε²ₜ₋₁ + α₂ε²ₜ₋₂ + … + α_qε²ₜ₋_q Here, hₜ is the conditional variance at time t, α₀ > 0, and αᵢ ≥ 0 (for i=1,…,q) to ensure the variance is always positive. This equation shows that today’s volatility (hₜ) depends on the size of shocks in previous periods (ε²ₜ₋₁, ε²ₜ₋₂, etc.). Large past shocks (large ε²ₜ₋ᵢ) increase today’s volatility, which captures the phenomenon of “volatility clustering” observed in financial markets—that is, periods of high volatility tend to be followed by periods of high volatility, and periods of low volatility by periods of low volatility. Tests for the Presence of ARCH Effects: Testing for ARCH effects is crucial to determine if an ARCH model is appropriate. The main tests are: 1. Graphical Inspection of Residuals: After estimating a regression model, we can plot the squared residuals (ε²ₜ) against time. If the plot shows patterns of clustering—i.e., periods of large squares clustering together and small squares clustering together—this is an informal indication of ARCH effects. 2. Engle’s Lagrange Multiplier (LM) Test: This is the most common formal test for ARCH effects. The steps are:

  • Estimate an appropriate model (e.g., an ARMA) and obtain the residuals (εₜ).
  • Square the residuals (ε²ₜ).
  • Run the following auxiliary regression: ε²ₜ = α₀ + α₁ε²ₜ₋₁ + α₂ε²ₜ₋₂ + … + α_qε²ₜ₋_q + vₜ Here, we regress ε²ₜ on its ‘q’ lagged values.
  • The null hypothesis is that there are no ARCH effects (H₀: α₁ = α₂ = … = α_q = 0).
  • Calculate the test statistic, which is T × R² , where T is the number of observations and R² is from the auxiliary regression. Under the null hypothesis, this statistic follows a chi-square (χ²) distribution with q degrees of freedom.
  • If the value of T × R² exceeds the critical value from the χ² distribution, we reject the null hypothesis and conclude that ARCH effects are present.

Q7. Explain the concept of Independence of Irrelevant Alternatives (IIA) assumption in a multinomial logit model.

Ans. The Multinomial Logit (MNL) model is a popular discrete choice model used when a decision-maker selects one choice from more than two unordered alternatives. Examples include choosing a mode of transport (car, bus, train), brand choice, or business location. The Independence of Irrelevant Alternatives (IIA) is a fundamental and often controversial assumption of the MNL model. The IIA assumption states that the ratio of the probabilities of choosing any two alternatives (say, A and B) depends only on the characteristics of those two alternatives and is independent of the presence or attributes of any other third, “irrelevant” alternative (say, C). Mathematically, if Pᵢ and Pⱼ are the probabilities of choosing alternative i and j, respectively, the IIA assumption implies: Pᵢ / Pⱼ = f(Xᵢ, Xⱼ) This means the ratio Pᵢ / Pⱼ does not change if another alternative, k, is added to or removed from the choice set. The Problem with IIA: The “Red Bus/Blue Bus” Example The limitation of the IIA assumption is best explained by the famous “red bus/blue bus” paradox:

  1. Suppose a commuter has two choices: a Car and a Bus . Let’s assume the probability of choosing each is 0.5. So, the ratio P(Car) / P(Bus) = 0.5 / 0.5 = 1.
  2. Now, a new alternative is introduced: a Blue Bus , which is identical to the existing bus (which we’ll now call the Red Bus ). We now have three choices: Car, Red Bus, Blue Bus.
  3. According to the IIA assumption, the ratio of probabilities of choosing the car and the red bus must still be 1. That is, P(Car) = P(Red Bus). Similarly, the ratio P(Car) / P(Blue Bus) must also be 1 (assuming the red and blue buses are equally attractive), so P(Car) = P(Blue Bus).
  4. This implies that the probabilities of choosing all three alternatives must be equal: P(Car) = P(Red Bus) = P(Blue Bus) = 1/3.

This result is clearly unrealistic. In reality, we would expect the bus options (red and blue) to compete more with each other rather than with the car. A more intuitive outcome would be that P(Car) remains ≈ 0.5, while the original 0.5 probability for the bus is split between the red and blue buses, leading to P(Red Bus) ≈ 0.25 and P(Blue Bus) ≈ 0.25. The MNL model, due to the IIA assumption, cannot handle this realistic outcome.

Because of this problem, the MNL model can be inappropriate when alternatives are close substitutes for each other. Tests such as the

Hausman-McFadden

test are available to check if the IIA assumption is violated. If IIA is violated, more advanced models like Nested Logit or Mixed Logit should be used.

Q8. Define a distributed lag model. Specify the Koyck model.

Ans. A distributed lag model is an econometric model in which the effect of an explanatory variable (X) on a dependent variable (Y) is spread out over time. In other words, Yₜ is affected not only by the current value of X (Xₜ) but also by past (lagged) values of X (Xₜ₋₁, Xₜ₋₂, etc.). A general finite distributed lag model can be written as: Yₜ = α + β₀Xₜ + β₁Xₜ₋₁ + β₂Xₜ₋₂ + … + βₖXₜ₋ₖ + εₜ And an infinite distributed lag model can be written as: Yₜ = α + Σᵢ₌₀^∞ βᵢXₜ₋ᵢ + εₜ Here:

  • β₀ is called the short-run or impact multiplier . It shows the immediate impact on Y of a one-unit change in X.
  • Σβᵢ is called the long-run or total multiplier . It shows the total effect on Y of a sustained one-unit change in X.

Problems arise in estimating these models, such as

multicollinearity

among the lagged values of X and the

loss of degrees of freedom

if too many lags are included.


The Koyck Model:

The Koyck model (also known as the geometric lag model) is a method to simplify an infinite distributed lag model. It imposes a specific structure on the lag coefficients (βᵢ). Koyck assumes that the coefficients βᵢ decline geometrically at a constant rate (λ), where 0 < λ < 1.

This assumption is expressed as:


βₖ = β₀λᵏ for k = 0, 1, 2, …

With this assumption, the infinite distributed lag model becomes:

Yₜ = α + β₀Xₜ + β₀λXₜ₋₁ + β₀λ²Xₜ₋₂ + … + εₜ

This equation is still difficult to estimate. However, by using the

Koyck transformation

, it can be converted into a simpler form. The process involves lagging the equation by one period, multiplying it by λ, and then subtracting the resulting equation from the original equation.

This transformation yields the following estimable model:


Yₜ = α(1-λ) + β₀Xₜ + λYₜ₋₁ + vₜ

where vₜ = (εₜ – λεₜ₋₁) is a moving average error term.

This model is much simpler as it only requires estimating three parameters: α, β₀, and λ. However, a new problem arises: the explanatory variable Yₜ₋₁ is correlated with the error term vₜ (since both depend on εₜ₋₁), rendering OLS estimates biased and inconsistent. Estimation techniques like Instrumental Variables (IV) are needed to overcome this problem.

Q9. Explain the two stages involved in the application of the 2SLS model.

Ans. Two-Stage Least Squares (2SLS or TSLS) is a statistical technique used to estimate linear regression models when one or more explanatory variables are endogenous. Endogeneity occurs when an explanatory variable is correlated with the error term, causing Ordinary Least Squares (OLS) estimates to be biased and inconsistent. 2SLS is a method of Instrumental Variables (IV) estimation and is widely used in simultaneous equations systems. As the name suggests, the 2SLS procedure involves two distinct stages: Stage 1: Obtain Predicted Values for the Endogenous Variables The goal of the first stage is to isolate the part of the endogenous explanatory variable that is uncorrelated with the error term. This is done by using all the exogenous variables in the system, which are also known as the instruments. The procedure is as follows:

  1. Identify each endogenous explanatory variable in the structural equation.
  2. Regress each endogenous explanatory variable on ALL of the exogenous variables in the system. This is called a reduced-form regression . For example, if Y₂ is an endogenous explanatory variable and Z₁, Z₂, and Z₃ are the exogenous variables (instruments), the regression would be: Y₂ = π₀ + π₁Z₁ + π₂Z₂ + π₃Z₃ + error
  3. This regression is estimated using OLS, and the predicted values , denoted Ŷ₂ (Y₂-hat), are obtained for each endogenous variable.

These predicted values, Ŷ₂, are a linear combination of the exogenous variables. Therefore, by construction, they are uncorrelated with the error term in the original structural equation.


Stage 2: Estimate the Modified Structural Equation

In the second stage, we return to the original structural equation, but with a crucial modification.

The procedure is as follows:

  1. In the original structural equation, replace the endogenous explanatory variable (Y₂) with its predicted value (Ŷ₂) obtained from Stage 1. For example, if the original equation was Y₁ = β₀ + β₁Y₂ + β₂Z₁ + u₁, the modified equation becomes: Y₁ = β₀ + β₁Ŷ₂ + β₂Z₁ + u₁
  2. Now, estimate this modified equation using OLS.

Since Ŷ₂ is no longer correlated with the error term u₁, the coefficient estimators obtained from this second-stage OLS regression are

consistent

. Although a minor adjustment is needed for the calculation of standard errors, this is the basic logic of 2SLS: to “cleanse” the endogenous variable by using instruments to fix the endogeneity problem.

Q10. Write short notes on any two of the following : (a) 3-Stage Least Squares (3SLS) method of estimation (b) Rank and order conditions (c) Truncated regression models

Ans. (a) 3-Stage Least Squares (3SLS) method of estimation Three-Stage Least Squares (3SLS) is a system estimation method for simultaneous equations models. It is an extension of Two-Stage Least Squares (2SLS) and generally provides more efficient estimates. 3SLS, like 2SLS, addresses the problem of endogeneity, but it also takes into account the contemporaneous correlation between the error terms of the equations in the system. The procedure involves three stages:

  1. Stage 1: This is identical to the first stage of 2SLS. Reduced-form equations are estimated for the endogenous variables using all exogenous variables in the system to obtain their predicted values.
  2. Stage 2: This is identical to the second stage of 2SLS. Each equation in the system is estimated using 2SLS (i.e., replacing endogenous variables with their predicted values). The main purpose of this stage is to obtain consistent residuals for each equation.
  3. Stage 3: In this stage, the residuals obtained from Stage 2 are used to estimate the covariance matrix of the error terms across the equations of the system. This estimated covariance matrix is then used in a form of Generalized Least Squares (GLS) estimation on the entire system simultaneously.

Because 3SLS uses information across equations (the correlation of errors), it produces more efficient estimators than 2SLS (which estimates each equation separately), provided the system is correctly specified. If the errors of the equations in the system are uncorrelated, 3SLS and 2SLS give identical estimates.


(b) Rank and order conditions

The Rank and Order conditions are criteria used to check for the

identification

of an equation within a system of simultaneous equations. Identification determines whether it is possible to obtain unique values for the structural parameters of an equation.

1.

The Order Condition:

This is a

necessary but not sufficient

condition. It is a simple counting rule. For an equation to be identified, the number of predetermined (exogenous and lagged endogenous) variables excluded from that equation must be greater than or equal to the number of included endogenous variables minus one.

Mathematically:

K – k ≥ m – 1

Where:

  • K = Total number of predetermined variables in the system
  • k = Number of predetermined variables included in that particular equation
  • m = Number of endogenous variables included in that particular equation

If K – k < m – 1, the equation is

under-identified

.

If K – k = m – 1, the equation is

exactly identified

.

If K – k > m – 1, the equation is

over-identified

.

2.

The Rank Condition:

This is a

necessary and sufficient

condition. It is more rigorous than the order condition. The rank condition ensures that the equation is truly distinct from a linear combination of other equations in the system. It states: “For an equation in a system to be identified, it must be possible to form at least one non-zero determinant of order (m-1) x (m-1) from the coefficients of the variables excluded from that equation but included in the other equations of the system.”

In practice, the order condition is easy to verify, while the rank condition is more complex to check. However, for an equation to be truly identified, the rank condition must be satisfied.


Download IGNOU previous Year Question paper download PDFs for MECE-102 to improve your preparation. These ignou solved question paper IGNOU Previous Year Question paper solved PDF in Hindi and English help you understand the exam pattern and score better.

  • IGNOU Previous Year Solved Question Papers (All Courses)

Thanks!

Share this:

  • Share on Facebook (Opens in new window) Facebook
  • Share on X (Opens in new window) X
  • More
  • Share on WhatsApp (Opens in new window) WhatsApp
  • Share on Telegram (Opens in new window) Telegram
  • Print (Opens in new window) Print
  • Email a link to a friend (Opens in new window) Email

Reader Interactions

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Primary Sidebar

लेटेस्ट अपडेट पायें

Telegram Telegram Channel Join Now
Facebook FaceBook Page Follow Us
YouTube Youtube Channel Subscribe
WhatsApp WhatsApp Channel Join Now

Search

Recent Posts

  • MSU Baroda Study Materials Free Download
  • Bhavnagar University Study Materials Free Download
  • Kachchh University Study Materials Free Download
  • BMTU Study Materials Free Download
  • SGGU Study Materials Free Download

Subscribe to Blog via Email

Enter your email address to subscribe to this blog and receive notifications of new posts by email.

Join 1,611 other subscribers

Categories

  • 10th model paper (3)
  • bed books (3)
  • Bihar Board Model Paper (7)
  • Bihar Jobs (1)
  • cg board model paper (1)
  • DELED Books (1)
  • English Posts (1)
  • Essay (1)
  • Exam Prep (9)
  • G.K quiz in hindi (7)
  • General Knowledge in hindi (सामान्य ज्ञान) (24)
  • gk 2018 in hindi (12)
  • GK 2020 (2)
  • GK HINDI 2019 (9)
  • gk pdf download (16)
  • High school science notes in Hindi (3)
  • IERT (3)
  • MODEL PAPER (30)
  • Motivational quotes in hindi (1)
  • mp board model paper (4)
  • My Thoughts (Thoughts by Sachin Yadav) (1)
  • Navy (2)
  • NCERT Books in hindi free download (1)
  • Police (2)
  • Polytechnic (6)
  • Pratiyogita Darpan 2019 (2)
  • RBSE Model Papers (2)
  • School Books (1)
  • SSC GENERAL KNOWLEDGE (7)
  • StudyTrac (69)
  • Uncategorized (54)
  • University Books (106)
  • University Question Papers (153)
  • University Study Materials (89)
  • University Syllabus (144)
  • UP Board Books (5)
  • up board model paper (10)
  • Up board model papers (16)
  • UPSC Notes (3)
  • Uttar Pradesh Jobs (2)
  • रेलवे (7)
  • सामान्य हिन्दी (3)

Footer

University Books

University Study Materials (Books and Notes) in PDF Format in Hindi and English languages.

Click here to download.

University Question Papers

University Previous Year Question Papers and Sample Papers in PDF Format for all Courses.

Click here to download.

University Syllabus

Universities Syllabus in PDF Format in the English and Hindi languages for all courses.

Click here to download.

Copyright © 2026 ·GKPAD by S.K Yadav | Disclaimer