• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer

GKPAD.COM

ONLINE HINDI EDUCATION PORTAL

  • Home
  • Blog
  • Sarkari Result
  • University Books
  • University Papers
  • University Syllabus
  • About Us

IGNOU MECE-001 Solved Question Paper PDF Download

The IGNOU MECE-001 Solved Question Paper PDF Download page is designed to help students access high-quality exam resources in one place. Here, you can find ignou solved question paper IGNOU Previous Year Question paper solved PDF that covers all important questions with detailed answers. This page provides IGNOU all Previous year Question Papers in one PDF format, making it easier for students to prepare effectively.

  • IGNOU MECE-001 Solved Question Paper in Hindi
  • IGNOU MECE-001 Solved Question Paper in English
  • IGNOU Previous Year Solved Question Papers (All Courses)

Whether you are looking for IGNOU Previous Year Question paper solved in English or ignou previous year question paper solved in hindi, this page offers both options to suit your learning needs. These solved papers help you understand exam patterns, improve answer writing skills, and boost confidence for upcoming exams.

IGNOU MECE-001 Solved Question Paper PDF

IGNOU Previous Year Solved Question Papers

This section provides IGNOU MECE-001 Solved Question Paper PDF in both Hindi and English. These ignou solved question paper IGNOU Previous Year Question paper solved PDF include detailed answers to help you understand exam patterns and improve your preparation. You can also access IGNOU all Previous year Question Papers in one PDF for quick and effective revision before exams.


IGNOU MECE-001 Previous Year Solved Question Paper in Hindi

Q1. स्व-सहसम्बध से आपका क्या आशय है? समझाइए कि एक प्रतीपगमन प्रतिमान में स्व-सहसम्बन्ध की जाँच आप कैसे करेंगे? इस स्व-सहसम्बन्ध की समस्या का समाधान करने के उपाय बताइए।

Ans.

स्व-सहसम्बन्ध की परिभाषा:

स्व-सहसम्बन्ध (Autocorrelation), जिसे क्रमिक सहसंबंध (Serial Correlation) भी कहा जाता है, एक ऐसी स्थिति है जो आम तौर पर समय-श्रृंखला डेटा में होती है। यह एक प्रतीपगमन मॉडल में त्रुटि पदों (error terms) के बीच सहसंबंध को संदर्भित करता है। क्लासिकल लीनियर रिग्रेशन मॉडल (CLRM) की एक प्रमुख धारणा यह है कि त्रुटि पद एक दूसरे से स्वतंत्र होते हैं, अर्थात `Cov(u_i, u_j) = 0` जहाँ `i ≠ j`। जब यह धारणा टूट जाती है, तो स्व-सहसम्बन्ध की समस्या उत्पन्न होती है।

सकारात्मक स्व-सहसम्बन्ध में, एक अवधि में एक सकारात्मक (या नकारात्मक) त्रुटि के बाद अगली अवधि में एक सकारात्मक (या नकारात्मक) त्रुटि होने की संभावना होती है। नकारात्मक स्व-सहसम्बन्ध में, एक सकारात्मक त्रुटि के बाद एक नकारात्मक त्रुटि होती है, और इसके विपरीत।

स्व-सहसम्बन्ध की उपस्थिति में, OLS अनुमानक अभी भी निष्पक्ष (unbiased) और सुसंगत (consistent) होते हैं, लेकिन वे अब न्यूनतम प्रसरण वाले (BLUE – Best Linear Unbiased Estimator) नहीं रहते हैं। मानक त्रुटियाँ (standard errors) पक्षपाती होती हैं, जिससे t-सांख्यिकी और F-सांख्यिकी अविश्वसनीय हो जाती हैं, और परिकल्पना परीक्षण गलत निष्कर्षों को जन्म दे सकता है।

स्व-सहसम्बन्ध का पता लगाना:

स्व-सहसम्बन्ध का पता लगाने के कई तरीके हैं:

  • ग्राफिकल विधि: यह सबसे सरल तरीका है। इसमें समय के विरुद्ध अवशिष्टों (residuals) को प्लॉट किया जाता है। यदि प्लॉट में एक व्यवस्थित पैटर्न (जैसे तरंग जैसा पैटर्न) दिखाई देता है, तो यह स्व-सहसम्बन्ध का संकेत है। यदि अवशिष्ट पूरी तरह से यादृच्छिक (random) दिखते हैं, तो स्व-सहसम्बन्ध की संभावना कम होती है।
  • डरबिन-वॉटसन (d) टेस्ट: यह प्रथम-क्रम के स्व-सहसम्बन्ध का पता लगाने के लिए सबसे प्रसिद्ध परीक्षण है। d-सांख्यिकी की गणना की जाती है और इसकी तुलना दो महत्वपूर्ण मानों, `dL` (निचली सीमा) और `dU` (ऊपरी सीमा) से की जाती है।
    • यदि `d < dL` है, तो सकारात्मक स्व-सहसम्बन्ध का प्रमाण है।
    • यदि `d > 4 – dL` है, तो नकारात्मक स्व-सहसम्बन्ध का प्रमाण है।
    • यदि `dU < d < 4 – dU` है, तो कोई स्व-सहसम्बन्ध नहीं है।
    • यदि `dL ≤ d ≤ dU` या `4 – dU ≤ d ≤ 4 – dL` है, तो परीक्षण अनिर्णायक होता है।
  • ब्रॉश-गॉडफ्रे (BG) टेस्ट: यह एक अधिक सामान्य परीक्षण है जो उच्च-क्रम के स्व-सहसम्बन्ध का पता लगा सकता है और उन मॉडलों पर भी लागू होता है जिनमें लैग्ड आश्रित चर (lagged dependent variables) होते हैं। इसमें अवशिष्टों को लैग्ड अवशिष्टों और मूल व्याख्यात्मक चरों पर रिग्रेस करना शामिल है।

उपचारात्मक उपाय:

यदि स्व-सहसम्बन्ध का पता चलता है, तो निम्नलिखित उपाय किए जा सकते हैं:

  1. सामान्यीकृत न्यूनतम वर्ग (GLS): यदि स्व-सहसम्बन्ध संरचना (जैसे, सहसंबंध गुणांक ρ) ज्ञात है, तो GLS BLUE अनुमानक प्रदान कर सकता है। व्यवहार में, ρ अज्ञात होता है, इसलिए व्यवहार्य सामान्यीकृत न्यूनतम वर्ग (FGLS) का उपयोग किया जाता है, जैसे कि कोचरन-ऑर्कट (Cochrane-Orcutt) या प्रेइस-विंस्टन (Prais-Winsten) प्रक्रियाएं, जिसमें ρ का अनुमान लगाया जाता है।
  2. न्यूई-वेस्ट मानक त्रुटियाँ: यह विधि OLS गुणांक अनुमानों को नहीं बदलती है, लेकिन यह मानक त्रुटियों को स्व-सहसम्बन्ध (और अक्सर विषमलैंगिकता) के प्रति मजबूत बनाने के लिए समायोजित करती है। यह परिकल्पना परीक्षण को वैध बनाता है, भले ही मॉडल में स्व-सहसम्बन्ध मौजूद हो।
  3. मॉडल का पुनर्निर्धारण: कभी-कभी, स्व-सहसम्बन्ध एक संकेत है कि मॉडल गलत तरीके से निर्दिष्ट किया गया है। उदाहरण के लिए, एक महत्वपूर्ण व्याख्यात्मक चर को छोड़ दिया गया हो सकता है, या कार्यात्मक रूप (functional form) गलत हो सकता है। मॉडल में छूटे हुए चरों को शामिल करने या कार्यात्मक रूप को बदलने से स्व-सहसम्बन्ध की समस्या का समाधान हो सकता है।

Q2. तदर्थ चरों का क्या अर्थ है? तदर्थ चर विधि का वर्णन कीजिए और बताइए कि किस प्रकार OLS अनुमानन तकनीक इस विधि का ही एक विशेष रूप है।

Ans.

तदर्थ चर (Instrumental Variables – IV) का अर्थ:

अर्थमिति में, एक तदर्थ चर (IV) एक ऐसा चर है जिसका उपयोग तब किया जाता है जब एक प्रतीपगमन मॉडल में एक व्याख्यात्मक चर (explanatory variable) त्रुटि पद (error term) के साथ सहसंबद्ध होता है। इस समस्या को अंतर्जातता (endogeneity) कहा जाता है। एक वैध तदर्थ चर Z, अंतर्जात व्याख्यात्मक चर X के लिए, दो शर्तों को पूरा करता है:

  1. प्रासंगिकता की शर्त (Relevance Condition): तदर्थ चर को अंतर्जात चर के साथ सहसंबद्ध होना चाहिए। गणितीय रूप से, `Cov(Z, X) ≠ 0`। इसका मतलब है कि Z में X में कुछ भिन्नता की व्याख्या करने की क्षमता होनी चाहिए।
  2. बहिर्जातता की शर्त (Exogeneity Condition): तदर्थ चर को प्रतीपगमन के त्रुटि पद के साथ असंबद्ध होना चाहिए। गणितीय रूप से, `Cov(Z, u) = 0`। इसका मतलब है कि Z का Y पर कोई सीधा प्रभाव नहीं होना चाहिए, सिवाय X के माध्यम से उसके प्रभाव के।

संक्षेप में, एक अच्छा तदर्थ चर Y को केवल अप्रत्यक्ष रूप से, अंतर्जात चर X के माध्यम से प्रभावित करता है।

तदर्थ चर (IV) विधि का वर्णन:

IV अनुमानन विधि का उद्देश्य अंतर्जातता की उपस्थिति में सुसंगत (consistent) अनुमानक प्राप्त करना है। साधारण न्यूनतम वर्ग (OLS) ऐसे मामलों में पक्षपाती (biased) और असंगत (inconsistent) अनुमानक उत्पन्न करता है। सबसे आम IV विधि द्वि-चरणीय न्यूनतम वर्ग (2SLS) है:

मान लीजिए मॉडल है: `Y = β₀ + β₁X + β₂W + u`, जहाँ X अंतर्जात है और W बहिर्जात है।

  • चरण 1: अंतर्जात चर X को सभी बहिर्जात चरों (तदर्थ चर Z और मॉडल में अन्य बहिर्जात चर W) पर रिग्रेस करें। `X = π₀ + π₁Z + π₂W + v` इस प्रतीपगमन से X के अनुमानित मान (`X̂`) प्राप्त करें। यह `X` का वह हिस्सा है जिसकी व्याख्या बहिर्जात चरों द्वारा की जाती है और इसलिए यह त्रुटि पद `u` से असंबद्ध है।
  • चरण 2: मूल संरचनात्मक समीकरण में, अंतर्जात चर X को उसके अनुमानित मान `X̂` से प्रतिस्थापित करें और OLS का उपयोग करके प्रतीपगमन चलाएँ। `Y = β₀ + β₁X̂ + β₂W + u` इस दूसरे चरण के प्रतीपगमन से प्राप्त गुणांक (`β₁`) `β₁` का सुसंगत IV अनुमानक है।

OLS, IV का एक विशेष मामला क्यों है:

OLS अनुमानन तकनीक को तदर्थ चर विधि का एक विशेष मामला माना जा सकता है। यह उस स्थिति में होता है जब मॉडल में सभी व्याख्यात्मक चर बहिर्जात (exogenous) होते हैं, यानी, वे त्रुटि पद के साथ सहसंबद्ध नहीं होते हैं।

जब एक व्याख्यात्मक चर X बहिर्जात होता है (`Cov(X, u) = 0`), तो यह अपने लिए एक आदर्श तदर्थ चर के रूप में कार्य कर सकता है। यह दोनों शर्तों को पूरा करता है:

1. प्रासंगिकता: X स्वयं के साथ पूरी तरह से सहसंबद्ध है (`Cov(X, X) = Var(X) ≠ 0`)। 2. बहिर्जातता: X त्रुटि पद के साथ असंबद्ध है (यह हमारी धारणा है)।

इसलिए, यदि हम X को स्वयं के लिए एक तदर्थ चर के रूप में उपयोग करते हैं, तो IV अनुमानक OLS अनुमानक के समान हो जाता है। IV अनुमानक के लिए सूत्र `β₁_IV = Cov(Z,Y)/Cov(Z,X)` है। यदि हम `Z = X` प्रतिस्थापित करते हैं, तो यह `Cov(X,Y)/Cov(X,X) = Cov(X,Y)/Var(X)` हो जाता है, जो एक सरल प्रतीपगमन में OLS अनुमानक के लिए सटीक सूत्र है। इस प्रकार, जब कोई अंतर्जातता नहीं होती है, तो IV प्रक्रिया OLS प्रक्रिया में सिमट जाती है।

Q3. विलंबन वाले प्रतीपगमन प्रतिमानों की परिभाषा कीजिए। निम्नलिखित प्रतिमानों पर चर्चा कीजिए : (a) कोयेक प्रतिमान (b) स्वप्रतीपगामी प्रतिमान

Ans.

विलंबन वाले प्रतीपगमन प्रतिमान (Distributed Lag Models):

एक विलंबन वाला प्रतीपगमन प्रतिमान, या वितरित-अंतराल प्रतिमान, एक ऐसा मॉडल है जिसमें आश्रित चर (Y) पर एक व्याख्यात्मक चर (X) का प्रभाव समय के साथ वितरित होता है। दूसरे शब्दों में, X में एक परिवर्तन Y को तुरंत और पूरी तरह से प्रभावित नहीं करता है; बल्कि, इसका प्रभाव कई भविष्य की अवधियों में फैलता है।

एक सामान्य वितरित-अंतराल मॉडल का रूप है:

`Yt = α + β₀Xt + β₁Xt-₁ + β₂Xt-₂ + … + ut`

यहाँ, `β₀` प्रभाव गुणांक (impact multiplier) है, जो Yt पर Xt में एक इकाई परिवर्तन के तत्काल प्रभाव को मापता है। `βk` (k>0) अंतराल गुणांक हैं जो Yt पर `Xt-k` के प्रभाव को मापते हैं। कुल प्रभाव `Σβk` द्वारा दिया जाता है।

(a) कोयेक प्रतिमान (The Koyck Model):

कोयेक प्रतिमान एक अनंत वितरित-अंतराल मॉडल का एक विशिष्ट रूप है। यह एक सरल धारणा बनाता है कि अंतराल गुणांक (`βk`) ज्यामितीय रूप से घटते हैं। इसका मतलब है कि हाल की अवधियों का प्रभाव दूर की अवधियों की तुलना में अधिक मजबूत होता है, और यह प्रभाव एक स्थिर दर पर घटता है।

धारणा: `βk = β₀λ^k`, जहाँ `k = 0, 1, 2, …` और `0 < λ < 1`। `λ` कमी की दर है।

इस धारणा को सामान्य मॉडल में प्रतिस्थापित करने से मिलता है:

`Yt = α + β₀(Xt + λXt-₁ + λ²Xt-₂ + …) + ut` (1)

इस मॉडल का अनुमान लगाना मुश्किल है क्योंकि इसमें अनंत संख्या में पद हैं। कोयेक ने इसे एक सरल रूप में बदलने के लिए एक परिवर्तन का प्रस्ताव दिया। समीकरण (1) को एक अवधि के लिए अंतराल करें और `λ` से गुणा करें:

`λYt-₁ = λα + β₀(λXt-₁ + λ²Xt-₂ + …) + λut-₁` (2)

समीकरण (2) को समीकरण (1) से घटाने पर, हमें कोयेक रूपांतरित मॉडल मिलता है:

`Yt = α(1-λ) + β₀Xt + λYt-₁ + (ut – λut-₁)`

यह मॉडल अनुमान लगाने में बहुत आसान है क्योंकि इसमें केवल तीन गुणांक हैं। हालांकि, एक नई समस्या उत्पन्न होती है: नया त्रुटि पद `vt = (ut – λut-₁)` लैग्ड आश्रित चर `Yt-₁` के साथ सहसंबद्ध है। इससे OLS अनुमानक पक्षपाती और असंगत हो जाते हैं। इसलिए, इस मॉडल का अनुमान लगाने के लिए तदर्थ चर (Instrumental Variable) जैसी तकनीकों की आवश्यकता होती है।

(b) स्वप्रतीपगामी प्रतिमान (Autoregressive Models):

एक स्वप्रतीपगामी प्रतिमान वह है जिसमें आश्रित चर को उसके स्वयं के पिछले मानों (lags) पर रिग्रेस किया जाता है। एक शुद्ध स्वप्रतीपगामी मॉडल (AR मॉडल) का रूप है:

`Yt = α + γ₁Yt-₁ + γ₂Yt-₂ + … + γpYt-p + ut`

यह एक AR(p) मॉडल है, जहाँ `p` अंतराल की संख्या है।

अर्थमिति में अधिक सामान्य स्वप्रतीपगामी वितरित-अंतराल (Autoregressive Distributed Lag – ARDL) मॉडल है। यह मॉडल आश्रित चर के अंतराल और एक या अधिक व्याख्यात्मक चरों के वर्तमान और पिछले मानों दोनों को शामिल करता है। एक ARDL(p, q) मॉडल का रूप है:

`Yt = α + Σ(βi Xt-i) [i=0 to q] + Σ(γj Yt-j) [j=1 to p] + ut`

ARDL मॉडल बहुत लचीले होते हैं और आर्थिक चरों के बीच गतिशील संबंधों को मॉडल करने के लिए व्यापक रूप से उपयोग किए जाते हैं। कोयेक मॉडल को एक प्रतिबंधित ARDL(1,1) मॉडल के रूप में देखा जा सकता है। ARDL मॉडल का एक फायदा यह है कि यदि त्रुटि पद `ut` क्रमिक रूप से असंबद्ध हैं तो OLS सुसंगत अनुमानक प्रदान करता है। वे सह-एकीकरण (cointegration) और दीर्घकालिक संबंधों का परीक्षण करने के लिए भी उपयोगी हैं।

Q4. निम्नलिखित पदबंधों की व्याख्या कीजिए : (a) संरचनात्मक समीकरण (b) समानीत समीकरण (c) युगपदता अभिनति

Ans.

(a) संरचनात्मक समीकरण (Structural Equations):

संरचनात्मक समीकरण एक युगपद समीकरण मॉडल (simultaneous equation model) के निर्माण खंड हैं। ये समीकरण सीधे आर्थिक सिद्धांत से प्राप्त होते हैं और एक प्रणाली के भीतर चर के बीच अंतर्निहित व्यवहारिक, तकनीकी, या संस्थागत संबंधों का वर्णन करते हैं। प्रत्येक समीकरण एक आर्थिक एजेंट (जैसे, उपभोक्ता, फर्म) के व्यवहार या एक संतुलन की स्थिति का प्रतिनिधित्व करता है।

एक संरचनात्मक समीकरण में कम से कम एक अंतर्जात चर (endogenous variable) आश्रित चर के रूप में होता है और इसमें व्याख्यात्मक चर के रूप में अन्य अंतर्जात चर, पूर्व निर्धारित चर (predetermined variables – बहिर्जात और लैग्ड अंतर्जात चर), और एक त्रुटि पद शामिल हो सकते हैं।

उदाहरण के लिए, एक सरल मैक्रोइकॉनॉमिक मॉडल में:

1. `Ct = β₀ + β₁Yt + ut` (उपभोग फलन)

2. `Yt = Ct + It` (आय पहचान)

ये दोनों समीकरण संरचनात्मक समीकरण हैं। पहला उपभोक्ताओं के व्यवहार का वर्णन करता है, और दूसरा एक लेखांकन पहचान है जो संतुलन को परिभाषित करता है। यहाँ `Ct` और `Yt` अंतर्जात चर हैं, और `It` (निवेश) को बहिर्जात माना जाता है।

(b) समानीत समीकरण (Reduced-Form Equations):

समानीत-रूप समीकरण वे समीकरण होते हैं जो एक अंतर्जात चर को केवल पूर्व निर्धारित चरों (बहिर्जात और लैग्ड अंतर्जात चर) और त्रुटि पदों के एक फलन के रूप में व्यक्त करते हैं। ये समीकरण संरचनात्मक मॉडल को बीजगणितीय रूप से हल करके प्राप्त किए जाते हैं ताकि प्रत्येक अंतर्जात चर को अन्य अंतर्जात चरों से मुक्त किया जा सके।

समानीत-रूप समीकरणों का कोई प्रत्यक्ष व्यवहारिक अर्थ नहीं होता है, लेकिन वे पूर्वानुमान और नीति विश्लेषण के लिए उपयोगी होते हैं। चूंकि व्याख्यात्मक चर सभी पूर्व निर्धारित होते हैं, वे त्रुटि पद से असंबद्ध होते हैं, जिसका अर्थ है कि समानीत-रूप समीकरणों का अनुमान OLS द्वारा बिना किसी अभिनति के लगाया जा सकता है।

उपरोक्त उदाहरण का उपयोग करते हुए, हम Yt के लिए समानीत-रूप समीकरण प्राप्त कर सकते हैं:

`Yt = (β₀ + β₁Yt + ut) + It`

`Yt(1 – β₁) = β₀ + It + ut`

`Yt = [β₀/(1-β₁)] + [1/(1-β₁)]It + [1/(1-β₁)]ut`

यह `Yt` के लिए समानीत-रूप समीकरण है। इसे `Yt = π₁₀ + π₁₁It + vt` के रूप में लिखा जा सकता है। समानीत-रूप गुणांक (`π`) संरचनात्मक गुणांक (`β`) के फलन होते हैं।

(c) युगपदता अभिनति (Simultaneity Bias):

युगपदता अभिनति एक प्रकार की अभिनति है जो तब उत्पन्न होती है जब साधारण न्यूनतम वर्ग (OLS) को सीधे एक युगपद समीकरण प्रणाली में एक संरचनात्मक समीकरण पर लागू किया जाता है। यह अभिनति इसलिए होती है क्योंकि समीकरण में एक या अधिक व्याख्यात्मक चर अंतर्जात होते हैं, जिसका अर्थ है कि वे त्रुटि पद के साथ सहसंबद्ध होते हैं।

हमारे उपभोग फलन `Ct = β₀ + β₁Yt + ut` पर विचार करें। इस समीकरण में, `Yt` एक व्याख्यात्मक चर है, लेकिन यह अंतर्जात भी है। जैसा कि समानीत-रूप समीकरण से देखा जा सकता है, `Yt` त्रुटि पद `ut` पर निर्भर करता है। इसलिए, `Cov(Yt, ut) ≠ 0`।

जब एक व्याख्यात्मक चर त्रुटि पद के साथ सहसंबद्ध होता है, तो OLS की एक प्रमुख धारणा का उल्लंघन होता है। परिणामस्वरूप, OLS का उपयोग करके `β₁` का अनुमान लगाने से एक पक्षपाती और असंगत अनुमानक प्राप्त होगा। यह अभिनति समाप्त नहीं होती है, भले ही नमूना आकार बढ़ जाए। इसे युगपदता अभिनति कहा जाता है। इस समस्या से बचने के लिए, तदर्थ चर (IV) या द्वि-चरणीय न्यूनतम वर्ग (2SLS) जैसी अनुमान विधियों का उपयोग किया जाना चाहिए।

Q5. मौसमी विश्लेषण में तदर्थ चरों के प्रयोग को उदाहरण सहित समझाइए।

Ans. तदर्थ चर, जिन्हें डमी वैरिएबल (Dummy Variable) भी कहा जाता है, वे चर होते हैं जो केवल 0 या 1 का मान लेते हैं। अर्थमिति में इनका उपयोग गुणात्मक विशेषताओं, जैसे लिंग, धर्म, या समय-श्रृंखला डेटा में मौसमी प्रभावों को शामिल करने के लिए किया जाता है।

मौसमी विश्लेषण में प्रयोग:

कई आर्थिक समय-श्रृंखलाएँ, जैसे खुदरा बिक्री, पर्यटन, या ऊर्जा की खपत, एक नियमित मौसमी पैटर्न प्रदर्शित करती हैं। उदाहरण के लिए, सर्दियों में हीटर की बिक्री बढ़ जाती है, और गर्मियों में एयर कंडीशनर की। मौसमी विश्लेषण में, तदर्थ चरों का उपयोग इन मौसमी उतार-चढ़ाव को मापने और उन्हें मॉडल से हटाने के लिए किया जाता है ताकि अंतर्निहित प्रवृत्ति का बेहतर विश्लेषण किया जा सके।

उदाहरण: त्रैमासिक बिक्री डेटा

मान लीजिए कि हम एक कंपनी की त्रैमासिक बिक्री (Quarterly Sales) का विश्लेषण करना चाहते हैं। वर्ष में चार तिमाहियाँ होती हैं। हम मौसमी प्रभाव को पकड़ने के लिए तदर्थ चर बना सकते हैं।

नियम यह है कि यदि `m` श्रेणियां (यहाँ, 4 तिमाहियाँ) हैं, तो हम dummy variable trap से बचने के लिए `m-1` तदर्थ चरों का उपयोग करते हैं। हम एक तिमाही को आधार या संदर्भ श्रेणी (base category) के रूप में चुनते हैं। मान लीजिए हम चौथी तिमाही (Q4) को आधार के रूप में चुनते हैं। हम तीन तदर्थ चर परिभाषित करेंगे:

  • `Q₁ = 1` यदि अवलोकन पहली तिमाही से है, अन्यथा `0`।
  • `Q₂ = 1` यदि अवलोकन दूसरी तिमाही से है, अन्यथा `0`।
  • `Q₃ = 1` यदि अवलोकन तीसरी तिमाही से है, अन्यथा `0`।

जब `Q₁=Q₂=Q₃=0` होता है, तो यह चौथी तिमाही को दर्शाता है।

प्रतीपगमन मॉडल इस प्रकार होगा:

`Sales_t = β₀ + δ₁Q₁_t + δ₂Q₂_t + δ₃Q₃_t + β₁X_t + u_t`

जहाँ `X_t` कोई अन्य व्याख्यात्मक चर (जैसे विज्ञापन व्यय) हो सकता है।

गुणांकों की व्याख्या:

  • `β₀`: यह इंटरसेप्ट पद है। यह आधार श्रेणी, यानी चौथी तिमाही में औसत बिक्री का प्रतिनिधित्व करता है (जब `Q₁=Q₂=Q₃=0` और `X_t=0`)।
  • `δ₁`: यह पहली तिमाही में औसत बिक्री और चौथी तिमाही में औसत बिक्री के बीच का अंतर है, अन्य सभी चरों को स्थिर रखते हुए।
  • `δ₂`: यह दूसरी तिमाही में औसत बिक्री और चौथी तिमाही में औसत बिक्री के बीच का अंतर है।
  • `δ₃`: यह तीसरी तिमाही में औसत बिक्री और चौथी तिमाही में औसत बिक्री के बीच का अंतर है।

यदि `δ₁` का गुणांक सकारात्मक और सांख्यिकीय रूप से महत्वपूर्ण है, तो इसका मतलब है कि पहली तिमाही में बिक्री औसतन चौथी तिमाही की तुलना में अधिक होती है। इस प्रकार, तदर्थ चर हमें प्रत्येक मौसम के विशिष्ट प्रभाव को संख्यात्मक रूप से मापने की अनुमति देते हैं।

Q6. अनुमानन की न्यूनतम वर्ग विधि पर चर्चा कीजिए।

Ans.

न्यूनतम वर्ग विधि (Least-Squares Method) , जिसे आमतौर पर साधारण न्यूनतम वर्ग (Ordinary Least Squares – OLS) के रूप में जाना जाता है, अर्थमिति में एक प्रतीपगमन मॉडल के मापदंडों का अनुमान लगाने के लिए सबसे व्यापक रूप से उपयोग की जाने वाली विधि है। इसका मुख्य उद्देश्य एक “सर्वश्रेष्ठ फिट” (best fit) वाली रेखा खोजना है जो दिए गए डेटा बिंदुओं के एक सेट से होकर गुजरती है।

मूल सिद्धांत:

न्यूनतम वर्ग विधि का सिद्धांत अवशिष्टों के वर्गों के योग (Sum of Squared Residuals – SSR) को न्यूनतम करना है। एक अवशिष्ट (residual) आश्रित चर के प्रेक्षित मान (`Y_i`) और मॉडल द्वारा अनुमानित मान (`Ŷ_i`) के बीच का अंतर है।

अवशिष्ट, `e_i = Y_i – Ŷ_i`

एक सरल रेखीय प्रतीपगमन मॉडल `Y_i = β₀ + β₁X_i + u_i` पर विचार करें। अनुमानित मॉडल `Ŷ_i = β̂₀ + β̂₁X_i` है। OLS का लक्ष्य `β̂₀` और `β̂₁` के उन मानों को खोजना है जो निम्नलिखित को न्यूनतम करते हैं:

`SSR = Σe_i² = Σ(Y_i – Ŷ_i)² = Σ(Y_i – β̂₀ – β̂₁X_i)²`

वर्गों का उपयोग यह सुनिश्चित करता है कि सकारात्मक और नकारात्मक अवशिष्ट एक-दूसरे को रद्द न करें और बड़े अवशिष्टों को अधिक दंडित किया जाता है।

अनुमान प्रक्रिया:

`β̂₀` और `β̂₁` के मान खोजने के लिए, हम कलन (calculus) का उपयोग करते हैं। हम SSR का आंशिक अवकलज (partial derivatives) `β̂₀` और `β̂₁` के संबंध में लेते हैं और उन्हें शून्य के बराबर सेट करते हैं। इससे दो समीकरणों की एक प्रणाली बनती है, जिन्हें सामान्य समीकरण (normal equations) कहा जाता है:

1. `∂(SSR)/∂β̂₀ = -2Σ(Y_i – β̂₀ – β̂₁X_i) = 0`

2. `∂(SSR)/∂β̂₁ = -2Σ(X_i(Y_i – β̂₀ – β̂₁X_i)) = 0`

इन दो समीकरणों को `β̂₀` और `β̂₁` के लिए हल करने पर OLS अनुमानक प्राप्त होते हैं:

`β̂₁ = Σ[(X_i – X̄)(Y_i – Ȳ)] / Σ(X_i – X̄)²`

`β̂₀ = Ȳ – β̂₁X̄`

जहाँ `X̄` और `Ȳ` क्रमशः `X` और `Y` के नमूना माध्य हैं।

गुण:

गॉस-मार्कोव प्रमेय (Gauss-Markov Theorem) के अनुसार, यदि क्लासिकल लीनियर रिग्रेशन मॉडल (CLRM) की धारणाएँ (जैसे रैखिकता, कोई सही बहुरेखीयता नहीं, शून्य सशर्त माध्य, होमोसेडैस्टिसिटी, और कोई स्व-सहसम्बन्ध नहीं) मान्य हैं, तो OLS अनुमानक BLUE (Best Linear Unbiased Estimator) होते हैं। इसका मतलब है कि वे सभी रैखिक और निष्पक्ष अनुमानकों में सबसे कम प्रसरण वाले होते हैं।

Q7. एक द्विचर प्रतीपगमन प्रतिमान में इस अवधारणा की जाँच कीजिए कि चर X और Y के बीच कोई सम्बन्ध नहीं है।

Ans. एक द्विचर प्रतीपगमन प्रतिमान में चर X और Y के बीच संबंध की जांच करने के लिए, हम एक परिकल्पना परीक्षण (hypothesis testing) करते हैं। यह परीक्षण यह निर्धारित करने में मदद करता है कि क्या X और Y के बीच देखा गया संबंध सांख्यिकीय रूप से महत्वपूर्ण है या यह केवल संयोग का परिणाम है।

1. मॉडल और परिकल्पना को परिभाषित करना:

द्विचर प्रतीपगमन प्रतिमान है:

`Y_i = β₀ + β₁X_i + u_i`

यहाँ, `β₁` ढलान गुणांक (slope coefficient) है, जो Y में परिवर्तन को मापता है जब X में एक इकाई का परिवर्तन होता है। X और Y के बीच कोई संबंध न होने की अवधारणा का अर्थ है कि `β₁` शून्य के बराबर है।

इसलिए, हम निम्नलिखित परिकल्पनाएँ स्थापित करते हैं:

  • शून्य परिकल्पना (Null Hypothesis), H₀: `β₁ = 0` (X और Y के बीच कोई रैखिक संबंध नहीं है)।
  • वैकल्पिक परिकल्पना (Alternative Hypothesis), H₁: `β₁ ≠ 0` (X और Y के बीच एक रैखिक संबंध है)।

यह एक द्विपक्षीय (two-tailed) परीक्षण है क्योंकि हम इस बात में रुचि रखते हैं कि `β₁` शून्य से किसी भी दिशा (सकारात्मक या नकारात्मक) में भिन्न है या नहीं।

2. परीक्षण प्रक्रिया (t-टेस्ट):

इस परिकल्पना का परीक्षण करने के लिए मानक विधि t-टेस्ट का उपयोग करना है।

  • चरण 1: मॉडल का अनुमान लगाएं: साधारण न्यूनतम वर्ग (OLS) का उपयोग करके मॉडल का अनुमान लगाएं ताकि `β̂₁` ( `β₁` का अनुमान) और इसकी मानक त्रुटि `se(β̂₁)` प्राप्त हो सके। मानक त्रुटि `β̂₁` की सटीकता का एक माप है।
  • चरण 2: t-सांख्यिकी की गणना करें: परीक्षण सांख्यिकी, जिसे t-मान कहा जाता है, की गणना इस प्रकार की जाती है: `t = (β̂₁ – 0) / se(β̂₁)` यह मान हमें बताता है कि अनुमानित गुणांक `β̂₁` शून्य से कितनी मानक त्रुटियाँ दूर है।
  • चरण 3: निर्णय नियम स्थापित करें:
    • महत्वपूर्ण मान दृष्टिकोण (Critical Value Approach): एक सार्थकता स्तर (significance level) चुनें, जिसे आमतौर पर α (जैसे, 5% या 0.05) कहा जाता है। `n-2` स्वतंत्रता की डिग्री (degrees of freedom) के साथ t-वितरण तालिका से महत्वपूर्ण t-मान (`t_crit`) देखें (`n` प्रेक्षणों की संख्या है)। यदि `|t| > t_crit`, तो हम शून्य परिकल्पना को अस्वीकार करते हैं।
    • p-मान दृष्टिकोण (p-value Approach): परिकलित t-सांख्यिकी से संबंधित p-मान की गणना करें। p-मान शून्य परिकल्पना के सत्य होने पर हमारे देखे गए परिणाम के जितना चरम परिणाम प्राप्त करने की प्रायिकता है। यदि `p-मान < α` है, तो हम शून्य परिकल्पना को अस्वीकार करते हैं।

3. निष्कर्ष:

यदि हम शून्य परिकल्पना `H₀: β₁ = 0` को अस्वीकार करते हैं, तो हम यह निष्कर्ष निकालते हैं कि एक सांख्यिकीय रूप से महत्वपूर्ण संबंध चर X और Y के बीच मौजूद है। यदि हम `H₀` को अस्वीकार करने में विफल रहते हैं, तो हम यह निष्कर्ष निकालते हैं कि X और Y के बीच एक महत्वपूर्ण रैखिक संबंध का समर्थन करने के लिए पर्याप्त सबूत नहीं हैं।

Q8. सामान्यीकृत न्यूनतम वर्ग विधि क्या है? इस GLS विधि की अनुमानन प्रक्रिया का वर्णन कीजिए।

Ans.

सामान्यीकृत न्यूनतम वर्ग (Generalized Least Squares – GLS) विधि एक अनुमान तकनीक है जो साधारण न्यूनतम वर्ग (OLS) का विस्तार है। इसका उपयोग तब किया जाता है जब प्रतीपगमन मॉडल के त्रुटि पद क्लासिकल लीनियर रिग्रेशन मॉडल (CLRM) की दो प्रमुख धारणाओं का उल्लंघन करते हैं: होमोसेडैस्टिसिटी (homoscedasticity) और कोई स्व-सहसम्बन्ध (no autocorrelation) नहीं।

जब त्रुटियों में विषमलैंगिकता (heteroscedasticity – प्रसरण स्थिर नहीं है) या स्व-सहसम्बन्ध (त्रुटियाँ समय के साथ सहसंबद्ध हैं) होती है, तो OLS अनुमानक अभी भी निष्पक्ष और सुसंगत होते हैं, लेकिन वे अब BLUE (Best Linear Unbiased Estimator) नहीं रहते हैं, जिसका अर्थ है कि वे सबसे कुशल नहीं हैं (न्यूनतम प्रसरण नहीं है)। GLS इस समस्या का समाधान करता है और BLUE अनुमानक प्रदान करता है।

GLS विधि का मूल विचार:

GLS का मूल विचार मूल मॉडल को एक ऐसे नए, रूपांतरित मॉडल में बदलना है जिसकी त्रुटियाँ CLRM की धारणाओं को पूरा करती हैं। फिर, इस रूपांतरित मॉडल पर OLS लागू किया जाता है। रूपांतरित मॉडल पर OLS लागू करना मूल मॉडल पर GLS लागू करने के बराबर है।

GLS की अनुमानन प्रक्रिया:

मैट्रिक्स रूप में मूल रैखिक मॉडल पर विचार करें:

`Y = Xβ + u`

CLRM के तहत, त्रुटि सहप्रसरण मैट्रिक्स `E(uu’) = σ²I` होता है, जहाँ `I` पहचान मैट्रिक्स है। विषमलैंगिकता या स्व-सहसम्बन्ध की उपस्थिति में, यह मैट्रिक्स `E(uu’) = Ω` हो जाता है, जहाँ `Ω` एक `n x n` मैट्रिक्स है जो अब `σ²I` के बराबर नहीं है।

GLS अनुमान प्रक्रिया में निम्नलिखित चरण शामिल हैं:

  1. त्रुटि सहप्रसरण मैट्रिक्स (Ω) को जानना: GLS प्रक्रिया के लिए `Ω` की संरचना का ज्ञान आवश्यक है।
  2. रूपांतरण मैट्रिक्स (P) का पता लगाना: एक `n x n` गैर-एकल (non-singular) मैट्रिक्स `P` खोजें जैसे कि रूपांतरित त्रुटि पद `u = Pu` में एक अदिश सहप्रसरण मैट्रिक्स `E(u u*’) = σ²I` हो। यह मैट्रिक्स `P` इस प्रकार चुना जाता है कि `PΩP’ = σ²I`। अक्सर, `P` को इस तरह चुना जाता है कि `Ω⁻¹ = P’P`।
  3. मॉडल का रूपांतरण: मूल मॉडल `Y = Xβ + u` के दोनों पक्षों को `P` से गुणा करें: `PY = PXβ + Pu` इसे `Y = X β + u ` के रूप में लिखा जा सकता है, जहाँ `Y = PY`, `X = PX`, और `u = Pu` रूपांतरित चर हैं।
  4. रूपांतरित मॉडल पर OLS लागू करना: अब, रूपांतरित मॉडल `Y = X β + u*` CLRM की धारणाओं को संतुष्ट करता है। इसलिए, हम इस पर OLS लागू कर सकते हैं। `β` के लिए GLS अनुमानक है: `β̂_GLS = (X ‘X )⁻¹X ‘Y ` `X ` और `Y ` के लिए व्यंजकों को प्रतिस्थापित करने पर, हमें मिलता है: `β̂_GLS = ((PX)'(PX))⁻¹(PX)'(PY)` `β̂_GLS = (X’P’PX)⁻¹X’P’PY` चूंकि `P’P = Ω⁻¹`, अंतिम सूत्र है: `β̂_GLS = (X’Ω⁻¹X)⁻¹X’Ω⁻¹Y`

व्यवहार में, `Ω` शायद ही कभी ज्ञात होता है। जब `Ω` अज्ञात होता है, तो इसका अनुमान डेटा से लगाया जाता है, और इस प्रक्रिया को व्यवहार्य सामान्यीकृत न्यूनतम वर्ग (Feasible GLS – FGLS) कहा जाता है।

Q9. द्विसोपानी न्यूनतम वर्ग विधि पर चर्चा कीजिए और उसके प्रथम एवं द्वितीय सोपान की सविस्तार व्याख्या कीजिए।

Ans.

द्विसोपानी न्यूनतम वर्ग (Two-Stage Least Squares – 2SLS) विधि एक युगपद समीकरण मॉडल में एकल समीकरण का अनुमान लगाने के लिए एक महत्वपूर्ण तकनीक है। यह एक प्रकार की तदर्थ चर (instrumental variable) अनुमानन विधि है जिसका उपयोग तब किया जाता है जब एक या अधिक व्याख्यात्मक चर अंतर्जात (endogenous) होते हैं, यानी, वे त्रुटि पद के साथ सहसंबद्ध होते हैं। यह युगपदता अभिनति (simultaneity bias) की समस्या का समाधान करता है, जो OLS को ऐसे समीकरणों पर लागू करने पर उत्पन्न होती है।

जैसा कि नाम से पता चलता है, 2SLS प्रक्रिया में दो चरण शामिल होते हैं। इसका मूल विचार अंतर्जात व्याख्यात्मक चर को उसके “शुद्ध” या अनुमानित संस्करण से बदलना है जो त्रुटि पद के साथ सहसंबद्ध नहीं है।

मान लीजिए हम निम्नलिखित संरचनात्मक समीकरण का अनुमान लगाना चाहते हैं:

`Y₁ = β₀ + β₁Y₂ + β₂Z₁ + u₁`

यहाँ, `Y₁` और `Y₂` अंतर्जात चर हैं, और `Z₁` एक बहिर्जात (exogenous) चर है। चूँकि `Y₂` अंतर्जात है, यह `u₁` के साथ सहसंबद्ध है, जिससे OLS अनुमानक पक्षपाती हो जाते हैं। हमें `Y₂` के लिए एक तदर्थ चर की आवश्यकता है। 2SLS इस तदर्थ चर को बनाने के लिए एक व्यवस्थित तरीका प्रदान करता है।

प्रथम सोपान (Stage 1):

प्रथम सोपान का उद्देश्य अंतर्जात व्याख्यात्मक चर (`Y₂`) के उस हिस्से को अलग करना है जो प्रणाली में सभी बहिर्जात चरों से संबंधित है।

  1. पहचान: प्रणाली में सभी पूर्व-निर्धारित (predetermined) चरों की पहचान करें। इनमें प्रणाली में सभी बहिर्जात चर (हमारे समीकरण में `Z₁` और अन्य समीकरणों में कोई अन्य `Z`) शामिल हैं। मान लीजिए प्रणाली में एक और बहिर्जात चर `Z₂` है।
  2. समानीत-रूप प्रतीपगमन (Reduced-Form Regression): अंतर्जात व्याख्यात्मक चर (`Y₂`) को प्रणाली के सभी बहिर्जात चरों (`Z₁` और `Z₂`) पर रिग्रेस करें। `Y₂ = π₀ + π₁Z₁ + π₂Z₂ + v` यह `Y₂` के लिए समानीत-रूप समीकरण है। OLS का उपयोग करके इस समीकरण का अनुमान लगाएं।
  3. अनुमानित मान प्राप्त करें: इस प्रतीपगमन से `Y₂` के अनुमानित मान (`Ŷ₂`) प्राप्त करें: `Ŷ₂ = π̂₀ + π̂₁Z₁ + π̂₂Z₂` यह `Ŷ₂` अब `Y₂` के लिए एक तदर्थ चर के रूप में काम करेगा। यह `Y₂` के साथ सहसंबद्ध है (क्योंकि यह `Y₂` की व्याख्या करता है) और यह संरचनात्मक त्रुटि `u₁` से असंबद्ध है (क्योंकि यह केवल बहिर्जात चरों का एक रैखिक संयोजन है)।

द्वितीय सोपान (Stage 2):

द्वितीय सोपान में, हम अनुमानित संरचनात्मक समीकरण पर लौटते हैं, लेकिन समस्याग्रस्त अंतर्जात चर को उसके प्रथम-सोपान के अनुमानित मान से बदल देते हैं।

  1. प्रतिस्थापन: मूल संरचनात्मक समीकरण में, अंतर्जात चर `Y₂` को उसके अनुमानित मान `Ŷ₂` से प्रतिस्थापित करें। `Y₁ = β₀ + β₁Ŷ₂ + β₂Z₁ + u₁`
  2. OLS अनुमानन: इस संशोधित समीकरण का अनुमान लगाने के लिए OLS का उपयोग करें।

इस दूसरे चरण के प्रतीपगमन से प्राप्त गुणांक (`β̂₀`, `β̂₁`, `β̂₂`) 2SLS अनुमानक हैं। ये अनुमानक सुसंगत (consistent) होते हैं। यह ध्यान रखना महत्वपूर्ण है कि यद्यपि हम दूसरे चरण में OLS का उपयोग करते हैं, मानक त्रुटियों की गणना मानक OLS प्रक्रिया से भिन्न तरीके से की जानी चाहिए, क्योंकि `Ŷ₂` का उपयोग अनिश्चितता का एक अतिरिक्त स्रोत प्रस्तुत करता है। हालांकि, अधिकांश सांख्यिकीय सॉफ्टवेयर पैकेज स्वचालित रूप से सही 2SLS मानक त्रुटियों की गणना करते हैं।

Q10. निम्नलिखित संकल्पनाओं की व्याख्या कीजिए : (a) कटक प्रतीपगमन (b) बहुकारक विश्लेषण (c) मैनोवा (MANOVA) (d) शास्त्रीय प्रतीपगमन विश्लेषण

Ans.

(a) कटक प्रतीपगमन (Ridge Regression):

कटक प्रतीपगमन एक ऐसी तकनीक है जिसका उपयोग तब किया जाता है जब व्याख्यात्मक चरों के बीच उच्च स्तर की बहुरेखीयता (multicollinearity) होती है। बहुरेखीयता की स्थिति में, साधारण न्यूनतम वर्ग (OLS) अनुमानकों का प्रसरण बहुत बड़ा हो जाता है, जिससे वे अविश्वसनीय और नमूना डेटा में छोटे बदलावों के प्रति बहुत संवेदनशील हो जाते हैं। कटक प्रतीपगमन अनुमानों में थोड़ी मात्रा में अभिनति (bias) जोड़कर इस समस्या का समाधान करता है, जिसके बदले में प्रसरण में बड़ी कमी आती है। यह अवशिष्टों के वर्गों के योग (SSR) को न्यूनतम करने के बजाय, SSR और गुणांकों के वर्गों के योग के बीच एक समझौता करता है:

न्यूनतम करें: `Σ(Y_i – Ŷ_i)² + λΣβ_j²`

यहाँ, `λ` (लैम्ब्डा) एक ट्यूनिंग पैरामीटर है। जब `λ = 0`, तो कटक प्रतीपगमन OLS के बराबर होता है। जैसे-जैसे `λ` बढ़ता है, गुणांक शून्य की ओर सिकुड़ते हैं, जिससे अभिनति बढ़ती है लेकिन प्रसरण घटता है।

(b) बहुकारक विश्लेषण (Multiple Factor Analysis – MFA):

बहुकारक विश्लेषण एक बहुभिन्नरूपी सांख्यिकीय तकनीक है जिसका उपयोग डेटा तालिकाओं का विश्लेषण करने के लिए किया जाता है जिसमें व्यक्तियों या अवलोकनों को चरों के कई सेटों द्वारा वर्णित किया जाता है। ये चर सेट मात्रात्मक, गुणात्मक या मिश्रित हो सकते हैं। MFA, मुख्य घटक विश्लेषण (PCA) और बहु पत्राचार विश्लेषण (MCA) का एक विस्तार है। इसका मुख्य लक्ष्य विभिन्न चर सेटों के प्रभाव को संतुलित करना है (ताकि अधिक चरों वाला सेट विश्लेषण पर हावी न हो) और व्यक्तियों, चरों और चर सेटों के बीच संबंधों का अध्ययन करने के लिए एक सामान्य ढांचा प्रदान करना है। यह व्यक्तियों और चरों के बीच संबंधों की एक एकीकृत तस्वीर और ग्राफिकल प्रतिनिधित्व प्रदान करता है।

(c) मैनोवा (MANOVA – Multivariate Analysis of Variance):

MANOVA, या बहुभिन्नरूपी प्रसरण विश्लेषण, विचरण के विश्लेषण (ANOVA) का एक विस्तार है। इसका उपयोग तब किया जाता है जब एक या एक से अधिक स्वतंत्र चरों (जो आमतौर पर श्रेणीबद्ध होते हैं) के विभिन्न समूहों में दो या दो से अधिक निरंतर आश्रित चरों के साधनों (means) में सांख्यिकीय रूप से महत्वपूर्ण अंतर होते हैं या नहीं, यह परीक्षण करने के लिए किया जाता है। जबकि ANOVA केवल एक आश्रित चर के साथ काम करता है, MANOVA एक साथ कई आश्रित चरों पर प्रभाव का परीक्षण करता है। यह परीक्षण करता है कि क्या स्वतंत्र चर आश्रित चरों के संयोजन को समग्र रूप से प्रभावित करते हैं। इसका एक फायदा यह है कि यह आश्रित चरों के बीच सहसंबंध को ध्यान में रखता है।

(d) शास्त्रीय सहसंबंध विश्लेषण (Canonical Correlation Analysis – CCA):

शास्त्रीय सहसंबंध विश्लेषण एक बहुभिन्नरूपी सांख्यिकीय तकनीक है जिसका उपयोग चरों के दो सेटों के बीच संबंधों का अध्ययन करने के लिए किया जाता है। मान लीजिए आपके पास चरों का एक सेट X (`X₁`, `X₂`, …) और चरों का दूसरा सेट Y (`Y₁`, `Y₂`, …) है। CCA, X चरों का एक रैखिक संयोजन (जिसे शास्त्रीय चर कहा जाता है) और Y चरों का एक रैखिक संयोजन पाता है जो एक दूसरे के साथ अधिकतम सहसंबद्ध होते हैं। इन दो रैखिक संयोजनों के बीच के सहसंबंध को पहला शास्त्रीय सहसंबंध कहा जाता है। फिर यह पहले जोड़े से असंबद्ध दूसरे जोड़े को ढूंढता है जिसमें अगले उच्चतम सहसंबंध होते हैं, और इसी तरह। CCA यह समझने में मदद करता है कि चरों का एक सेट दूसरे सेट के साथ कैसे संबंधित है।

(नोट: प्रश्न में “शास्त्रीय प्रतीपगमन विश्लेषण” लिखा है, लेकिन संभवतः यह “शास्त्रीय सहसंबंध विश्लेषण” का गलत अनुवाद है, क्योंकि यह अन्य बहुभिन्नरूपी तकनीकों के साथ सूचीबद्ध है। उत्तर CCA के लिए प्रदान किया गया है।)

Q11. कारक विश्लेषण के संदर्भ में ‘कारक’ का क्या अभिप्राय होता है? कारक विश्लेषण में शामिल निम्नलिखित तीन आधारिक आव्यूहों का चित्रांकन कीजिए : (i) आदान डेटा आव्यूह (ii) सहसम्बन्ध आव्यूह (iii) कारक आव्यूह

Ans.

कारक विश्लेषण में ‘कारक’ का अभिप्राय:

कारक विश्लेषण (Factor Analysis) के संदर्भ में, एक ‘कारक’ (Factor) एक अप्रत्यक्ष, अव्यक्त (latent) चर होता है जिसे कई प्रत्यक्ष, प्रेक्षित (observed) चरों के बीच सहसंबंधों के अंतर्निहित पैटर्न या संरचना को समझाने वाला माना जाता है। यह एक मौलिक निर्माण या आयाम है जिसे सीधे मापा नहीं जा सकता है, लेकिन यह माना जाता है कि यह प्रेक्षित चरों में भिन्नता का कारण बनता है।

उदाहरण के लिए, हम छात्रों के प्रदर्शन को विभिन्न विषयों जैसे ‘गणित’, ‘भौतिकी’, और ‘तर्क’ में माप सकते हैं। कारक विश्लेषण यह प्रकट कर सकता है कि इन सभी प्रेक्षित चरों के स्कोर एक एकल अंतर्निहित ‘कारक’ द्वारा दृढ़ता से प्रभावित होते हैं, जिसे हम ‘मात्रात्मक योग्यता’ कह सकते हैं। इस प्रकार, कारक विश्लेषण का लक्ष्य डेटा की आयामीता को कम करना है, यानी, बड़ी संख्या में संबंधित चरों को कुछ अंतर्निहित कारकों के संदर्भ में सारांशित करना।

कारक विश्लेषण में तीन आधारिक आव्यूह (Matrices):

(i) आदान डेटा आव्यूह (Input Data Matrix):

यह कच्चा डेटा है। यह एक आयताकार आव्यूह (`N x p`) होता है, जहाँ पंक्तियाँ व्यक्तिगत अवलोकनों या मामलों (`N`) का प्रतिनिधित्व करती हैं और स्तंभ प्रेक्षित चरों (`p`) का प्रतिनिधित्व करते हैं। सेल `(i, j)` में `i`-वें मामले का `j`-वें चर पर स्कोर होता है।

चित्रांकन:

चर 1 चर 2 … चर p केस 1 [ X₁₁ X₁₂ … X₁p ] केस 2 [ X₂₁ X₂₂ … X₂p ] . [ . . . ] . [ . . . ] केस N [ XN₁ XN₂ … XNp ]

(ii) सहसम्बन्ध आव्यूह (Correlation Matrix – R):

यह एक वर्गाकार, सममित आव्यूह (`p x p`) होता है जो सभी प्रेक्षित चरों के हर संभव जोड़े के बीच पियर्सन सहसंबंध गुणांक को दर्शाता है। पंक्तियाँ और स्तंभ दोनों ही चरों का प्रतिनिधित्व करते हैं। विकर्ण (diagonal) पर स्थित सभी मान 1 होते हैं, क्योंकि एक चर का स्वयं के साथ सहसंबंध 1 होता है। सेल `(i, j)` में चर `i` और चर `j` के बीच सहसंबंध `r_ij` होता है। चूँकि `r_ij = r_ji`, आव्यूह विकर्ण के परितः सममित होता है। कारक विश्लेषण इसी आव्यूह में पैटर्न की तलाश करता है।

चित्रांकन:

चर 1 चर 2 … चर p चर 1 [ 1 r₁₂ … r₁p ] चर 2 [ r₂₁ 1 … r₂p ] . [ . . . ] . [ . . . ] चर p [ rp₁ rp₂ … 1 ]

(iii) कारक आव्यूह (Factor Matrix – A):

इसे कारक लोडिंग आव्यूह (Factor Loading Matrix) भी कहा जाता है। यह एक आयताकार आव्यूह (`p x k`) है, जहाँ `p` प्रेक्षित चरों की संख्या है और `k` निकाले गए कारकों की संख्या है (`k < p`)। पंक्तियाँ चरों का प्रतिनिधित्व करती हैं और स्तंभ कारकों का प्रतिनिधित्व करते हैं। सेल `(i, j)` में मान `a_ij` होता है, जिसे ‘फैक्टर लोडिंग’ कहा जाता है। यह प्रेक्षित चर `i` और अव्यक्त कारक `j` के बीच सहसंबंध का प्रतिनिधित्व करता है। एक उच्च लोडिंग (1 या -1 के करीब) इंगित करता है कि चर उस कारक का एक मजबूत संकेतक है।

चित्रांकन:

कारक 1 कारक 2 … कारक k चर 1 [ a₁₁ a₁₂ … a₁k ] चर 2 [ a₂₁ a₂₂ … a₂k ] . [ . . . ] . [ . . . ] चर p [ ap₁ ap₂ … apk ]

IGNOU MECE-001 Previous Year Solved Question Paper in English

Q1. What do you mean by autocorrelation? Explain how to detect autocorrelation in a regression model. What are the remedial measures for autocorrelation?

Ans. Meaning of Autocorrelation: Autocorrelation, also known as serial correlation , is a condition typically occurring in time-series data. It refers to the correlation between the error terms of a regression model across different observations. A key assumption of the Classical Linear Regression Model (CLRM) is that the error terms are independent of each other, i.e., `Cov(u_i, u_j) = 0` for `i ≠ j`. When this assumption is violated, the problem of autocorrelation arises. In positive autocorrelation , a positive (or negative) error in one period is likely to be followed by a positive (or negative) error in the next. In negative autocorrelation , a positive error is likely to be followed by a negative error, and vice-versa. In the presence of autocorrelation, the OLS estimators are still unbiased and consistent, but they are no longer BLUE (Best Linear Unbiased Estimator). The standard errors are biased, rendering the t-statistics and F-statistics unreliable, and hypothesis testing can lead to incorrect conclusions. Detection of Autocorrelation: There are several methods to detect autocorrelation:

  • Graphical Method: This is the simplest approach. It involves plotting the residuals against time. If the plot shows a systematic pattern (e.g., a wave-like pattern), it is a sign of autocorrelation. If the residuals appear completely random, autocorrelation is unlikely.
  • Durbin-Watson (d) Test: This is the most famous test for first-order autocorrelation. The d-statistic is calculated and compared to two critical values, `dL` (lower bound) and `dU` (upper bound).
    • If `d < dL`, there is evidence of positive autocorrelation.
    • If `d > 4 – dL`, there is evidence of negative autocorrelation.
    • If `dU < d < 4 – dU`, there is no autocorrelation.
    • If `dL ≤ d ≤ dU` or `4 – dU ≤ d ≤ 4 – dL`, the test is inconclusive.
  • Breusch-Godfrey (BG) Test: This is a more general test (an LM test) that can detect higher-order autocorrelation and is also applicable to models with lagged dependent variables, where the d-test is invalid. It involves regressing the residuals on the lagged residuals and the original explanatory variables.


Remedial Measures:

If autocorrelation is detected, the following measures can be taken:

  1. Generalized Least Squares (GLS): If the autocorrelation structure (e.g., the correlation coefficient ρ) is known, GLS can provide BLUE estimators. In practice, ρ is unknown, so Feasible Generalized Least Squares (FGLS) is used, such as the Cochrane-Orcutt or Prais-Winsten procedures, which involve estimating ρ.
  2. Newey-West Standard Errors: This method does not change the OLS coefficient estimates but adjusts the standard errors to make them robust to autocorrelation (and often heteroscedasticity). This allows for valid hypothesis testing even if autocorrelation is present in the model.
  3. Re-specify the Model: Sometimes, autocorrelation is a symptom of model misspecification. For example, a significant explanatory variable might have been omitted, or the functional form might be incorrect. Including the missing variables or changing the functional form might solve the autocorrelation problem.

Q2. What do you mean by instrumental variables? Describe instrumental variable method and state why OLS estimation technique is a special case of it.

Ans. Meaning of Instrumental Variables (IV): In econometrics, an instrumental variable (IV) is a third variable used when an explanatory variable in a regression model is correlated with the error term. This problem is known as endogeneity. A valid instrument, Z, for an endogenous explanatory variable, X, must satisfy two conditions:

  1. The Relevance Condition: The instrument must be correlated with the endogenous variable. Mathematically, `Cov(Z, X) ≠ 0`. This means Z must have some power in explaining the variation in X.
  2. The Exogeneity Condition: The instrument must be uncorrelated with the regression’s error term. Mathematically, `Cov(Z, u) = 0`. This means that Z should not have any direct effect on Y, except through its effect on X.

In essence, a good instrument affects the outcome Y only indirectly, through the endogenous variable X.


Description of the Instrumental Variable (IV) Method:

The IV estimation method aims to obtain consistent estimators in the presence of endogeneity. Ordinary Least Squares (OLS) produces biased and inconsistent estimators in such cases. The most common IV method is

Two-Stage Least Squares (2SLS)

:

Suppose the model is: `Y = β₀ + β₁X + β₂W + u`, where X is endogenous and W is exogenous.

  • Stage 1: Regress the endogenous variable X on all exogenous variables (the instrument Z and any other exogenous variables in the model, W). `X = π₀ + π₁Z + π₂W + v` Obtain the predicted values (`X̂`) from this regression. This `X̂` is the part of X that is explained by the exogenous variables and is therefore uncorrelated with the error term `u`.
  • Stage 2: In the original structural equation, replace the endogenous variable X with its predicted value `X̂` and run the regression using OLS. `Y = β₀ + β₁X̂ + β₂W + u` The coefficient `β₁` obtained from this second-stage regression is the consistent IV estimator of `β₁`.


Why OLS is a Special Case of IV:

The OLS estimation technique can be considered a special case of the instrumental variable method. This occurs in the situation where all the explanatory variables in the model are

exogenous

, i.e., they are not correlated with the error term.

When an explanatory variable X is exogenous (`Cov(X, u) = 0`), it can serve as a perfect instrumental variable for itself. It satisfies both conditions:

1.

Relevance:

X is perfectly correlated with itself (`Cov(X, X) = Var(X) ≠ 0`).

2.

Exogeneity:

X is uncorrelated with the error term (this is our assumption).

Therefore, if we use X as an instrument for itself, the IV estimator becomes identical to the OLS estimator. The formula for the IV estimator is `β₁_IV = Cov(Z,Y)/Cov(Z,X)`. If we substitute `Z = X`, this becomes `Cov(X,Y)/Cov(X,X) = Cov(X,Y)/Var(X)`, which is the exact formula for the OLS estimator in a simple regression. Thus, when there is no endogeneity, the IV procedure collapses to the OLS procedure.

Q3. Define regression model with lags. Discuss the following models: (a) The Koyck model (b) Autoregressive models

Ans. Regression Model with Lags (Distributed Lag Models): A regression model with lags, or a distributed-lag model, is one in which the effect of an explanatory variable (X) on a dependent variable (Y) is spread over time. In other words, a change in X does not affect Y immediately and fully; rather, its impact is distributed across several future periods. The general form of a distributed-lag model is: `Yt = α + β₀Xt + β₁Xt-₁ + β₂Xt-₂ + … + ut` Here, `β₀` is the impact multiplier, measuring the immediate effect of a unit change in Xt on Yt. The `βk` (for k>0) are the lag coefficients measuring the effect of `Xt-k` on Yt. The total effect is given by `Σβk`. (a) The Koyck Model: The Koyck model is a specific type of infinite distributed-lag model. It makes a simplifying assumption that the lag coefficients (`βk`) decline geometrically. This means the impact of recent periods is stronger than that of distant periods, and this impact decays at a constant rate. Assumption: `βk = β₀λ^k`, where `k = 0, 1, 2, …` and `0 < λ < 1`. `λ` is the rate of decay. Substituting this assumption into the general model gives: `Yt = α + β₀(Xt + λXt-₁ + λ²Xt-₂ + …) + ut` (1) This model is difficult to estimate because it has an infinite number of terms. Koyck proposed a transformation to simplify it. Lag equation (1) by one period and multiply by `λ`: `λYt-₁ = λα + β₀(λXt-₁ + λ²Xt-₂ + …) + λut-₁` (2) Subtracting equation (2) from equation (1), we get the Koyck transformed model: `Yt = α(1-λ) + β₀Xt + λYt-₁ + (ut – λut-₁)` This model is much easier to estimate as it has only three coefficients. However, a new problem arises: the new error term `vt = (ut – λut-₁)` is correlated with the lagged dependent variable `Yt-₁`. This makes OLS estimators biased and inconsistent. Therefore, techniques like Instrumental Variables are needed to estimate this model. (b) Autoregressive Models: An autoregressive model is one in which the dependent variable is regressed on its own past values (lags). A pure autoregressive model (AR model) has the form: `Yt = α + γ₁Yt-₁ + γ₂Yt-₂ + … + γpYt-p + ut` This is an AR(p) model, where `p` is the number of lags. More common in econometrics is the Autoregressive Distributed Lag (ARDL) model. This model includes both lags of the dependent variable and the current and past values of one or more explanatory variables. An ARDL(p, q) model has the form: `Yt = α + Σ(βi Xt-i) [for i=0 to q] + Σ(γj Yt-j) [for j=1 to p] + ut` ARDL models are very flexible and widely used for modeling dynamic relationships between economic variables. The Koyck model can be seen as a restricted form of an ARDL(1,1) model. An advantage of ARDL models is that OLS provides consistent estimators if the error terms `ut` are serially uncorrelated. They are also useful for testing for cointegration and long-run relationships.

Q4. Describe the following terms: (a) Structural equations (b) Reduced-form equations (c) Simultaneity bias

Ans. (a) Structural Equations: Structural equations are the building blocks of a simultaneous equation model. These equations are derived directly from economic theory and describe the underlying behavioral, technological, or institutional relationships among variables within a system. Each equation represents the behavior of an economic agent (e.g., consumer, firm) or an equilibrium condition. A structural equation has at least one endogenous variable as the dependent variable and can include other endogenous variables, predetermined variables (exogenous and lagged endogenous variables), and an error term as explanatory variables. For example, in a simple macroeconomic model: 1. `Ct = β₀ + β₁Yt + ut` (Consumption function) 2. `Yt = Ct + It` (Income identity) Both of these are structural equations. The first describes the behavior of consumers, and the second is an accounting identity defining equilibrium. Here `Ct` and `Yt` are endogenous variables, and `It` (investment) is assumed to be exogenous. (b) Reduced-Form Equations: Reduced-form equations are those that express an endogenous variable solely as a function of the predetermined variables (exogenous and lagged endogenous variables) and the error terms. They are obtained by algebraically solving the structural model to free each endogenous variable from being explained by other endogenous variables. Reduced-form equations do not have a direct behavioral interpretation, but they are useful for forecasting and policy analysis. Since the explanatory variables are all predetermined, they are uncorrelated with the error term, which means reduced-form equations can be estimated by OLS without bias. Using the example above, we can derive the reduced-form equation for Yt: `Yt = (β₀ + β₁Yt + ut) + It` `Yt(1 – β₁) = β₀ + It + ut` `Yt = [β₀/(1-β₁)] + [1/(1-β₁)]It + [1/(1-β₁)]ut` This is the reduced-form equation for `Yt`. It can be written as `Yt = π₁₀ + π₁₁It + vt`. The reduced-form coefficients (`π`’s) are functions of the structural coefficients (`β`’s). (c) Simultaneity Bias: Simultaneity bias is a type of bias that arises when Ordinary Least Squares (OLS) is applied directly to a structural equation in a simultaneous equation system. The bias occurs because one or more of the explanatory variables in the equation are endogenous, meaning they are correlated with the error term. Consider our consumption function `Ct = β₀ + β₁Yt + ut`. In this equation, `Yt` is an explanatory variable, but it is also endogenous. As seen from the reduced-form equation, `Yt` depends on the error term `ut`. Therefore, `Cov(Yt, ut) ≠ 0`. When an explanatory variable is correlated with the error term, a key assumption of OLS is violated. As a result, estimating `β₁` using OLS will yield a biased and inconsistent estimator. This bias does not disappear even as the sample size increases. This is called simultaneity bias . To overcome this problem, estimation methods such as Instrumental Variables (IV) or Two-Stage Least Squares (2SLS) must be used.

Q5. Explain with example the use of dummy variables in seasonal analysis.

Ans. Dummy variables are variables that take only the value 0 or 1. In econometrics, they are used to incorporate qualitative attributes such as gender, religion, or, in time-series data, seasonal effects into a regression model. Use in Seasonal Analysis: Many economic time series, such as retail sales, tourism, or energy consumption, exhibit a regular seasonal pattern. For instance, sales of heaters increase in winter, and air conditioners in summer. In seasonal analysis, dummy variables are used to capture these seasonal fluctuations, measure their effect, and potentially remove them from the model to better analyze the underlying trend. Example: Quarterly Sales Data Suppose we want to analyze the quarterly sales of a company. There are four quarters in a year. We can create dummy variables to capture the seasonal effect. The rule is that if there are `m` categories (here, 4 quarters), we use `m-1` dummy variables to avoid the dummy variable trap . We choose one quarter as the base or reference category. Let’s choose the fourth quarter (Q4) as the base. We will define three dummy variables:

  • `Q₁ = 1` if the observation is from the first quarter, `0` otherwise.
  • `Q₂ = 1` if the observation is from the second quarter, `0` otherwise.
  • `Q₃ = 1` if the observation is from the third quarter, `0` otherwise.

When `Q₁=Q₂=Q₃=0`, it represents the fourth quarter.

The regression model would be:

`Sales_t = β₀ + δ₁Q₁_t + δ₂Q₂_t + δ₃Q₃_t + β₁X_t + u_t`

where `X_t` could be any other explanatory variable (like advertising expenditure).


Interpretation of Coefficients:

  • `β₀`: This is the intercept term. It represents the average sales in the base category, i.e., the fourth quarter (when `Q₁=Q₂=Q₃=0` and `X_t=0`).
  • `δ₁`: This is the differential intercept for the first quarter. It shows the difference between the average sales in the first quarter and the average sales in the fourth quarter, holding all other variables constant.
  • `δ₂`: This is the difference in average sales between the second quarter and the fourth quarter.
  • `δ₃`: This is the difference in average sales between the third quarter and the fourth quarter.

If the coefficient `δ₁` is positive and statistically significant, it means that sales in the first quarter are, on average, higher than in the fourth quarter. Thus, dummy variables allow us to quantify the specific effect of each season.

Q6. Discuss the least-squares method of estimation.

Ans. The least-squares method , commonly known as Ordinary Least Squares (OLS), is the most widely used method for estimating the parameters of a regression model in econometrics. Its primary goal is to find a line of “best fit” that passes through a given set of data points. Basic Principle: The principle of the least-squares method is to minimize the Sum of Squared Residuals (SSR). A residual is the difference between the observed value of the dependent variable (`Y_i`) and the value predicted by the model (`Ŷ_i`). Residual, `e_i = Y_i – Ŷ_i` Consider a simple linear regression model `Y_i = β₀ + β₁X_i + u_i`. The estimated model is `Ŷ_i = β̂₀ + β̂₁X_i`. The objective of OLS is to find the values of `β̂₀` and `β̂₁` that minimize: `SSR = Σe_i² = Σ(Y_i – Ŷ_i)² = Σ(Y_i – β̂₀ – β̂₁X_i)²` The use of squares ensures that positive and negative residuals do not cancel each other out and that larger residuals are penalized more heavily. Estimation Procedure: To find the values of `β̂₀` and `β̂₁`, we use calculus. We take the partial derivatives of SSR with respect to `β̂₀` and `β̂₁` and set them equal to zero. This results in a system of two equations, known as the normal equations : 1. `∂(SSR)/∂β̂₀ = -2Σ(Y_i – β̂₀ – β̂₁X_i) = 0` 2. `∂(SSR)/∂β̂₁ = -2Σ(X_i(Y_i – β̂₀ – β̂₁X_i)) = 0` Solving these two equations for `β̂₀` and `β̂₁` yields the OLS estimators: `β̂₁ = Σ[(X_i – X̄)(Y_i – Ȳ)] / Σ(X_i – X̄)²` `β̂₀ = Ȳ – β̂₁X̄` where `X̄` and `Ȳ` are the sample means of `X` and `Y` respectively. Properties: According to the Gauss-Markov Theorem, if the assumptions of the Classical Linear Regression Model (CLRM) hold (e.g., linearity, no perfect multicollinearity, zero conditional mean, homoscedasticity, and no autocorrelation), then the OLS estimators are BLUE (Best Linear Unbiased Estimator) . This means that among all linear and unbiased estimators, they have the lowest variance.

Q7. Test the hypothesis that there is no relationship between the variables X and Y in a two-variable regression model.

Ans. To test for a relationship between variables X and Y in a two-variable regression model, we perform a hypothesis test. This test helps determine whether the observed relationship between X and Y is statistically significant or if it is merely a result of chance. 1. Define the Model and Hypotheses: The two-variable regression model is: `Y_i = β₀ + β₁X_i + u_i` Here, `β₁` is the slope coefficient, which measures the change in Y for a one-unit change in X. The hypothesis of “no relationship” between X and Y translates to the slope coefficient `β₁` being equal to zero. Therefore, we set up the following hypotheses:

  • Null Hypothesis, H₀: `β₁ = 0` (There is no linear relationship between X and Y).
  • Alternative Hypothesis, H₁: `β₁ ≠ 0` (There is a linear relationship between X and Y).

This is a two-tailed test because we are interested in whether `β₁` is different from zero in either direction (positive or negative).


2. The Test Procedure (t-test):

The standard method to test this hypothesis is by using the

t-test

.

  • Step 1: Estimate the model: Estimate the model using Ordinary Least Squares (OLS) to obtain `β̂₁` (the estimate of `β₁`) and its standard error, `se(β̂₁)`. The standard error is a measure of the precision of `β̂₁`.
  • Step 2: Calculate the t-statistic: The test statistic, called the t-value, is calculated as: `t = (β̂₁ – 0) / se(β̂₁)` This value tells us how many standard errors the estimated coefficient `β̂₁` is away from zero.
  • Step 3: Establish a Decision Rule:
    • Critical Value Approach: Choose a significance level, typically α (e.g., 5% or 0.05). Look up the critical t-value (`t_crit`) from the t-distribution table with `n-2` degrees of freedom (`n` is the number of observations). If `|t| > t_crit`, we reject the null hypothesis.
    • p-value Approach: Calculate the p-value associated with the calculated t-statistic. The p-value is the probability of obtaining a result as extreme as our observed result, given that the null hypothesis is true. If the `p-value < α`, we reject the null hypothesis.


3. Conclusion:

If we reject the null hypothesis `H₀: β₁ = 0`, we conclude that a statistically significant relationship exists between variables X and Y. If we fail to reject `H₀`, we conclude there is not enough evidence to support a significant linear relationship between X and Y.

Q8. What is generalised least squares method? Describe estimation procedure of GLS.

Ans. What is Generalized Least Squares (GLS)? The Generalized Least Squares (GLS) method is an estimation technique that is an extension of Ordinary Least Squares (OLS). It is used when the error terms of a regression model violate two of the key assumptions of the Classical Linear Regression Model (CLRM): homoscedasticity and no autocorrelation . When errors suffer from heteroscedasticity (variance is not constant) or autocorrelation (errors are correlated over time), the OLS estimators, while still unbiased and consistent, are no longer BLUE (Best Linear Unbiased Estimator), meaning they are not the most efficient (do not have the minimum variance). GLS addresses this problem and provides estimators that are BLUE. The Basic Idea of GLS: The core idea of GLS is to transform the original model into a new, transformed model whose errors do satisfy the CLRM assumptions. Then, OLS is applied to this transformed model. Applying OLS to the transformed model is equivalent to applying GLS to the original model. Estimation Procedure of GLS: Consider the linear model in matrix form: `Y = Xβ + u` Under CLRM, the error covariance matrix is `E(uu’) = σ²I`, where `I` is the identity matrix. In the presence of heteroscedasticity or autocorrelation, this matrix becomes `E(uu’) = Ω`, where `Ω` is an `n x n` matrix that is no longer `σ²I`. The GLS estimation procedure involves the following steps:

  1. Knowing the Error Covariance Matrix (Ω): The GLS procedure requires knowledge of the structure of `Ω`.
  2. Finding the Transformation Matrix (P): Find an `n x n` non-singular matrix `P` such that the transformed error term `u = Pu` has a scalar covariance matrix `E(u u*’) = σ²I`. This matrix `P` is chosen such that `PΩP’ = σ²I`. Often, `P` is chosen such that `Ω⁻¹ = P’P`.
  3. Transforming the Model: Pre-multiply both sides of the original model `Y = Xβ + u` by `P`: `PY = PXβ + Pu` This can be written as `Y = X β + u `, where `Y = PY`, `X = PX`, and `u = Pu` are the transformed variables.
  4. Applying OLS to the Transformed Model: Now, the transformed model `Y = X β + u*` satisfies the CLRM assumptions. We can therefore apply OLS to it. The GLS estimator for `β` is: `β̂_GLS = (X ‘X )⁻¹X ‘Y ` Substituting the expressions for `X ` and `Y `, we get: `β̂_GLS = ((PX)'(PX))⁻¹(PX)'(PY)` `β̂_GLS = (X’P’PX)⁻¹X’P’PY` Since `P’P = Ω⁻¹`, the final formula is: `β̂_GLS = (X’Ω⁻¹X)⁻¹X’Ω⁻¹Y`

In practice, `Ω` is rarely known. When `Ω` is unknown, it is estimated from the data, and this procedure is called

Feasible Generalized Least Squares (FGLS)

.

Q9. Discuss two-stage least squares method and provide detailed explanation for stage-1 and stage-2.

Ans. The Two-Stage Least Squares (2SLS) method is a crucial technique for estimating a single equation in a simultaneous equations model. It is a type of instrumental variable estimation method used when one or more explanatory variables are endogenous, i.e., correlated with the error term. It solves the problem of simultaneity bias that arises from applying OLS to such equations. As the name suggests, the 2SLS procedure involves two distinct stages. The basic idea is to replace the problematic endogenous explanatory variable with its “purged” or predicted version that is not correlated with the error term. Suppose we want to estimate the following structural equation: `Y₁ = β₀ + β₁Y₂ + β₂Z₁ + u₁` Here, `Y₁` and `Y₂` are endogenous variables, and `Z₁` is an exogenous variable. Because `Y₂` is endogenous, it is correlated with `u₁`, making OLS estimators biased. We need an instrument for `Y₂`. 2SLS provides a systematic way to create this instrument. Stage 1: Detailed Explanation The purpose of the first stage is to isolate the part of the endogenous explanatory variable (`Y₂`) that is related to all the exogenous variables in the system.

  1. Identification: Identify all predetermined variables in the system. These include all exogenous variables (`Z₁` in our equation and any other `Z`s in other equations of the system). Let’s assume there is another exogenous variable `Z₂` in the system.
  2. Reduced-Form Regression: Regress the endogenous explanatory variable (`Y₂`) on all of the exogenous variables in the system (`Z₁` and `Z₂`). `Y₂ = π₀ + π₁Z₁ + π₂Z₂ + v` This is the reduced-form equation for `Y₂`. Estimate this equation using OLS.
  3. Obtain Predicted Values: From this regression, obtain the predicted values of `Y₂`, which we denote as `Ŷ₂`: `Ŷ₂ = π̂₀ + π̂₁Z₁ + π̂₂Z₂` This `Ŷ₂` will now serve as the instrumental variable for `Y₂`. It is correlated with `Y₂` (because it explains `Y₂`) and it is uncorrelated with the structural error `u₁` (because it is just a linear combination of exogenous variables).


Stage 2: Detailed Explanation

In the second stage, we return to the structural equation of interest, but substitute the problematic endogenous variable with its first-stage predicted value.

  1. Substitution: In the original structural equation, replace the endogenous variable `Y₂` with its predicted value `Ŷ₂`. `Y₁ = β₀ + β₁Ŷ₂ + β₂Z₁ + u₁`
  2. OLS Estimation: Use OLS to estimate this modified equation.

The coefficients obtained from this second-stage regression (`β̂₀`, `β̂₁`, `β̂₂`) are the 2SLS estimators. These estimators are consistent. It is important to note that although we use OLS in the second stage, the standard errors must be calculated differently from the standard OLS procedure, as the use of `Ŷ₂` introduces an additional source of uncertainty. However, most statistical software packages automatically compute the correct 2SLS standard errors.

Q10. Explain the following concepts: (a) Ridge Regression (b) Multiple Factor Analysis (c) MANOVA (d) Canonical Correlation Analysis

Ans. (a) Ridge Regression: Ridge Regression is a technique used when there is a high degree of multicollinearity among explanatory variables. In the presence of multicollinearity, the variance of the Ordinary Least Squares (OLS) estimators becomes very large, making them unreliable and highly sensitive to small changes in the sample data. Ridge regression addresses this by introducing a small amount of bias to the estimates in exchange for a large reduction in variance. It modifies the OLS minimization problem by compromising between minimizing the sum of squared residuals (SSR) and the sum of squared coefficients: Minimize: `Σ(Y_i – Ŷ_i)² + λΣβ_j²` Here, `λ` (lambda) is a tuning parameter. When `λ = 0`, ridge regression is identical to OLS. As `λ` increases, the coefficients are shrunk towards zero, increasing bias but decreasing variance. (b) Multiple Factor Analysis (MFA): Multiple Factor Analysis is a multivariate statistical technique used to analyze tables of data in which individuals or observations are described by several sets of variables. These sets of variables can be quantitative, qualitative, or mixed. MFA is an extension of Principal Component Analysis (PCA) and Multiple Correspondence Analysis (MCA). Its main goal is to balance the influence of the different variable sets (so that a set with more variables doesn’t dominate the analysis) and to provide a common framework for studying the relationships between individuals, variables, and the sets of variables. It provides a unified picture and graphical representation of the relationships between individuals and variables. (c) MANOVA (Multivariate Analysis of Variance): MANOVA, or Multivariate Analysis of Variance, is an extension of the Analysis of Variance (ANOVA). It is used to test whether there are statistically significant differences in the means of two or more continuous dependent variables across different groups of one or more independent variables (which are typically categorical). While ANOVA works with only one dependent variable, MANOVA tests the effect on multiple dependent variables simultaneously. It tests whether the independent variables affect the combination of dependent variables as a whole. One of its advantages is that it takes into account the correlation between the dependent variables. (d) Canonical Correlation Analysis (CCA): Canonical Correlation Analysis is a multivariate statistical technique used to study the interrelationships between two sets of variables. Suppose you have one set of variables X (`X₁`, `X₂`, …) and another set of variables Y (`Y₁`, `Y₂`, …). CCA finds a linear combination of the X variables (called a canonical variate) and a linear combination of the Y variables that are maximally correlated with each other. The correlation between these two linear combinations is called the first canonical correlation. It then finds a second pair, uncorrelated with the first pair, that has the next highest correlation, and so on. CCA helps in understanding how one set of variables is related to another set.

Q11. What is meant by a factor in the context of factor analysis? Sketch the following three basic matrices involved in factor analysis: (i) Input data matrix (ii) Correlation matrix (iii) Factor matrix

Ans. Meaning of a ‘Factor’ in Factor Analysis: In the context of Factor Analysis, a ‘factor’ is an unobserved, latent variable that is assumed to explain the underlying pattern or structure of correlations among a set of observed, manifest variables. It is a fundamental construct or dimension that cannot be measured directly but is believed to cause the variation in the observed variables. For example, we might measure student performance on several observed variables like test scores in ‘math’, ‘physics’, and ‘logic’. Factor analysis might reveal that the scores on all these observed variables are strongly influenced by a single underlying ‘factor’, which we might interpret as ‘quantitative aptitude’. The goal of factor analysis is thus to achieve data dimensionality reduction, i.e., to summarize a large number of related variables in terms of a few underlying factors. Sketches of Three Basic Matrices in Factor Analysis: (i) Input Data Matrix: This is the raw data. It is a rectangular matrix (`N x p`), where the rows represent the individual observations or cases (`N`) and the columns represent the observed variables (`p`). The cell at `(i, j)` contains the score of case `i` on variable `j`. Sketch:

 Var 1 Var 2 ... Var pCase 1 [ X₁₁ X₁₂ ... X₁p ]Case 2 [ X₂₁ X₂₂ ... X₂p ] . [ . . . ] . [ . . . ]Case N [ XN₁ XN₂ ... XNp ]

(ii) Correlation Matrix (R): This is a square, symmetric matrix (`p x p`) that shows the Pearson correlation coefficient between every possible pair of all the observed variables. Both the rows and columns represent the variables. The diagonal elements are all 1s, as a variable’s correlation with itself is 1. The cell at `(i, j)` contains the correlation `r_ij` between variable `i` and variable `j`. Since `r_ij = r_ji`, the matrix is symmetric about the diagonal. It is this matrix that factor analysis seeks to explain the patterns within. Sketch:

 Var 1 Var 2 ... Var pVar 1 [ 1 r₁₂ ... r₁p ]Var 2 [ r₂₁ 1 ... r₂p ] . [ . . . ] . [ . . . ]Var p [ rp₁ rp₂ ... 1 ]

(iii) Factor Matrix (A): This is also known as the Factor Loading Matrix. It is a rectangular matrix (`p x k`), where `p` is the number of observed variables and `k` is the number of extracted factors (`k < p`). The rows represent the variables and the columns represent the factors. The value in cell `(i, j)` is `a_ij`, called the ‘factor loading’. It represents the correlation between the observed variable `i` and the latent factor `j`. A high loading (close to 1 or -1) indicates that the variable is a strong indicator of that factor. Sketch:

 Factor 1 Factor 2 ... Factor kVar 1 [ a₁₁ a₁₂ ... a₁k ]Var 2 [ a₂₁ a₂₂ ... a₂k ] . [ . . . ] . [ . . . ]Var p [ ap₁ ap₂ ... apk ]


Download IGNOU previous Year Question paper download PDFs for MECE-001 to improve your preparation. These ignou solved question paper IGNOU Previous Year Question paper solved PDF in Hindi and English help you understand the exam pattern and score better.

  • IGNOU Previous Year Solved Question Papers (All Courses)

Thanks!

Share this:

  • Share on Facebook (Opens in new window) Facebook
  • Share on X (Opens in new window) X
  • More
  • Share on WhatsApp (Opens in new window) WhatsApp
  • Share on Telegram (Opens in new window) Telegram
  • Print (Opens in new window) Print
  • Email a link to a friend (Opens in new window) Email

Reader Interactions

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Primary Sidebar

लेटेस्ट अपडेट पायें

Telegram Telegram Channel Join Now
Facebook FaceBook Page Follow Us
YouTube Youtube Channel Subscribe
WhatsApp WhatsApp Channel Join Now

Search

Recent Posts

  • MSU Baroda Study Materials Free Download
  • Bhavnagar University Study Materials Free Download
  • Kachchh University Study Materials Free Download
  • BMTU Study Materials Free Download
  • SGGU Study Materials Free Download

Subscribe to Blog via Email

Enter your email address to subscribe to this blog and receive notifications of new posts by email.

Join 1,611 other subscribers

Categories

  • 10th model paper (3)
  • bed books (3)
  • Bihar Board Model Paper (7)
  • Bihar Jobs (1)
  • cg board model paper (1)
  • DELED Books (1)
  • English Posts (1)
  • Essay (1)
  • Exam Prep (9)
  • G.K quiz in hindi (7)
  • General Knowledge in hindi (सामान्य ज्ञान) (24)
  • gk 2018 in hindi (12)
  • GK 2020 (2)
  • GK HINDI 2019 (9)
  • gk pdf download (16)
  • High school science notes in Hindi (3)
  • IERT (3)
  • MODEL PAPER (30)
  • Motivational quotes in hindi (1)
  • mp board model paper (4)
  • My Thoughts (Thoughts by Sachin Yadav) (1)
  • Navy (2)
  • NCERT Books in hindi free download (1)
  • Police (2)
  • Polytechnic (6)
  • Pratiyogita Darpan 2019 (2)
  • RBSE Model Papers (2)
  • School Books (1)
  • SSC GENERAL KNOWLEDGE (7)
  • StudyTrac (69)
  • Uncategorized (54)
  • University Books (106)
  • University Question Papers (153)
  • University Study Materials (89)
  • University Syllabus (144)
  • UP Board Books (5)
  • up board model paper (10)
  • Up board model papers (16)
  • UPSC Notes (3)
  • Uttar Pradesh Jobs (2)
  • रेलवे (7)
  • सामान्य हिन्दी (3)

Footer

University Books

University Study Materials (Books and Notes) in PDF Format in Hindi and English languages.

Click here to download.

University Question Papers

University Previous Year Question Papers and Sample Papers in PDF Format for all Courses.

Click here to download.

University Syllabus

Universities Syllabus in PDF Format in the English and Hindi languages for all courses.

Click here to download.

Copyright © 2026 ·GKPAD by S.K Yadav | Disclaimer