• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer

GKPAD.COM

ONLINE HINDI EDUCATION PORTAL

  • Home
  • Blog
  • Sarkari Result
  • University Books
  • University Papers
  • University Syllabus
  • About Us

IGNOU MECE-101 Solved Question Paper PDF Download

The IGNOU MECE-101 Solved Question Paper PDF Download page is designed to help students access high-quality exam resources in one place. Here, you can find ignou solved question paper IGNOU Previous Year Question paper solved PDF that covers all important questions with detailed answers. This page provides IGNOU all Previous year Question Papers in one PDF format, making it easier for students to prepare effectively.

  • IGNOU MECE-101 Solved Question Paper in Hindi
  • IGNOU MECE-101 Solved Question Paper in English
  • IGNOU Previous Year Solved Question Papers (All Courses)

Whether you are looking for IGNOU Previous Year Question paper solved in English or ignou previous year question paper solved in hindi, this page offers both options to suit your learning needs. These solved papers help you understand exam patterns, improve answer writing skills, and boost confidence for upcoming exams.

IGNOU MECE-101 Solved Question Paper PDF

IGNOU Previous Year Solved Question Papers

This section provides IGNOU MECE-101 Solved Question Paper PDF in both Hindi and English. These ignou solved question paper IGNOU Previous Year Question paper solved PDF include detailed answers to help you understand exam patterns and improve your preparation. You can also access IGNOU all Previous year Question Papers in one PDF for quick and effective revision before exams.


IGNOU MECE-101 Previous Year Solved Question Paper in Hindi

Q1. निम्नलिखित प्रतीपगमन प्रतिमान पर विचार कीजिए : Yᵢ = β₁ + β₂Xᵢ + uᵢ जहाँ Yᵢ पारिश्रमिक प्रति घंटा है और Xᵢ स्कूली शिक्षा पाने के वर्षों की संख्या है। साथ ही xᵢ = (Xᵢ – X̄) और yᵢ = (Yᵢ – Ȳ)। आपको निम्नलिखित डेटा भी दिया गया है : ΣYᵢ = 307.35, ΣXᵢ = 6608.0 ΣXᵢ² = 87040.0, ΣXᵢYᵢ = 440.65 ΣYᵢ² = 25446.29, Σxᵢ² = 4025.43 Σyᵢ² = 760.44, Σxᵢyᵢ = 279.204 Σuᵢ² = 5980.68, n = 526 (क) β₁ और β₂ के सामान्य न्यूनतम वर्ग अनुमानक आकलित कीजिए। परिणाम की व्याख्या भी कीजिए। (ख) निर्धारण गुणांक (R²) का मान ज्ञात कीजिए। परिणाम की व्याख्या कीजिए।

Ans. (क) β₁ और β₂ के सामान्य न्यूनतम वर्ग (OLS) अनुमानकों की गणना और व्याख्या:

दिए गए मॉडल Yᵢ = β₁ + β₂Xᵢ + uᵢ के लिए, OLS अनुमानक सूत्र इस प्रकार हैं:

ढलान गुणांक (Slope coefficient) का अनुमानक: β̂₂ = Σxᵢyᵢ / Σxᵢ²

अंतःखंड (Intercept) का अनुमानक: β̂₁ = Ȳ – β̂₂X̄

सबसे पहले, हम दिए गए डेटा का उपयोग करके β̂₂ की गणना करते हैं:

Σxᵢyᵢ = 279.204

Σxᵢ² = 4025.43

β̂₂ = 279.204 / 4025.43 ≈ 0.06936

अब, हम β̂₁ की गणना करने के लिए माध्य (means) की गणना करते हैं:

X̄ = ΣXᵢ / n = 6608.0 / 526 ≈ 12.5627

Ȳ = ΣYᵢ / n = 307.35 / 526 ≈ 0.5843

इन मानों को β̂₁ के सूत्र में प्रतिस्थापित करते हुए:

β̂₁ = 0.5843 – (0.06936 * 12.5627) ≈ 0.5843 – 0.8715 ≈ -0.2872

अनुमानित प्रतिगमन समीकरण है:

Ŷᵢ = -0.2872 + 0.06936Xᵢ

परिणामों की व्याख्या:

  • β̂₂ (ढलान गुणांक): अनुमानित मान 0.06936 है। इसका अर्थ है कि, अन्य सभी कारक स्थिर रहने पर, स्कूली शिक्षा में एक अतिरिक्त वर्ष की वृद्धि से प्रति घंटा मजदूरी दर में औसतन लगभग 0.069 यूनिट की वृद्धि होने की उम्मीद है। यह स्कूली शिक्षा और मजदूरी के बीच एक सकारात्मक संबंध को इंगित करता है, जो आर्थिक सिद्धांत के अनुरूप है।
  • β̂₁ (अंतःखंड): अनुमानित मान -0.2872 है। सैद्धांतिक रूप से, यह शून्य वर्ष की स्कूली शिक्षा (Xᵢ=0) वाले व्यक्ति के लिए अनुमानित प्रति घंटा मजदूरी दर है। एक ऋणात्मक मजदूरी दर आर्थिक रूप से निरर्थक है। यह अक्सर इंगित करता है कि मॉडल का रैखिक रूप डेटा की सीमा के बाहर, विशेष रूप से X=0 के पास, अच्छी तरह से एक्सट्रपलेशन नहीं करता है।

(ख) निर्धारण गुणांक (R²) की गणना और व्याख्या:

निर्धारण गुणांक, R², आश्रित चर (Y) में भिन्नता के उस अनुपात को मापता है जिसे स्वतंत्र चर (X) द्वारा समझाया जाता है। इसकी गणना के लिए सूत्र है:

R² = (Σxᵢyᵢ)² / (Σxᵢ² * Σyᵢ²)

दिए गए मानों का उपयोग करते हुए:

R² = (279.204)² / (4025.43 * 760.44)

R² ≈ 77954.9 / 3061141.6 ≈ 0.0255

परिणाम की व्याख्या: R² का मान लगभग 0.0255 या 2.55% है। इसका मतलब है कि प्रति घंटा मजदूरी दर में कुल भिन्नता का केवल 2.55% हिस्सा स्कूली शिक्षा के वर्षों में भिन्नता द्वारा समझाया गया है। यह एक बहुत कम R² मान है, जो बताता है कि स्कूली शिक्षा अकेले प्रति घंटा मजदूरी का एक बहुत कमजोर भविष्यवक्ता है। मजदूरी को प्रभावित करने वाले कई अन्य महत्वपूर्ण कारक हैं (जैसे अनुभव, लिंग, पेशा, जन्मजात क्षमता) जिन्हें इस सरल प्रतिगमन मॉडल में शामिल नहीं किया गया है।

Q2. स्वसहसंबंध का क्या अर्थ है ? इसका अभिज्ञान कैसे करते हैं ? स्वसहसंबंध की समस्या से निपटने की कोई एक विधि समझाइए।

Ans.

स्वसहसंबंध (Autocorrelation) का अर्थ: स्वसहसंबंध, जिसे क्रमिक सहसंबंध (serial correlation) भी कहा जाता है, एक शास्त्रीय रैखिक प्रतिगमन मॉडल (CLRM) की मान्यताओं का उल्लंघन है। यह एक प्रतिगमन मॉडल के त्रुटि पदों (error terms) के बीच विभिन्न अवलोकनों (observations) में सहसंबंध की उपस्थिति को संदर्भित करता है। आमतौर पर, यह समय-श्रृंखला डेटा में होता है। गणितीय रूप से, स्वसहसंबंध का मतलब है कि त्रुटि पदों का सहप्रसरण (covariance) शून्य नहीं है:

Cov(uᵢ, uⱼ) ≠ 0 for i ≠ j

यह CLRM की इस धारणा का उल्लंघन करता है कि त्रुटि पद एक दूसरे से स्वतंत्र हैं। सकारात्मक स्वसहसंबंध (जब एक अवधि में एक सकारात्मक त्रुटि के बाद अगली अवधि में एक सकारात्मक त्रुटि होने की संभावना होती है) नकारात्मक स्वसहसंबंध की तुलना में अधिक सामान्य है।

स्वसहसंबंध का अभिज्ञान (Detection): स्वसहसंबंध का पता लगाने के कई तरीके हैं:

  • ग्राफिकल विधि: यह एक अनौपचारिक विधि है जहां OLS प्रतिगमन से प्राप्त अवशिष्टों (residuals, ûᵢ) को समय के विरुद्ध आलेखित किया जाता है। यदि आलेख में एक स्पष्ट पैटर्न (जैसे तरंग-जैसा या चक्रीय पैटर्न) दिखाई देता है, तो यह स्वसहसंबंध का संकेत है।
  • डरबिन-वॉटसन (DW) d-सांख्यिकी: यह प्रथम-क्रम स्वसहसंबंध (AR(1)) के लिए सबसे प्रसिद्ध परीक्षण है। d-सांख्यिकी की गणना की जाती है और इसकी तुलना दो महत्वपूर्ण मानों, dₗ (निचली सीमा) और dᵤ (ऊपरी सीमा) से की जाती है। परिणाम सांख्यिकी के मान पर निर्भर करता है: सकारात्मक स्वसहसंबंध, कोई स्वसहसंबंध नहीं, अनिर्णायक क्षेत्र, या नकारात्मक स्वसहसंबंध।
  • ब्रॉश-गॉडफ्रे (BG) परीक्षण: यह एक अधिक सामान्य और शक्तिशाली परीक्षण है। यह उच्च-क्रम के स्वसहसंबंध का परीक्षण कर सकता है और उन मॉडलों के लिए भी मान्य है जिनमें आश्रित चर के पश्चता मान (lagged values) शामिल हैं, जहां DW परीक्षण अनुपयुक्त है।

स्वसहसंबंध के लिए उपचारात्मक उपाय: कॉक्रेन-ऑर्कट प्रक्रिया (Cochrane-Orcutt Procedure) जब स्वसहसंबंध का पता चलता है, तो OLS अनुमानक अब BLUE (श्रेष्ठतम रैखिक अनभिनत अनुमानक) नहीं रहते हैं, हालांकि वे अभी भी अनभिनत (unbiased) होते हैं। मानक त्रुटियां गलत होती हैं, जिससे परिकल्पना परीक्षण अविश्वसनीय हो जाता है। एक सामान्य उपचारात्मक उपाय कॉक्रेन-ऑर्कट पुनरावृत्ति प्रक्रिया (iterative procedure) है:

  1. मूल मॉडल का अनुमान लगाएं: मूल मॉडल Yₜ = β₁ + β₂Xₜ + uₜ पर OLS लागू करें और अवशिष्ट ûₜ प्राप्त करें।
  2. ρ (Rho) का अनुमान लगाएं: यह मानते हुए कि त्रुटियां एक प्रथम-क्रम ऑटोरेग्रेसिव (AR(1)) योजना का पालन करती हैं (uₜ = ρuₜ₋₁ + εₜ), अवशिष्टों को उनके एक-अवधि पश्चता मान पर प्रतिगमन करके स्वसहसंबंध गुणांक (ρ) का अनुमान लगाएं: ûₜ = ρûₜ₋₁ + vₜ यह ρ का अनुमान, ρ̂, देता है।
  3. चरों को रूपांतरित करें: मूल डेटा को quasi-differenced या रूपांतरित चर बनाने के लिए ρ̂ का उपयोग करें: Y*ₜ = Yₜ – ρ̂Yₜ₋₁ X*ₜ = Xₜ – ρ̂Xₜ₋₁
  4. रूपांतरित मॉडल का अनुमान लगाएं: रूपांतरित चरों पर OLS प्रतिगमन चलाएं: Y ₜ = β₁ + β₂X*ₜ + εₜ जहां β₁ = β₁(1 – ρ̂)। इस प्रतिगमन से β₂ का अनुमान BLUE है, और β₁ का अनुमान β̂₁ / (1 – ρ̂) से पुनर्प्राप्त किया जा सकता है। नया त्रुटि पद, εₜ, अब स्वसहसंबद्ध नहीं है, जो विश्वसनीय परिकल्पना परीक्षण की अनुमति देता है। इस प्रक्रिया को तब तक दोहराया जा सकता है जब तक कि ρ̂ के अनुमान लगातार पुनरावृत्तियों में परिवर्तित न हो जाएं।

यह विधि सामान्यीकृत न्यूनतम वर्ग (GLS) का एक रूप है।

Q3. निम्नलिखित प्रतीपगमन प्रतिमान पर विचार कीजिए : Y = β₁ + β₂X₂ + β₃X₃ + u जहाँ u द्वारा N(0, σ²) का अनुसरण होता है। प्रतिदर्श आकार 25 है। मान लीजिए कि आपको β₂ = β₃ = 0 की अवधारणा का अनुमानन करना है। इस अवधारणा के सत्यापन के चरणों की व्याख्या कीजिए।

Ans. दी गई परिकल्पना H₀: β₂ = β₃ = 0 एक संयुक्त परिकल्पना (joint hypothesis) है। यह परीक्षण करती है कि क्या स्वतंत्र चर X₂ और X₃ एक साथ आश्रित चर Y को समझाने में सांख्यिकीय रूप से महत्वपूर्ण हैं। इस प्रकार की परिकल्पना का परीक्षण करने के लिए मानक विधि F-परीक्षण (F-test) है, जिसे समग्र महत्व (overall significance) के लिए परीक्षण या प्रतिगमन पर प्रतिबंधों (restrictions) के लिए परीक्षण के रूप में भी जाना जाता है।

परिकल्पना के सत्यापन के चरण इस प्रकार हैं:

चरण 1: अप्रतिबंधित मॉडल (Unrestricted Model) का अनुमान लगाना

सबसे पहले, हम पूर्ण या अप्रतिबंधित मॉडल का अनुमान लगाते हैं, जिसमें सभी चर शामिल होते हैं:

Y = β₁ + β₂X₂ + β₃X₃ + u

इस मॉडल पर OLS लागू करने के बाद, हम अप्रतिबंधित अवशिष्ट वर्गों का योग (Unrestricted Residual Sum of Squares – RSS_UR) प्राप्त करते हैं। इस मॉडल के लिए स्वतंत्रता की कोटि (degrees of freedom) df_UR = n – k है, जहाँ n प्रतिदर्श आकार है और k अनुमानित मापदंडों की संख्या है।

इस मामले में, n = 25 और k = 3 (β₁, β₂, β₃)। तो, df_UR = 25 – 3 = 22 ।

चरण 2: प्रतिबंधित मॉडल (Restricted Model) का अनुमान लगाना

इसके बाद, हम शून्य परिकल्पना (H₀) द्वारा लगाए गए प्रतिबंधों को लागू करते हैं, जो β₂ = 0 और β₃ = 0 हैं। इन प्रतिबंधों को मूल मॉडल में प्रतिस्थापित करने से हमें प्रतिबंधित मॉडल मिलता है:

Y = β₁ + u

हम इस सरल मॉडल का अनुमान लगाते हैं और प्रतिबंधित अवशिष्ट वर्गों का योग (Restricted Residual Sum of Squares – RSS_R) प्राप्त करते हैं। प्रतिबंधित मॉडल में स्वतंत्रता की कोटि df_R = n – k_R है, जहाँ k_R प्रतिबंधित मॉडल में मापदंडों की संख्या है।

इस मामले में, k_R = 1 (केवल β₁)। तो, df_R = 25 – 1 = 24 ।

चरण 3: F-सांख्यिकी की गणना करना

F-सांख्यिकी की गणना RSS_UR और RSS_R का उपयोग करके की जाती है। सूत्र है:

F = [ (RSS_R – RSS_UR) / m ] / [ RSS_UR / (n – k) ]

जहाँ:

  • RSS_R = प्रतिबंधित अवशिष्ट वर्गों का योग।
  • RSS_UR = अप्रतिबंधित अवशिष्ट वर्गों का योग।
  • m = शून्य परिकल्पना में लगाए गए प्रतिबंधों की संख्या। इस मामले में, m = 2 (क्योंकि β₂=0 और β₃=0)।
  • n = प्रतिदर्श आकार = 25।
  • k = अप्रतिबंधित मॉडल में मापदंडों की संख्या = 3।

चरण 4: निर्णय लेना

हम परिकलित F-सांख्यिकी (F_calc) की तुलना एक चुने हुए सार्थकता स्तर (significance level), α (जैसे, 0.05), पर F-वितरण से प्राप्त क्रांतिक मान (critical value, F_crit) से करते हैं। क्रांतिक मान के लिए स्वतंत्रता की कोटि अंश (numerator) के लिए m और हर (denominator) के लिए (n – k) होती है।

इस मामले में, स्वतंत्रता की कोटि (2, 22) होगी।

निर्णय नियम है:

  • यदि F_calc > F_crit(α, m, n-k) , तो हम शून्य परिकल्पना (H₀) को अस्वीकार करते हैं। इसका मतलब है कि β₂ और β₃ संयुक्त रूप से शून्य से भिन्न हैं, और चर X₂ और X₃ मॉडल में Y की व्याख्या करने के लिए संयुक्त रूप से महत्वपूर्ण हैं।
  • यदि F_calc ≤ F_crit(α, m, n-k) , तो हम H₀ को अस्वीकार करने में विफल रहते हैं। हम यह निष्कर्ष नहीं निकाल सकते कि X₂ और X₃ संयुक्त रूप से महत्वपूर्ण हैं।

Q4. आपको डेटा में विषमविचरिता की समस्या का सामना कब करना पड़ता है ? समझाइए कि आप विषमविचरिता की उपस्थिति का संज्ञान किस प्रकार करेंगे |

Ans.

विषमविचरिता (Heteroscedasticity) का परिचय: विषमविचरिता का अर्थ है “असमान भिन्नता”। अर्थमिति में, यह एक ऐसी स्थिति को संदर्भित करता है जहां प्रतिगमन मॉडल के त्रुटि पद (uᵢ) का प्रसरण (variance) सभी अवलोकनों (observations) में स्थिर नहीं रहता है। यह शास्त्रीय रैखिक प्रतिगमन मॉडल (CLRM) की समविचरिता (homoscedasticity) की धारणा का उल्लंघन करता है, जो मानती है कि Var(uᵢ) = σ² (एक स्थिरांक) है। विषमविचरिता के तहत, Var(uᵢ) = σᵢ² होता है, जिसका अर्थ है कि प्रसरण प्रत्येक अवलोकन i के साथ बदलता है।

विषमविचरिता की समस्या का सामना कब होता है: यह समस्या विशेष रूप से निम्नलिखित प्रकार के डेटा में आम है:

  • अनुप्रस्थ-काट डेटा (Cross-sectional data): यह विषमविचरिता के लिए सबसे आम सेटिंग है। उदाहरण के लिए, घरेलू आय और उपभोग पर डेटा का विश्लेषण करते समय, उच्च आय वाले परिवारों के पास अपने खर्च में अधिक विवेकाधीन आय और विकल्प होते हैं, जिससे उनके उपभोग पैटर्न में निम्न आय वाले परिवारों की तुलना में अधिक भिन्नता होती है। इसी तरह, बड़ी कंपनियों के मुनाफे में छोटी कंपनियों की तुलना में अधिक भिन्नता हो सकती है।
  • त्रुटि-सीखने वाले मॉडल (Error-learning models): जैसे-जैसे समय बीतता है, लोग अपनी गलतियों से सीखते हैं और त्रुटियों का परिमाण कम हो सकता है। उदाहरण के लिए, टाइपिंग सीखते समय, समय के साथ त्रुटियों की संख्या और भिन्नता कम हो जाती है।
  • आउटलायर्स (Outliers) की उपस्थिति: डेटा में चरम मान (outliers) अवशिष्टों में बड़े विचलन पैदा कर सकते हैं, जिससे उन अवलोकनों के लिए त्रुटि प्रसरण बढ़ जाता है।
  • मॉडल विनिर्देशन त्रुटि: यदि मॉडल से एक महत्वपूर्ण व्याख्यात्मक चर को छोड़ दिया जाता है या यदि गलत कार्यात्मक रूप का उपयोग किया जाता है, तो इसका प्रभाव विषमविचरिता के रूप में प्रकट हो सकता है।

विषमविचरिता की उपस्थिति का संज्ञान (Detection): विषमविचरिता का पता लगाने के लिए कई अनौपचारिक और औपचारिक तरीके हैं:

  1. ग्राफिकल विधि (अनौपचारिक): यह सबसे सरल तरीकों में से एक है। OLS प्रतिगमन से प्राप्त वर्गित अवशिष्टों (squared residuals, ûᵢ²) को अनुमानित Y (Ŷᵢ) या किसी एक व्याख्यात्मक चर (Xᵢ) के विरुद्ध आलेखित करें।
    • यदि बिंदुओं का फैलाव यादृच्छिक है और कोई स्पष्ट पैटर्न नहीं है, तो समविचरिता की संभावना है।
    • यदि एक व्यवस्थित पैटर्न उभरता है – जैसे कि एक शंकु का आकार जहां Ŷᵢ या Xᵢ बढ़ने पर फैलाव बढ़ता (या घटता) है – तो यह विषमविचरिता का एक मजबूत संकेत है।
  2. पार्क परीक्षण (Park Test): यह एक औपचारिक परीक्षण है जिसमें वर्गित अवशिष्टों के लघुगणक (log) को व्याख्यात्मक चर के लघुगणक पर प्रतिगमन किया जाता है: ln(ûᵢ²) = α + β ln(Xᵢ) + vᵢ यदि ढलान गुणांक β सांख्यिकीय रूप से महत्वपूर्ण है (t-test का उपयोग करके), तो यह विषमविचरिता की उपस्थिति का समर्थन करता है।
  3. ग्लेजर परीक्षण (Glejser Test): पार्क परीक्षण के समान, यह अवशिष्टों के निरपेक्ष मानों (|ûᵢ|) को व्याख्यात्मक चर Xᵢ के कुछ फलन पर प्रतिगमन करता है, जैसे: |ûᵢ| = α + βXᵢ + vᵢ या |ûᵢ| = α + β√Xᵢ + vᵢ यदि β सांख्यिकीय रूप से महत्वपूर्ण है, तो विषमविचरिता की परिकल्पना का समर्थन किया जाता है।
  4. व्हाइट का सामान्य विषमविचरिता परीक्षण (White’s General Test): यह एक बहुत ही सामान्य और लोकप्रिय परीक्षण है क्योंकि यह विषमविचरिता के किसी विशिष्ट रूप को नहीं मानता है। यह एक सहायक प्रतिगमन चलाता है जिसमें वर्गित अवशिष्टों (ûᵢ²) को मूल व्याख्यात्मक चरों, उनके वर्गों और उनके क्रॉस-प्रोडक्ट्स पर प्रतिगमन किया जाता है। इस सहायक प्रतिगमन के समग्र महत्व का F-परीक्षण या LM-परीक्षण (nR² सांख्यिकी) के माध्यम से मूल्यांकन किया जाता है। यदि परीक्षण महत्वपूर्ण है, तो हम समविचरिता की शून्य परिकल्पना को अस्वीकार करते हैं।

Q5. व्याख्या कीजिए कि व्याख्यात्मक चर में मापन की त्रुटि से अनुमानक असंगत क्यों हो जाते हैं।

Ans. व्याख्यात्मक चर (explanatory variable) में मापन त्रुटि (measurement error) अर्थमिति में एक गंभीर समस्या है क्योंकि यह शास्त्रीय रैखिक प्रतिगमन मॉडल (CLRM) की एक महत्वपूर्ण धारणा का उल्लंघन करती है, जिससे OLS (साधारण न्यूनतम वर्ग) अनुमानक पक्षपाती (biased) और असंगत (inconsistent) हो जाते हैं। असंगतता का मतलब है कि नमूने का आकार बढ़ने पर भी अनुमानक सही पैरामीटर मान में परिवर्तित नहीं होता है।

आइए इसे एक सरल प्रतिगमन मॉडल के साथ प्रदर्शित करें:

सत्य मॉडल (True Model): Yᵢ = β₁ + β₂Xᵢ* + uᵢ

यहाँ, Yᵢ आश्रित चर है, Xᵢ सत्य, लेकिन अप्राप्य (unobservable), व्याख्यात्मक चर है, और uᵢ शास्त्रीय मान्यताओं को पूरा करने वाला त्रुटि पद है (विशेषकर, E(uᵢ)=0 और Cov(Xᵢ , uᵢ)=0)।

मापन त्रुटि का परिचय: हम Xᵢ* का सीधे निरीक्षण नहीं कर सकते। इसके बजाय, हम एक प्रॉक्सी चर, Xᵢ, का निरीक्षण करते हैं जिसमें मापन त्रुटि होती है:

Xᵢ = Xᵢ* + eᵢ

यहाँ, Xᵢ प्रेक्षित चर है और eᵢ मापन त्रुटि है। हम आमतौर पर मानते हैं कि eᵢ का माध्य शून्य है (E(eᵢ)=0), यह सत्य मान Xᵢ से असंबद्ध है (Cov(Xᵢ , eᵢ)=0), और यह मॉडल के त्रुटि पद uᵢ से भी असंबद्ध है (Cov(uᵢ, eᵢ)=0)।

अनुमानित मॉडल पर प्रभाव: जब हम प्रेक्षित डेटा का उपयोग करके प्रतिगमन चलाते हैं, तो हम वास्तव में निम्नलिखित मॉडल का अनुमान लगा रहे होते हैं:

Yᵢ = β₁ + β₂Xᵢ + vᵢ

यह देखने के लिए कि त्रुटि पद vᵢ क्या है, हम Xᵢ को Xᵢ* + eᵢ से प्रतिस्थापित करते हैं:

Yᵢ = β₁ + β₂(Xᵢ – eᵢ) + uᵢ

Yᵢ = β₁ + β₂Xᵢ – β₂eᵢ + uᵢ

तो, अनुमानित मॉडल का समग्र त्रुटि पद है: vᵢ = uᵢ – β₂eᵢ

असंगतता का कारण: OLS अनुमानकों के संगत होने के लिए एक प्रमुख शर्त यह है कि व्याख्यात्मक चर को त्रुटि पद के साथ असंबद्ध होना चाहिए, अर्थात, Cov(Xᵢ, vᵢ) = 0। आइए इस सहप्रसरण की जाँच करें:

Cov(Xᵢ, vᵢ) = Cov(Xᵢ* + eᵢ, uᵢ – β₂eᵢ)

सहप्रसरण के गुणों का उपयोग करके इसे विस्तारित करने पर:

Cov(Xᵢ, vᵢ) = Cov(Xᵢ , uᵢ) – β₂Cov(Xᵢ , eᵢ) + Cov(eᵢ, uᵢ) – β₂Cov(eᵢ, eᵢ)

हमारी मान्यताओं के अनुसार:

  • Cov(Xᵢ*, uᵢ) = 0 (सत्य मॉडल की धारणा)
  • Cov(Xᵢ*, eᵢ) = 0 (मापन त्रुटि सत्य मान से असंबद्ध है)
  • Cov(eᵢ, uᵢ) = 0 (मापन त्रुटि प्रतिगमन त्रुटि से असंबद्ध है)
  • Cov(eᵢ, eᵢ) = Var(eᵢ) = σₑ² (मापन त्रुटि का प्रसरण)

इनको प्रतिस्थापित करने पर, हमें मिलता है:

Cov(Xᵢ, vᵢ) = 0 – β₂(0) + 0 – β₂σₑ² = -β₂σₑ²

निष्कर्ष: चूंकि मापन त्रुटि (σₑ² > 0) मौजूद है और हम मानते हैं कि β₂ ≠ 0, तो सहप्रसरण Cov(Xᵢ, vᵢ) ≠ 0 है। प्रेक्षित व्याख्यात्मक चर Xᵢ नए त्रुटि पद vᵢ के साथ सहसंबद्ध है। यह OLS की एक मौलिक धारणा का उल्लंघन करता है।

यह सहसंबंध OLS अनुमानक β̂₂ को पक्षपाती और असंगत बनाता है। यह दिखाया जा सकता है कि β̂₂ का संभाव्यता सीमा (probability limit) है:

plim(β̂₂) = β₂ [ Var(X ) / (Var(X ) + Var(e)) ] = β₂ [ σₓ ² / (σₓ ² + σₑ²) ]

चूंकि कोष्ठक में दिया गया पद 1 से कम है, OLS अनुमानक शून्य की ओर पक्षपाती होगा। इसे क्षीणन पूर्वाग्रह (attenuation bias) कहा जाता है। अनुमानक सत्य गुणांक के परिमाण को कम करके आंकता है, और यह पूर्वाग्रह नमूना आकार बढ़ने पर भी दूर नहीं होता है, इसलिए अनुमानक असंगत है।

Q6. श्रेष्ठतम रैखिक अनभिनत अनुमान (BLUE) की संकल्पना की व्याख्या कीजिए। सिद्ध कीजिए कि OLS अनुमानक BLUE भी होते हैं।

Ans.

श्रेष्ठतम रैखिक अनभिनत अनुमानक (BLUE) की संकल्पना: BLUE एक ऐसे अनुमानक के लिए एक परिवर्णी शब्द है जिसमें तीन महत्वपूर्ण गुण होते हैं: यह सर्वश्रेष्ठ (Best) , रैखिक (Linear) , और अनभिनत (Unbiased) होता है। यह अर्थमिति में OLS (साधारण न्यूनतम वर्ग) अनुमानकों के गुणों का वर्णन करने के लिए एक केंद्रीय अवधारणा है, जैसा कि गॉस-मार्कोव प्रमेय (Gauss-Markov Theorem) में कहा गया है।

आइए प्रत्येक पद का अर्थ समझें:

  • रैखिक (Linear): एक अनुमानक रैखिक होता है यदि यह आश्रित चर, Y के मानों का एक रैखिक फलन है। उदाहरण के लिए, एक सरल प्रतिगमन में ढलान अनुमानक β̂₂ को β̂₂ = ΣkᵢYᵢ के रूप में लिखा जा सकता है, जहाँ kᵢ भार (weights) हैं जो केवल व्याख्यात्मक चर X के मानों पर निर्भर करते हैं।
  • अनभिनत (Unbiased): एक अनुमानक अनभिनत होता है यदि इसका अपेक्षित मान (expected value) या औसत मान (यदि हम बार-बार नमूने लेते हैं) सत्य जनसंख्या पैरामीटर के बराबर होता है। गणितीय रूप से, E(β̂) = β। इसका मतलब है कि औसतन, अनुमानक सही मान देता है।
  • श्रेष्ठतम (Best): ‘श्रेष्ठतम’ का अर्थ है न्यूनतम प्रसरण (minimum variance)। एक BLUE अनुमानक के पास सभी रैखिक अनभिनत अनुमानकों के वर्ग में सबसे छोटा प्रसरण होता है। इसका मतलब है कि यह सबसे कुशल (efficient) और सटीक है, क्योंकि इसके मान सत्य पैरामीटर मान के आसपास कम फैले होते हैं।

संक्षेप में, एक BLUE अनुमानक सभी रैखिक और अनभिनत अनुमानकों में से सबसे कुशल है।

प्रमाण कि OLS अनुमानक BLUE होते हैं (गॉस-मार्कोव प्रमेय): गॉस-मार्कोव प्रमेय में कहा गया है कि CLRM (शास्त्रीय रैखिक प्रतिगमन मॉडल) की मान्यताओं (त्रुटियों के शून्य माध्य, समविचरिता, कोई स्वसहसंबंध नहीं, और व्याख्यात्मक चर और त्रुटि पद के बीच शून्य सहप्रसरण) के तहत, OLS अनुमानक BLUE हैं।

आइए एक सरल रैखिक प्रतिगमन मॉडल Yᵢ = β₁ + β₂Xᵢ + uᵢ के लिए ढलान गुणांक β₂ के लिए इसे सिद्ध करें।

OLS अनुमानक β̂₂ = Σxᵢyᵢ / Σxᵢ² = Σxᵢ(Yᵢ – Ȳ) / Σxᵢ² है। इसे Yᵢ के संदर्भ में पुनर्व्यवस्थित किया जा सकता है: β̂₂ = Σ(xᵢ/Σxᵢ²)Yᵢ = ΣkᵢYᵢ, जहाँ kᵢ = xᵢ/Σxᵢ²।

1. रैखिकता (Linearity): चूंकि β̂₂ को ΣkᵢYᵢ के रूप में लिखा जा सकता है, यह आश्रित चर Yᵢ का एक रैखिक फलन है। अतः, यह रैखिक है।

2. अनभिनतता (Unbiasedness): हम Yᵢ = β₁ + β₂Xᵢ + uᵢ को β̂₂ के सूत्र में प्रतिस्थापित करते हैं: β̂₂ = Σkᵢ(β₁ + β₂Xᵢ + uᵢ) = β₁Σkᵢ + β₂ΣkᵢXᵢ + Σkᵢuᵢ

भार kᵢ के गुणों का उपयोग करते हुए, यह दिखाया जा सकता है कि Σkᵢ=0 और ΣkᵢXᵢ=1। तो, समीकरण बन जाता है: β̂₂ = β₂(1) + Σkᵢuᵢ = β₂ + Σkᵢuᵢ

अब, अपेक्षित मान लें: E(β̂₂) = E(β₂ + Σkᵢuᵢ) = β₂ + E(Σkᵢuᵢ) = β₂ + ΣkᵢE(uᵢ)

चूंकि E(uᵢ) = 0, हमें मिलता है E(β̂₂) = β₂। अतः, OLS अनुमानक अनभिनत है।

3. श्रेष्ठतम (न्यूनतम प्रसरण): पहले, β̂₂ का प्रसरण ज्ञात करें: Var(β̂₂) = Var(β₂ + Σkᵢuᵢ) = Var(Σkᵢuᵢ) = Σkᵢ²Var(uᵢ) CLRM मान्यताओं (समविचरिता, Var(uᵢ)=σ²) का उपयोग करते हुए: Var(β̂₂) = σ²Σkᵢ² = σ²Σ(xᵢ/Σxᵢ²)² = σ² (Σxᵢ² / (Σxᵢ²)²) = σ²/Σxᵢ²

अब, β₂ के किसी भी अन्य रैखिक अनभिनत अनुमानक, β₂* पर विचार करें। β₂* = ΣcᵢYᵢ, जहाँ cᵢ कुछ अन्य भार हैं। अनभिनत होने के लिए, β₂* को Σcᵢ=0 और ΣcᵢXᵢ=1 को संतुष्ट करना होगा। β₂ का प्रसरण Var(β₂ ) = Var(ΣcᵢYᵢ) = σ²Σcᵢ² है।

हम दिखाना चाहते हैं कि Var(β₂*) ≥ Var(β̂₂)। मान लीजिए cᵢ = kᵢ + dᵢ। अनभिनतता की शर्तों का उपयोग करके, यह दिखाया जा सकता है कि Σdᵢ=0 और Σdᵢxᵢ=0। Var(β₂*) = σ²Σ(kᵢ + dᵢ)² = σ²(Σkᵢ² + Σdᵢ² + 2Σkᵢdᵢ)

यह दिखाया जा सकता है कि Σkᵢdᵢ = Σ(xᵢ/Σxᵢ²)dᵢ = (1/Σxᵢ²)Σxᵢdᵢ = 0। तो, Var(β₂*) = σ²(Σkᵢ² + Σdᵢ²) = Var(β̂₂) + σ²Σdᵢ²।

चूंकि σ²Σdᵢ² ≥ 0, हमारे पास है: Var(β₂*) ≥ Var(β̂₂)

इसका मतलब है कि किसी भी अन्य रैखिक अनभिनत अनुमानक का प्रसरण OLS अनुमानक के प्रसरण से अधिक या उसके बराबर होता है। इसलिए, OLS अनुमानक श्रेष्ठतम है।

चूंकि OLS अनुमानक रैखिक, अनभिनत और श्रेष्ठतम है, यह BLUE है।

Q7. आय निर्धारण के निम्नलिखित केन्जीय प्रतिमान पर विचार कीजिए : उपभोग फलन : Cₜ = β₀ + β₁Yₜ + uₜ आय सर्वसमिका : Yₜ = Cₜ + Iₜ मान लीजिए कि 0 < β₁ < 1। त्रुटि पद क्लासिकी मान्यताओं का अनुसरण करते हैं, अर्थात्‌ : E(uₜ) = 0, E(uₜ)² = σ², E(uₜ, uⱼ) = 0. दर्शाइए कि इस प्रतिमान अन्तःस्थता की समस्या है।

Ans.

अन्तःस्थता (Endogeneity) की समस्या का परिचय: अर्थमिति में, अन्तःस्थता की समस्या तब उत्पन्न होती है जब एक प्रतिगमन मॉडल में एक व्याख्यात्मक चर (explanatory variable) त्रुटि पद (error term) के साथ सहसंबद्ध (correlated) होता है। यह OLS (साधारण न्यूनतम वर्ग) की एक प्रमुख धारणा का उल्लंघन है, जिसके लिए Cov(X, u) = 0 की आवश्यकता होती है। जब अन्तःस्थता मौजूद होती है, तो OLS अनुमानक पक्षपाती (biased) और असंगत (inconsistent) हो जाते हैं।

दिए गए केन्जीय मॉडल में, हमारे पास दो समीकरण हैं: 1. उपभोग फलन: Cₜ = β₀ + β₁Yₜ + uₜ 2. आय सर्वसमिका: Yₜ = Cₜ + Iₜ

उपभोग फलन में, व्याख्यात्मक चर आय (Yₜ) है। यह दिखाने के लिए कि मॉडल में अन्तःस्थता की समस्या है, हमें यह प्रदर्शित करना होगा कि Yₜ त्रुटि पद uₜ के साथ सहसंबद्ध है, अर्थात, Cov(Yₜ, uₜ) ≠ 0 ।

अन्तःस्थता का प्रदर्शन: हम आय (Yₜ) के लिए एक ‘घटा हुआ रूप’ (reduced form) समीकरण प्राप्त करके शुरू करते हैं, जो Yₜ को केवल बहिर्जात चरों (exogenous variables) और त्रुटि पद के एक फलन के रूप में व्यक्त करता है। इस मॉडल में, हम निवेश (Iₜ) को बहिर्जात मानते हैं।

1. प्रतिस्थापन (Substitution): उपभोग फलन (समीकरण 1) को आय सर्वसमिका (समीकरण 2) में प्रतिस्थापित करें: Yₜ = (β₀ + β₁Yₜ + uₜ) + Iₜ

2. Yₜ के लिए हल करें: Yₜ वाले पदों को समीकरण के एक तरफ ले जाएं: Yₜ – β₁Yₜ = β₀ + Iₜ + uₜ Yₜ(1 – β₁) = β₀ + Iₜ + uₜ

3. घटा हुआ रूप प्राप्त करें: Yₜ को अलग करने के लिए (1 – β₁) से विभाजित करें: Yₜ = [ β₀ / (1 – β₁) ] + [ 1 / (1 – β₁) ]Iₜ + [ 1 / (1 – β₁) ]uₜ

यह समीकरण Yₜ को बहिर्जात चर Iₜ और संरचनात्मक त्रुटि पद uₜ के रूप में व्यक्त करता है।

4. सहप्रसरण (Covariance) की गणना करें: अब, हम व्याख्यात्मक चर Yₜ और त्रुटि पद uₜ के बीच सहप्रसरण की गणना कर सकते हैं: Cov(Yₜ, uₜ) = Cov ( [ β₀ / (1 – β₁) ] + [ 1 / (1 – β₁) ]Iₜ + [ 1 / (1 – β₁) ]uₜ , uₜ )

सहप्रसरण के गुणों का उपयोग करते हुए (एक स्थिरांक का सहप्रसरण शून्य होता है, और हम मानते हैं कि बहिर्जात निवेश त्रुटि पद से असंबद्ध है, यानी, Cov(Iₜ, uₜ)=0):

Cov(Yₜ, uₜ) = Cov([β₀/(1-β₁)], uₜ) + Cov([(1/(1-β₁))Iₜ], uₜ) + Cov([(1/(1-β₁))uₜ], uₜ)

Cov(Yₜ, uₜ) = 0 + (1 / (1 – β₁)) Cov(Iₜ, uₜ) + (1 / (1 – β₁)) Cov(uₜ, uₜ)

Cov(Yₜ, uₜ) = 0 + 0 + (1 / (1 – β₁)) Var(uₜ)

5. अंतिम परिणाम: चूंकि त्रुटि पद का प्रसरण Var(uₜ) = σ² है (जो शून्य से अधिक है), हमें मिलता है: Cov(Yₜ, uₜ) = σ² / (1 – β₁)

चूंकि 0 < β₁ < 1 दिया गया है, हर (1 – β₁) शून्य नहीं है। इसके अलावा, σ² > 0 है। इसलिए, Cov(Yₜ, uₜ) ≠ 0 ।

निष्कर्ष: क्योंकि व्याख्यात्मक चर आय (Yₜ) त्रुटि पद (uₜ) के साथ सहसंबद्ध है, उपभोग फलन में अन्तःस्थता की समस्या है। आय और उपभोग एक साथ निर्धारित होते हैं, जिससे Yₜ एक अंतर्जात (endogenous) चर बन जाता है। इस समीकरण पर OLS का सीधा अनुप्रयोग β₀ और β₁ के पक्षपाती और असंगत अनुमान देगा। इस समस्या को हल करने के लिए, अप्रत्यक्ष न्यूनतम वर्ग (Indirect Least Squares) या द्व-चरण न्यूनतम वर्ग (Two-Stage Least Squares) जैसी विधियों की आवश्यकता होगी।

Q8. मान लें कि आपको पारिवारिक उपभोग के निर्धारकों का अर्थमितिक प्रतिमान बनाना है। आप प्रतिमान चयन की किस कसौटी का चयन करेंगे ?

Ans. पारिवारिक उपभोग के निर्धारकों के लिए एक अर्थमितिक प्रतिमान का निर्माण करते समय, एक ‘सर्वश्रेष्ठ’ मॉडल का चयन करने के लिए कई मानदंडों का एक संयोजन उपयोग किया जाना चाहिए। कोई भी एकल मानदंड पर्याप्त नहीं है, और चयन प्रक्रिया में सांख्यिकीय कठोरता और आर्थिक सिद्धांत दोनों शामिल होने चाहिए। मेरे द्वारा उपयोग किए जाने वाले प्रमुख मानदंड निम्नलिखित हैं:

1. सैद्धांतिक अनुरूपता (Theoretical Plausibility): यह सबसे महत्वपूर्ण मानदंड है। मॉडल को स्थापित आर्थिक सिद्धांतों पर आधारित होना चाहिए, जैसे कि केनेसियन उपभोग फलन, जीवन-चक्र परिकल्पना, या स्थायी आय परिकल्पना।

  • चरों का चयन: सिद्धांत के अनुसार, मुख्य निर्धारकों में वर्तमान प्रयोज्य आय, धन, ब्याज दरें, और भविष्य की आय की अपेक्षाएं शामिल होनी चाहिए। जनसांख्यिकीय कारक जैसे परिवार का आकार, उम्र, और शिक्षा भी प्रासंगिक हैं।
  • गुणांकों के अपेक्षित चिह्न: सिद्धांत गुणांकों के अपेक्षित चिह्नों का मार्गदर्शन करता है। उदाहरण के लिए, आय और धन का उपभोग पर सकारात्मक प्रभाव होना चाहिए (β_आय > 0), जबकि ब्याज दरों का प्रभाव अस्पष्ट हो सकता है (उच्च दरें बचत को प्रोत्साहित कर सकती हैं, उपभोग को कम कर सकती हैं)।

2. अच्छाई-की-फिट (Goodness-of-Fit): यह मानदंड मापता है कि मॉडल डेटा को कितनी अच्छी तरह से फिट करता है।

  • R-वर्ग (R-squared): यह उपभोग में भिन्नता के उस अनुपात को इंगित करता है जिसे मॉडल द्वारा समझाया गया है। एक उच्च R² वांछनीय है, लेकिन यह एकमात्र लक्ष्य नहीं होना चाहिए।
  • समायोजित R-वर्ग (Adjusted R-squared): यह R² से बेहतर है क्योंकि यह मॉडल में अतिरिक्त चरों को शामिल करने के लिए दंडित करता है जो महत्वपूर्ण रूप से व्याख्यात्मक शक्ति में सुधार नहीं करते हैं। विभिन्न मॉडलों की तुलना करते समय, मैं उच्च समायोजित R² वाले मॉडल को प्राथमिकता दूँगा, बशर्ते कि अन्य मानदंड भी संतुष्ट हों।

3. गुणांकों का सांख्यिकीय महत्व (Statistical Significance of Coefficients):

  • t-परीक्षण (t-tests): मॉडल में प्रत्येक व्यक्तिगत गुणांक को सांख्यिकीय रूप से महत्वपूर्ण होना चाहिए (आमतौर पर 5% स्तर पर)। एक महत्वहीन गुणांक यह सुझाव दे सकता है कि संबंधित चर को मॉडल से हटाया जा सकता है, जब तक कि सिद्धांत दृढ़ता से इसके समावेश का सुझाव न दे।
  • F-परीक्षण (F-test): मॉडल को समग्र रूप से महत्वपूर्ण होना चाहिए, जैसा कि F-परीक्षण द्वारा मापा जाता है। यह परीक्षण करता है कि क्या सभी ढलान गुणांक संयुक्त रूप से शून्य हैं।

4. सूचना मानदंड (Information Criteria): जब गैर-नेस्टेड मॉडलों (non-nested models) की तुलना की जाती है (यानी, एक मॉडल दूसरे का एक सबसेट नहीं है), तो AIC और BIC उपयोगी होते हैं।

  • अकाइके सूचना मानदंड (AIC – Akaike Information Criterion)
  • बायेसियन सूचना मानदंड (BIC – Bayesian Information Criterion)

ये दोनों मानदंड मॉडल की अच्छाई-की-फिट को मापदंडों की संख्या (जटिलता) के साथ संतुलित करते हैं। न्यूनतम AIC या BIC मान वाले मॉडल को प्राथमिकता दी जाती है। BIC, AIC की तुलना में अधिक मापदंडों के लिए एक बड़ी सजा देता है, और इस प्रकार यह अधिक मितव्ययी (parsimonious) मॉडल का चयन करता है।

5. निदान परीक्षण (Diagnostic Tests): अंतिम चयनित मॉडल को CLRM की मान्यताओं के उल्लंघन के लिए जाँच की जानी चाहिए।

  • विषमविचरिता: व्हाइट परीक्षण का उपयोग करके जांच की जानी चाहिए, क्योंकि उपभोग डेटा में यह आम है। यदि मौजूद है, तो मजबूत मानक त्रुटियों (robust standard errors) का उपयोग किया जाना चाहिए।
  • बहुसंरेखता (Multicollinearity): VIF (Variance Inflation Factor) की गणना करके चरों के बीच उच्च सहसंबंध की जांच करें।
  • विनिर्देशन त्रुटि (Specification Error): RESET परीक्षण का उपयोग यह जांचने के लिए किया जा सकता है कि क्या कोई महत्वपूर्ण चर छोड़ा गया है या क्या कार्यात्मक रूप गलत है।

संक्षेप में, मेरा दृष्टिकोण एक ऐसे मॉडल का चयन करना होगा जो सैद्धांतिक रूप से सुसंगत हो, उच्च समायोजित R² हो, महत्वपूर्ण गुणांक हों, और सभी प्रासंगिक निदान परीक्षणों को पास करे। विभिन्न विशिष्टताओं में, मैं सबसे कम AIC/BIC वाले मॉडल को प्राथमिकता दूँगा।

Q9. व्याख्या कीजिए कि किसी अर्थमितिक प्रतिमान की संरचनात्मक स्थिरता के सत्यापन में तदर्थ चर विधि का प्रयोग किस प्रकार करेंगे |

Ans.

संरचनात्मक स्थिरता (Structural Stability) का तात्पर्य है कि क्या एक अर्थमितिक मॉडल के गुणांक डेटा के विभिन्न उपसमूहों में स्थिर या समान रहते हैं। एक संरचनात्मक विराम (structural break) तब होता है जब ये गुणांक समय के एक निश्चित बिंदु पर या विभिन्न समूहों (जैसे पुरुष/महिला, युद्ध-पूर्व/युद्ध-पश्चात) के बीच बदल जाते हैं।

चाउ परीक्षण (Chow test) संरचनात्मक स्थिरता का परीक्षण करने का एक पारंपरिक तरीका है, लेकिन तदर्थ चर विधि (dummy variable method) एक अधिक लचीला और सूचनात्मक विकल्प प्रदान करती है। यह विधि न केवल यह परीक्षण करती है कि क्या कोई विराम हुआ है, बल्कि यह भी इंगित करती है कि विराम कहाँ हुआ है – अंतःखंड (intercept) में, ढलान (slope) में, या दोनों में।

तदर्थ चर विधि का उपयोग करके सत्यापन के चरण: मान लीजिए कि हम एक सरल प्रतिगमन मॉडल की स्थिरता का परीक्षण करना चाहते हैं:

Yᵢ = β₁ + β₂Xᵢ + uᵢ

और हमें संदेह है कि दो अवधियों (अवधि 1 और अवधि 2) के बीच एक संरचनात्मक विराम हो सकता है। मान लीजिए अवधि 1 में n₁ अवलोकन हैं और अवधि 2 में n₂ अवलोकन हैं।

चरण 1: एक तदर्थ चर (Dummy Variable) परिभाषित करें हम एक तदर्थ चर, D, बनाते हैं जो दो अवधियों के बीच अंतर करता है:

Dᵢ = 0 यदि अवलोकन i अवधि 1 से है

Dᵢ = 1 यदि अवलोकन i अवधि 2 से है

चरण 2: एक अप्रतिबंधित मॉडल (Unrestricted Model) बनाएं एकल प्रतिगमन चलाने के बजाय, हम पूरे डेटासेट (n = n₁ + n₂) पर एक एकल, अप्रतिबंधित मॉडल का अनुमान लगाते हैं जो अंतःखंड और ढलान दोनों को बदलने की अनुमति देता है। यह तदर्थ चर को एक अंतःखंड संशोधक के रूप में और एक व्याख्यात्मक चर के साथ गुणा किए गए एक ढलान संशोधक (एक अंतःक्रिया पद) के रूप में शामिल करके किया जाता है:

Yᵢ = α₁ + α₂Dᵢ + β₁Xᵢ + β₂(Dᵢ * Xᵢ) + vᵢ

इस मॉडल में गुणांकों की व्याख्या इस प्रकार है:

  • α₁: अवधि 1 के लिए अंतःखंड।
  • α₁ + α₂: अवधि 2 के लिए अंतःखंड। ( α₂ अवधि 2 के लिए विभेदक अंतःखंड है)।
  • β₁: अवधि 1 के लिए ढलान।
  • β₁ + β₂: अवधि 2 के लिए ढलान। ( β₂ अवधि 2 के लिए विभेदक ढलान है)।

चरण 3: परिकल्पना तैयार करें संरचनात्मक स्थिरता की शून्य परिकल्पना (H₀) यह है कि दोनों अवधियों में गुणांक समान हैं। इसका मतलब है कि विभेदक अंतःखंड और विभेदक ढलान दोनों शून्य हैं।

H₀: α₂ = 0 और β₂ = 0

वैकल्पिक परिकल्पना (H₁) यह है कि कम से कम एक शून्य के बराबर नहीं है, जो एक संरचनात्मक विराम का संकेत देता है।

चरण 4: परिकल्पना का परीक्षण करें यह तदर्थ चर (Dᵢ) और अंतःक्रिया पद (Dᵢ * Xᵢ) के गुणांकों पर एक संयुक्त परिकल्पना परीक्षण है। हम एक F-परीक्षण का उपयोग करते हैं:

  1. उपरोक्त अप्रतिबंधित मॉडल (चरण 2) का अनुमान लगाएं और इसके अवशिष्ट वर्गों का योग (RSS_UR) प्राप्त करें।
  2. प्रतिबंधित मॉडल का अनुमान लगाएं, जो तब होता है जब H₀ सत्य होती है (α₂ = 0, β₂ = 0)। यह केवल पूरे डेटासेट पर मूल पूल किया गया प्रतिगमन है: Yᵢ = α₁ + β₁Xᵢ + vᵢ। इसका अवशिष्ट वर्गों का योग (RSS_R) प्राप्त करें।
  3. F-सांख्यिकी की गणना करें: F = [ (RSS_R – RSS_UR) / m ] / [ RSS_UR / (n – k) ] जहाँ m = प्रतिबंधों की संख्या (यहाँ 2), n = कुल अवलोकनों की संख्या, और k = अप्रतिबंधित मॉडल में मापदंडों की संख्या (यहाँ 4)।

चरण 5: निष्कर्ष परिकलित F-मान की तुलना स्वतंत्रता की कोटि (m, n-k) के साथ एक क्रांतिक F-मान से करें।

  • यदि F_परिकलित > F_क्रांतिक , तो हम H₀ को अस्वीकार करते हैं। हम यह निष्कर्ष निकालते हैं कि एक सांख्यिकीय रूप से महत्वपूर्ण संरचनात्मक विराम है।
  • यदि F_परिकलित ≤ F_क्रांतिक , तो हम H₀ को अस्वीकार करने में विफल रहते हैं, जो बताता है कि संबंध संरचनात्मक रूप से स्थिर है।

तदर्थ चर दृष्टिकोण का एक लाभ यह है कि हम केवल α₂ या β₂ पर अलग-अलग t-परीक्षण भी कर सकते हैं यह देखने के लिए कि क्या विराम केवल अंतःखंड में है, केवल ढलान में है, या दोनों में है।

Q10. निम्नलिखित में से किन्हीं दो पर संक्षिप्त टिप्पणियाँ लिखिए : (क) तदर्थ चर (Dummy variable) पाश (ख) RESET कसौटी (ग) त्रुटि चर की प्रसामान्यता की कसौटी

Ans.

(क) तदर्थ चर पाश (Dummy Variable Trap)

तदर्थ चर पाश एक ऐसी स्थिति है जो प्रतिगमन विश्लेषण में तब उत्पन्न होती है जब एक गुणात्मक (categorical) चर की प्रत्येक श्रेणी के लिए एक तदर्थ चर (dummy variable) शामिल किया जाता है, साथ ही मॉडल में एक अंतःखंड (intercept) पद भी होता है। यह पूर्ण बहुसंरेखता (perfect multicollinearity) की ओर ले जाता है, जिससे OLS अनुमानक की गणना करना असंभव हो जाता है।

उदाहरण: मान लीजिए कि हमारे पास ‘लिंग’ नामक एक गुणात्मक चर है जिसकी दो श्रेणियां हैं: ‘पुरुष’ और ‘महिला’। यदि हम दो तदर्थ चर बनाते हैं:

D_male = 1 यदि व्यक्ति पुरुष है, 0 अन्यथा

D_female = 1 यदि व्यक्ति महिला है, 0 अन्यथा

और फिर हम निम्नलिखित मॉडल का अनुमान लगाने का प्रयास करते हैं:

Yᵢ = β₀ + β₁D_maleᵢ + β₂D_femaleᵢ + … + uᵢ

समस्या यह है कि प्रत्येक अवलोकन के लिए, D_maleᵢ + D_femaleᵢ = 1 होता है। यह अंतःखंड पद (β₀) से जुड़े प्रतिगामी (regressor) के समान है, जो सभी अवलोकनों के लिए 1 का एक स्तंभ है। प्रतिगामियों के बीच यह सटीक रैखिक संबंध पूर्ण बहुसंरेखता का कारण बनता है। नतीजतन, डेटा मैट्रिक्स (X’X) एकवचन (singular) हो जाता है और इसका व्युत्क्रम नहीं किया जा सकता है, जो OLS अनुमानों की गणना के लिए आवश्यक है।

समाधान: इस पाश से बचने के लिए, नियम यह है कि यदि किसी गुणात्मक चर में ‘m’ श्रेणियां हैं, तो मॉडल में केवल ‘m-1’ तदर्थ चर शामिल करें। छोड़ी गई श्रेणी आधार या संदर्भ श्रेणी (base or reference category) बन जाती है। शामिल किए गए तदर्थ चरों के गुणांकों की व्याख्या इस आधार श्रेणी के सापेक्ष अंतर के रूप में की जाती है।

(ग) त्रुटि चर की प्रसामान्यता की कसौटी (Test for Normality of the Error Variable)

शास्त्रीय रैखिक प्रतिगमन मॉडल (CLRM) की एक महत्वपूर्ण धारणा यह है कि त्रुटि पद (uᵢ) सामान्य रूप से वितरित (normally distributed) होते हैं। यह धारणा विशेष रूप से छोटे नमूनों में परिकल्पना परीक्षण (t-परीक्षण और F-परीक्षण) की वैधता के लिए आवश्यक है। बड़े नमूनों में, केंद्रीय सीमा प्रमेय के कारण, यदि अन्य CLRM धारणाएं बनी रहती हैं, तो OLS अनुमानक लगभग सामान्य रूप से वितरित होते हैं, भले ही त्रुटियां न हों।

त्रुटि प्रसामान्यता का परीक्षण करने के लिए सबसे व्यापक रूप से इस्तेमाल की जाने वाली कसौटी जारके-बेरा (Jarque-Bera, JB) परीक्षण है।

जारके-बेरा (JB) परीक्षण: यह परीक्षण जांचता है कि क्या OLS प्रतिगमन से प्राप्त अवशिष्टों (residuals) में एक सामान्य वितरण के अनुरूप तिरछापन (skewness) और ककुदता (kurtosis) है।

  • शून्य परिकल्पना (H₀): त्रुटियां सामान्य रूप से वितरित हैं।
  • एक सामान्य वितरण में, तिरछापन (S) = 0 और ककुदता (K) = 3 होता है।

प्रक्रिया: 1. OLS प्रतिगमन चलाएं और अवशिष्ट (ûᵢ) प्राप्त करें। 2. अवशिष्टों के नमूना तिरछापन (S) और नमूना ककुदता (K) की गणना करें। 3. JB सांख्यिकी की गणना निम्न सूत्र का उपयोग करके की जाती है:

JB = (n/6) * [ S² + ( (K-3)² / 4 ) ]

जहाँ ‘n’ नमूना आकार है।

व्याख्या: शून्य परिकल्पना के तहत, JB सांख्यिकी का वितरण 2 डिग्री की स्वतंत्रता के साथ एक काई-वर्ग (chi-squared, χ²) वितरण होता है।

  • यदि परिकलित JB सांख्यिकी का मान एक चुने हुए सार्थकता स्तर (जैसे 5%) पर χ² के क्रांतिक मान से अधिक है, या यदि JB सांख्यिकी का p-मान 0.05 से कम है, तो हम शून्य परिकल्पना को अस्वीकार करते हैं।
  • H₀ को अस्वीकार करने का मतलब है कि इस बात के प्रमाण हैं कि त्रुटियां सामान्य रूप से वितरित नहीं हैं।

यदि प्रसामान्यता को अस्वीकार कर दिया जाता है, तो बड़े नमूनों में, हम अभी भी अनुमानों पर भरोसा कर सकते हैं, लेकिन छोटे नमूनों में, परिकल्पना परीक्षणों के परिणाम अविश्वसनीय हो सकते हैं।

IGNOU MECE-101 Previous Year Solved Question Paper in English

Q1. Consider the regression model : Yᵢ = β₁ + β₂Xᵢ + uᵢ where Yᵢ is hourly wage rate and Xᵢ is years of schooling. Also xᵢ = (Xᵢ – X̄) and yᵢ = (Yᵢ – Ȳ). The following data is given : ΣYᵢ = 307.35, ΣXᵢ = 6608.0 ΣXᵢ² = 87040.0, ΣXᵢYᵢ = 440.65 ΣYᵢ² = 25446.29, Σxᵢ² = 4025.43 Σyᵢ² = 760.44, Σxᵢyᵢ = 279.204 Σuᵢ² = 5980.68, n = 526 (a) Compute OLS estimator of β₁ and β₂. Interpret their results. (b) Compute the value of the coefficient of determination (R²). Interpret the results.

Ans. (a) Computation and Interpretation of OLS estimators of β₁ and β₂: For the given model Yᵢ = β₁ + β₂Xᵢ + uᵢ, the OLS estimator formulas are: Estimator for the slope coefficient: β̂₂ = Σxᵢyᵢ / Σxᵢ² Estimator for the intercept: β̂₁ = Ȳ – β̂₂X̄ First, we compute β̂₂ using the given data in deviation form: Σxᵢyᵢ = 279.204 Σxᵢ² = 4025.43 β̂₂ = 279.204 / 4025.43 ≈ 0.06936 Next, we compute the means to calculate β̂₁: X̄ = ΣXᵢ / n = 6608.0 / 526 ≈ 12.5627 Ȳ = ΣYᵢ / n = 307.35 / 526 ≈ 0.5843 Substituting these values into the formula for β̂₁: β̂₁ = 0.5843 – (0.06936 * 12.5627) ≈ 0.5843 – 0.8715 ≈ -0.2872 The estimated regression equation is: Ŷᵢ = -0.2872 + 0.06936Xᵢ Interpretation of the results:

  • β̂₂ (Slope coefficient): The estimated value is 0.06936. This means that, holding all other factors constant, an additional year of schooling is expected to increase the hourly wage rate by approximately 0.069 units, on average. This indicates a positive relationship between schooling and wages, which is consistent with economic theory.
  • β̂₁ (Intercept): The estimated value is -0.2872. Theoretically, this is the predicted hourly wage rate for an individual with zero years of schooling (Xᵢ=0). A negative wage rate is economically nonsensical. This often indicates that the linear form of the model does not extrapolate well outside the range of the data, particularly near X=0.

(b) Computation and Interpretation of the coefficient of determination (R²):

The coefficient of determination, R², measures the proportion of the variation in the dependent variable (Y) that is explained by the independent variable (X). The formula for its calculation is:

R² = (Σxᵢyᵢ)² / (Σxᵢ² * Σyᵢ²)

Using the given values (Note: The English version had a typo `Ly? न 60.44`, while the Hindi version had `Ly? = 760.44`. We use 760.44 as it yields a plausible R² value):

R² = (279.204)² / (4025.43 * 760.44)

R² ≈ 77954.9 / 3061141.6 ≈

0.0255

Interpretation of the results:

The value of R² is approximately 0.0255, or 2.55%. This means that only

2.55%

of the total variation in the hourly wage rate is explained by the variation in years of schooling. This is a very low R² value, suggesting that years of schooling alone is a very weak predictor of hourly wages. Many other important factors that influence wages (such as experience, gender, occupation, innate ability) are not included in this simple regression model.

Q2. What is meant by autocorrelation ? How is it detected ? Explain one remedial measure to deal with autocorrelation.

Ans. Meaning of Autocorrelation: Autocorrelation, also known as serial correlation, is a violation of the assumptions of the Classical Linear Regression Model (CLRM). It refers to the presence of a correlation between the error terms of a regression model across different observations, typically in time-series data. Mathematically, autocorrelation means that the covariance of the error terms is not zero: Cov(uᵢ, uⱼ) ≠ 0 for i ≠ j This violates the CLRM assumption that the error terms are independent of one another. The consequences of autocorrelation are that OLS estimators are no longer BLUE (Best Linear Unbiased Estimator); while they remain unbiased, they are inefficient (not ‘Best’), and their standard errors are incorrect, leading to unreliable hypothesis tests. Detection of Autocorrelation: There are several methods to detect autocorrelation:

  • Graphical Method: This is an informal method where the residuals (ûᵢ) from an OLS regression are plotted against time. If the plot shows a clear pattern (e.g., a wave-like or cyclical pattern), it is indicative of autocorrelation.
  • Durbin-Watson (DW) d-statistic: This is the most famous test for first-order autocorrelation (AR(1)). The d-statistic is calculated and compared to two critical values, dₗ (lower bound) and dᵤ (upper bound). The outcome depends on where the statistic falls: positive autocorrelation, no autocorrelation, inconclusive region, or negative autocorrelation. Its major limitation is that it’s not applicable for models with lagged dependent variables.
  • Breusch-Godfrey (BG) Test: This is a more general and powerful test. It can test for higher-order autocorrelation and is also valid for models that include lagged values of the dependent variable, where the DW test is inappropriate. It is an LM (Lagrange Multiplier) test based on an auxiliary regression of the residuals on the original regressors and lagged residuals.


Remedial Measure: The Cochrane-Orcutt Procedure

When autocorrelation is detected, a common remedial measure is to use a procedure that transforms the model so that the new error term is free of autocorrelation. The Cochrane-Orcutt iterative procedure is one such method, which is a form of Generalized Least Squares (GLS).

  1. Estimate the original model: Apply OLS to the original model Yₜ = β₁ + β₂Xₜ + uₜ and obtain the residuals, ûₜ.
  2. Estimate ρ (rho): Assuming the errors follow a first-order autoregressive (AR(1)) scheme (uₜ = ρuₜ₋₁ + εₜ), estimate the autocorrelation coefficient (ρ) by regressing the residuals on their one-period lagged values: ûₜ = ρûₜ₋₁ + vₜ This gives an estimate of ρ, denoted as ρ̂.
  3. Transform the variables: Use ρ̂ to create quasi-differenced or transformed variables: Y*ₜ = Yₜ – ρ̂Yₜ₋₁ X*ₜ = Xₜ – ρ̂Xₜ₋₁
  4. Estimate the transformed model: Run an OLS regression on the transformed variables: Y ₜ = β₁ + β₂X*ₜ + εₜ where β₁ = β₁(1 – ρ̂). The estimator of β₂ from this regression is now BLUE, and an estimate of β₁ can be recovered from β̂₁ / (1 – ρ̂). The new error term, εₜ, is now serially uncorrelated, allowing for reliable hypothesis testing. This procedure can be iterated until the estimates of ρ̂ converge in successive iterations.

Q3. Consider the regression model : Y = β₁ + β₂X₂ + β₃X₃ + u where u follows N(0, σ²). The sample size is 25. Suppose you have to estimate the hypothesis β₂ = β₃ = 0. Explain the steps to test the hypothesis.

Ans. The hypothesis H₀: β₂ = β₃ = 0 is a joint hypothesis . It tests whether the independent variables X₂ and X₃ are simultaneously or jointly statistically significant in explaining the dependent variable Y. The standard method to test such a hypothesis is the F-test , also known as the test for overall significance or the test for restrictions on a regression. The steps to test the hypothesis are as follows: Step 1: Estimate the Unrestricted Model First, we estimate the full or unrestricted model, which includes all the variables: Y = β₁ + β₂X₂ + β₃X₃ + u After applying OLS to this model, we obtain the Unrestricted Residual Sum of Squares (RSS_UR) . The degrees of freedom for this model is df_UR = n – k , where n is the sample size and k is the number of parameters estimated. In this case, n = 25 and k = 3 (for β₁, β₂, β₃). So, df_UR = 25 – 3 = 22 . Step 2: Estimate the Restricted Model Next, we impose the restrictions given by the null hypothesis (H₀), which are β₂ = 0 and β₃ = 0. Substituting these restrictions into the original model gives us the restricted model: Y = β₁ + u We estimate this simple model and obtain the Restricted Residual Sum of Squares (RSS_R) . The degrees of freedom for the restricted model is df_R = n – k_R , where k_R is the number of parameters in the restricted model. In this case, k_R = 1 (only β₁). So, df_R = 25 – 1 = 24 . Step 3: Calculate the F-statistic The F-statistic is computed using the RSS_UR and RSS_R. The formula is: F = [ (RSS_R – RSS_UR) / m ] / [ RSS_UR / (n – k) ] Where:

  • RSS_R = Residual Sum of Squares from the restricted model.
  • RSS_UR = Residual Sum of Squares from the unrestricted model.
  • m = Number of restrictions imposed in the null hypothesis. In this case, m = 2 (since β₂=0 and β₃=0).
  • n = Sample size = 25.
  • k = Number of parameters in the unrestricted model = 3.


Step 4: Make a Decision

We compare the calculated F-statistic (F_calc) with a critical value (F_crit) from the F-distribution at a chosen level of significance, α (e.g., 0.05). The degrees of freedom for the critical value are

m

for the numerator and

(n – k)

for the denominator.

In this case, the degrees of freedom would be (2, 22).

The decision rule is:

  • If F_calc > F_crit(α, m, n-k) , we reject the null hypothesis (H₀). This means that β₂ and β₃ are jointly different from zero, and the variables X₂ and X₃ are jointly significant in explaining Y.
  • If F_calc ≤ F_crit(α, m, n-k) , we fail to reject H₀. We cannot conclude that X₂ and X₃ are jointly significant.

Q4. When do you encounter the problem of heteroscedasticity in data ? Explain how you would detect the presence of heteroscedasticity.

Ans. Introduction to Heteroscedasticity: Heteroscedasticity means “unequal variance.” In econometrics, it refers to a situation where the variance of the error term (uᵢ) in a regression model is not constant across all observations. This is a violation of the homoscedasticity assumption of the Classical Linear Regression Model (CLRM), which assumes that Var(uᵢ) = σ² (a constant). Under heteroscedasticity, Var(uᵢ) = σᵢ², meaning the variance changes with each observation i. When Heteroscedasticity is Encountered: The problem is particularly common in the following types of data and situations:

  • Cross-sectional data: This is the most common setting for heteroscedasticity. For example, when analyzing data on household income and consumption, higher-income households have more discretionary income and choice in their spending, leading to greater variability in their consumption patterns compared to low-income households. Similarly, the profits of large firms might show more variability than those of small firms.
  • Error-learning models: As time passes, people learn from their mistakes, and the magnitude of errors may decrease. For instance, in learning to type, the number and variance of errors tend to decrease over time.
  • Presence of Outliers: Extreme values (outliers) in the data can cause large deviations in the residuals, increasing the error variance for those observations.
  • Model Specification Error: If an important explanatory variable is omitted from the model or if the wrong functional form is used, its effect may be captured by the error term, causing the error variance to change systematically and appear as heteroscedasticity.


Detection of Heteroscedasticity:

There are several informal and formal methods to detect heteroscedasticity:

  1. Graphical Method (Informal): This is one of the simplest methods. Plot the squared residuals (ûᵢ²) from the OLS regression against the predicted Y (Ŷᵢ) or against one of the explanatory variables (Xᵢ).
    • If the spread of the points is random and shows no obvious pattern, homoscedasticity is likely.
    • If a systematic pattern emerges—such as a cone shape where the spread increases (or decreases) as Ŷᵢ or Xᵢ increases—it is a strong indication of heteroscedasticity.
  2. Park Test: This is a formal test that involves regressing the logarithm of the squared residuals on the logarithm of an explanatory variable: ln(ûᵢ²) = α + β ln(Xᵢ) + vᵢ If the slope coefficient β is statistically significant (using a t-test), it supports the presence of heteroscedasticity related to Xᵢ.
  3. Glejser Test: Similar to the Park test, this regresses the absolute values of the residuals (|ûᵢ|) on some function of an explanatory variable Xᵢ, such as: |ûᵢ| = α + βXᵢ + vᵢ or |ûᵢ| = α + β√Xᵢ + vᵢ If β is statistically significant, the hypothesis of heteroscedasticity is supported.
  4. White’s General Heteroscedasticity Test: This is a very general and popular test because it does not assume a specific form of heteroscedasticity. It runs an auxiliary regression of the squared residuals (ûᵢ²) on the original explanatory variables, their squares, and their cross-products. The overall significance of this auxiliary regression is evaluated via an F-test or an LM-test (the nR² statistic). If the test is significant, we reject the null hypothesis of homoscedasticity.

Q5. Explain why measurement error in the explanatory variable will lead to inconsistent estimators.

Ans. Measurement error in an explanatory variable is a serious problem in econometrics because it violates a key assumption of the Classical Linear Regression Model (CLRM), causing the OLS (Ordinary Least Squares) estimators to be biased and inconsistent . Inconsistency means that even as the sample size increases, the estimator does not converge to the true parameter value. Let’s demonstrate this with a simple regression model: True Model: Yᵢ = β₁ + β₂Xᵢ* + uᵢ Here, Yᵢ is the dependent variable, Xᵢ is the true, but unobservable, explanatory variable, and uᵢ is an error term satisfying the classical assumptions (notably, E(uᵢ)=0 and Cov(Xᵢ , uᵢ)=0). Introduction of Measurement Error: We cannot observe Xᵢ* directly. Instead, we observe a proxy variable, Xᵢ, which contains measurement error: Xᵢ = Xᵢ* + eᵢ Here, Xᵢ is the observed variable and eᵢ is the measurement error. We typically assume that eᵢ has a zero mean (E(eᵢ)=0), is uncorrelated with the true value Xᵢ (Cov(Xᵢ , eᵢ)=0), and is also uncorrelated with the model’s error term uᵢ (Cov(uᵢ, eᵢ)=0). Effect on the Estimated Model: When we run the regression using the observed data, we are actually estimating the following model: Yᵢ = β₁ + β₂Xᵢ + vᵢ To see what the error term vᵢ is, we substitute Xᵢ* = Xᵢ – eᵢ into the true model: Yᵢ = β₁ + β₂(Xᵢ – eᵢ) + uᵢ Yᵢ = β₁ + β₂Xᵢ – β₂eᵢ + uᵢ So, the composite error term in the estimated model is: vᵢ = uᵢ – β₂eᵢ The Cause of Inconsistency: A key condition for OLS estimators to be consistent is that the explanatory variable must be uncorrelated with the error term, i.e., Cov(Xᵢ, vᵢ) = 0. Let’s check this covariance: Cov(Xᵢ, vᵢ) = Cov(Xᵢ* + eᵢ, uᵢ – β₂eᵢ) Expanding this using the properties of covariance: Cov(Xᵢ, vᵢ) = Cov(Xᵢ , uᵢ) – β₂Cov(Xᵢ , eᵢ) + Cov(eᵢ, uᵢ) – β₂Cov(eᵢ, eᵢ) Based on our assumptions:

  • Cov(Xᵢ*, uᵢ) = 0 (assumption of the true model)
  • Cov(Xᵢ*, eᵢ) = 0 (measurement error is unrelated to true value)
  • Cov(eᵢ, uᵢ) = 0 (measurement error is unrelated to regression error)
  • Cov(eᵢ, eᵢ) = Var(eᵢ) = σₑ² (the variance of the measurement error)

Substituting these in, we get:

Cov(Xᵢ, vᵢ) = 0 – β₂(0) + 0 – β₂σₑ² =

-β₂σₑ²

Conclusion:

Since measurement error exists (σₑ² > 0) and we assume β₂ ≠ 0, the covariance

Cov(Xᵢ, vᵢ) ≠ 0

. The observed explanatory variable Xᵢ is correlated with the new error term vᵢ. This violates a fundamental assumption of OLS.

This correlation renders the OLS estimator β̂₂ biased and inconsistent. It can be shown that the probability limit of the estimator is:

plim(β̂₂) = β₂

[ Var(X

) / (Var(X

) + Var(e)) ] = β₂

[ σₓ

² / (σₓ

² + σₑ²) ]

Since the term in the brackets is less than 1, the OLS estimator will be biased towards zero. This is known as

attenuation bias

. The estimator underestimates the magnitude of the true coefficient, and this bias does not disappear even as the sample size grows, hence the estimator is inconsistent.

Q6. Explain the concept of Best Linear Unbiased Estimators (BLUE). Prove that OLS estimators are BLUE.

Ans. The Concept of Best Linear Unbiased Estimator (BLUE): BLUE is an acronym for an estimator that possesses three crucial properties: it is the Best , Linear , and Unbiased estimator. It is a central concept in econometrics for describing the properties of OLS (Ordinary Least Squares) estimators, as stated in the Gauss-Markov Theorem. Let’s break down each term:

  • Linear: An estimator is linear if it is a linear function of the values of the dependent variable, Y. For example, the slope estimator β̂₂ in a simple regression can be written as β̂₂ = ΣkᵢYᵢ, where the kᵢ are weights that depend only on the values of the explanatory variable X.
  • Unbiased: An estimator is unbiased if its expected value or average value (if we were to take repeated samples) is equal to the true population parameter. Mathematically, E(β̂) = β. This means that, on average, the estimator gives the correct value.
  • Best: ‘Best’ means having the minimum variance. A BLUE estimator has the smallest variance in the class of all linear unbiased estimators. This means it is the most efficient and precise, as its values are less spread out around the true parameter value.

In short, a BLUE estimator is the most efficient one out of all estimators that are both linear and unbiased.


Proof that OLS Estimators are BLUE (Gauss-Markov Theorem):

The Gauss-Markov theorem states that under the assumptions of the CLRM (zero mean of errors, homoscedasticity, no autocorrelation, and zero covariance between explanatory variables and the error term), the OLS estimators are BLUE.

Let’s prove this for the slope coefficient β₂ in the simple linear regression model Yᵢ = β₁ + β₂Xᵢ + uᵢ.

The OLS estimator β̂₂ = Σxᵢyᵢ / Σxᵢ² = Σxᵢ(Yᵢ – Ȳ) / Σxᵢ². This can be rearranged in terms of Yᵢ:

β̂₂ = Σ(xᵢ/Σxᵢ²)Yᵢ = ΣkᵢYᵢ, where kᵢ = xᵢ/Σxᵢ².


1. Linearity:

Since β̂₂ can be written as ΣkᵢYᵢ, it is a linear function of the dependent variable Yᵢ. Hence, it is

Linear

.


2. Unbiasedness:

We substitute Yᵢ = β₁ + β₂Xᵢ + uᵢ into the formula for β̂₂:

β̂₂ = Σkᵢ(β₁ + β₂Xᵢ + uᵢ) = β₁Σkᵢ + β₂ΣkᵢXᵢ + Σkᵢuᵢ

Using properties of the weights kᵢ, it can be shown that Σkᵢ=0 and ΣkᵢXᵢ=1.

So, the equation becomes:

β̂₂ = β₂(1) + Σkᵢuᵢ = β₂ + Σkᵢuᵢ

Now, take the expected value:

E(β̂₂) = E(β₂ + Σkᵢuᵢ) = β₂ + E(Σkᵢuᵢ) = β₂ + ΣkᵢE(uᵢ)

Since E(uᵢ) = 0, we get E(β̂₂) = β₂.

Thus, the OLS estimator is

Unbiased

.


3. Best (Minimum Variance):

First, find the variance of β̂₂:

Var(β̂₂) = Var(β₂ + Σkᵢuᵢ) = Var(Σkᵢuᵢ) = Σkᵢ²Var(uᵢ)

Using CLRM assumptions (homoscedasticity, Var(uᵢ)=σ²):

Var(β̂₂) = σ²Σkᵢ² = σ²Σ(xᵢ/Σxᵢ²)² = σ² (Σxᵢ² / (Σxᵢ²)²) =

σ²/Σxᵢ²

Now, consider any other linear unbiased estimator of β₂, say β₂*.

β₂* = ΣcᵢYᵢ, where cᵢ are some other weights.

For β₂* to be unbiased, it must satisfy Σcᵢ=0 and ΣcᵢXᵢ=1.

The variance of β₂

is Var(β₂

) = Var(ΣcᵢYᵢ) = σ²Σcᵢ².

We want to show that Var(β₂*) ≥ Var(β̂₂).

Let cᵢ = kᵢ + dᵢ. Using the unbiasedness conditions, one can show that Σdᵢ=0 and Σdᵢxᵢ=0.

Var(β₂*) = σ²Σ(kᵢ + dᵢ)² = σ²(Σkᵢ² + Σdᵢ² + 2Σkᵢdᵢ)

The term Σkᵢdᵢ can be shown to be zero: Σkᵢdᵢ = Σ(xᵢ/Σxᵢ²)dᵢ = (1/Σxᵢ²)Σxᵢdᵢ = 0.

So, Var(β₂*) = σ²(Σkᵢ² + Σdᵢ²) = Var(β̂₂) + σ²Σdᵢ².

Since σ²Σdᵢ² ≥ 0, we have:


Var(β₂*) ≥ Var(β̂₂)

This means the variance of any other linear unbiased estimator is greater than or equal to the variance of the OLS estimator. Therefore, the OLS estimator is

Best

.

Since the OLS estimator is Linear, Unbiased, and Best, it is

BLUE

.

Q7. Consider the following Keynesian model of income determination : Consumption function : Cₜ = β₀ + β₁Yₜ + uₜ Income identity : Yₜ = Cₜ + Iₜ Assume that 0 < β₁ < 1. The error term follows the classical assumptions : E(uₜ) = 0, E(uₜ)² = σ², E(uₜ, uⱼ) = 0. Show that the model has an endogeneity problem.

Ans. Introduction to the Endogeneity Problem: In econometrics, an endogeneity problem arises when an explanatory variable in a regression model is correlated with the error term. This violates a key assumption of OLS (Ordinary Least Squares), which requires Cov(X, u) = 0. When endogeneity is present, OLS estimators become biased and inconsistent. In the given Keynesian model, we have two equations: 1. Consumption function: Cₜ = β₀ + β₁Yₜ + uₜ 2. Income identity: Yₜ = Cₜ + Iₜ In the consumption function, the explanatory variable is income (Yₜ). To show that the model has an endogeneity problem, we need to demonstrate that Yₜ is correlated with the error term uₜ, i.e., that Cov(Yₜ, uₜ) ≠ 0 . Demonstrating Endogeneity: We start by deriving a ‘reduced form’ equation for income (Yₜ), which expresses Yₜ as a function of only exogenous variables and the error term. In this model, we assume investment (Iₜ) is exogenous. 1. Substitution: Substitute the consumption function (equation 1) into the income identity (equation 2): Yₜ = (β₀ + β₁Yₜ + uₜ) + Iₜ 2. Solve for Yₜ: Move the terms involving Yₜ to one side of the equation: Yₜ – β₁Yₜ = β₀ + Iₜ + uₜ Yₜ(1 – β₁) = β₀ + Iₜ + uₜ 3. Obtain the Reduced Form: Divide by (1 – β₁) to isolate Yₜ: Yₜ = [ β₀ / (1 – β₁) ] + [ 1 / (1 – β₁) ]Iₜ + [ 1 / (1 – β₁) ]uₜ This equation expresses Yₜ in terms of the exogenous variable Iₜ and the structural error term uₜ. 4. Calculate the Covariance: Now, we can calculate the covariance between the explanatory variable Yₜ and the error term uₜ: Cov(Yₜ, uₜ) = Cov ( [ β₀ / (1 – β₁) ] + [ 1 / (1 – β₁) ]Iₜ + [ 1 / (1 – β₁) ]uₜ , uₜ ) Using the properties of covariance (covariance of a constant is zero, and we assume the exogenous investment is uncorrelated with the error term, i.e., Cov(Iₜ, uₜ)=0): Cov(Yₜ, uₜ) = Cov([β₀/(1-β₁)], uₜ) + Cov([(1/(1-β₁))Iₜ], uₜ) + Cov([(1/(1-β₁))uₜ], uₜ) Cov(Yₜ, uₜ) = 0 + (1 / (1 – β₁)) Cov(Iₜ, uₜ) + (1 / (1 – β₁)) Cov(uₜ, uₜ) Cov(Yₜ, uₜ) = 0 + 0 + (1 / (1 – β₁)) Var(uₜ) 5. Final Result: Since the variance of the error term is Var(uₜ) = σ² (which is greater than zero), we get: Cov(Yₜ, uₜ) = σ² / (1 – β₁) Given that 0 < β₁ < 1, the denominator (1 – β₁) is not zero. Also, σ² > 0. Therefore, Cov(Yₜ, uₜ) ≠ 0 . Conclusion: Because the explanatory variable income (Yₜ) is correlated with the error term (uₜ), there is an endogeneity problem in the consumption function. Income and consumption are determined simultaneously, making Yₜ an endogenous variable. A direct application of OLS to this equation will yield biased and inconsistent estimates of β₀ and β₁. To solve this problem, methods such as Indirect Least Squares or Two-Stage Least Squares would be required.

Q8. Suppose you have to build an econometric model for determinants of household consumption. What model selection criteria will you use ?

Ans. When building an econometric model for the determinants of household consumption, a combination of several criteria should be used to select the ‘best’ model. No single criterion is sufficient, and the selection process should involve both statistical rigor and economic theory. The key criteria I would use are as follows: 1. Theoretical Plausibility: This is the most important criterion. The model should be grounded in established economic theories, such as the Keynesian consumption function, the life-cycle hypothesis, or the permanent income hypothesis.

  • Choice of variables: Theory suggests key determinants should include current disposable income, wealth, interest rates, and expectations of future income. Demographic factors like family size, age, and education are also relevant.
  • Expected signs of coefficients: Theory guides the expected signs of the coefficients. For instance, income and wealth should have a positive effect on consumption (β_income > 0), while the effect of interest rates might be ambiguous (higher rates could encourage saving, reducing consumption).


2. Goodness-of-Fit:

This criterion measures how well the model fits the data.

  • R-squared (R²): Indicates the proportion of variation in consumption that is explained by the model. A high R² is desirable, but it should not be the sole goal.
  • Adjusted R-squared (Adjusted R²): This is superior to R² as it penalizes the inclusion of additional variables that do not significantly improve the explanatory power. When comparing different models, I would prefer the one with a higher adjusted R², provided other criteria are also met.


3. Statistical Significance of Coefficients:

  • t-tests: Each individual coefficient in the model should be statistically significant (typically at the 5% level). An insignificant coefficient may suggest that the corresponding variable can be dropped from the model, unless theory strongly suggests its inclusion.
  • F-test: The model as a whole must be significant, as measured by the F-test. This tests the joint hypothesis that all slope coefficients are zero.


4. Information Criteria:

When comparing non-nested models (i.e., one model is not a subset of the other), AIC and BIC are useful.

  • Akaike Information Criterion (AIC)
  • Bayesian Information Criterion (BIC)

Both criteria balance the model’s goodness-of-fit with the number of parameters (complexity). The model with the

lowest AIC or BIC value

is preferred. BIC tends to impose a larger penalty for more parameters than AIC, and thus it favors more parsimonious models.


5. Diagnostic Tests:

The final chosen model should be checked for violations of the CLRM assumptions.

  • Heteroscedasticity: Should be checked using White’s test, as it is common in consumption data. If present, robust standard errors should be used.
  • Multicollinearity: Check for high correlation between variables by calculating the VIF (Variance Inflation Factor).
  • Specification Error: The RESET test can be used to check if there are omitted relevant variables or if the functional form is incorrect.

In summary, my approach would be to select a model that is theoretically coherent, has a high adjusted R², significant coefficients, and passes all relevant diagnostic tests. Among different specifications, I would favor the one with the lowest AIC/BIC.

Q9. Explain how dummy variable method can be used for testing of structural stability in an econometric model.

Ans. Structural stability refers to whether the coefficients of an econometric model are constant or stable across different subsets of the data. A structural break occurs when these coefficients change at a certain point in time or between different groups (e.g., male/female, pre-war/post-war). While the Chow test is a traditional way to test for structural stability, the dummy variable method provides a more flexible and informative alternative. This method not only tests if a break has occurred but can also indicate where the break is—in the intercept, the slope, or both. Steps for Testing using the Dummy Variable Method: Let’s assume we want to test the stability of a simple regression model: Yᵢ = β₁ + β₂Xᵢ + uᵢ And we suspect there might be a structural break between two periods (Period 1 and Period 2). Let there be n₁ observations in Period 1 and n₂ in Period 2. Step 1: Define a Dummy Variable We create a dummy variable, D, that distinguishes between the two periods: Dᵢ = 0 if observation i is from Period 1 Dᵢ = 1 if observation i is from Period 2 Step 2: Create an Unrestricted Model Instead of running separate regressions, we estimate a single, unrestricted model on the entire dataset (n = n₁ + n₂) that allows both the intercept and the slope to change. This is done by including the dummy variable as an intercept modifier and, multiplied with an explanatory variable, as a slope modifier (an interaction term): Yᵢ = α₁ + α₂Dᵢ + β₁Xᵢ + β₂(Dᵢ * Xᵢ) + vᵢ The coefficients in this model have the following interpretations:

  • α₁: The intercept for Period 1.
  • α₁ + α₂: The intercept for Period 2. ( α₂ is the differential intercept for Period 2).
  • β₁: The slope for Period 1.
  • β₁ + β₂: The slope for Period 2. ( β₂ is the differential slope for Period 2).


Step 3: Formulate the Hypothesis

The null hypothesis (H₀) of structural stability is that the coefficients are the same in both periods. This means the differential intercept and differential slope are both zero.


H₀: α₂ = 0 and β₂ = 0

The alternative hypothesis (H₁) is that at least one is not equal to zero, indicating a structural break.


Step 4: Test the Hypothesis

This is a joint hypothesis test on the coefficients of the dummy variable (Dᵢ) and the interaction term (Dᵢ * Xᵢ). We use an

F-test

:

  1. Estimate the unrestricted model from Step 2 and get its Residual Sum of Squares (RSS_UR).
  2. Estimate the restricted model, which is what results when H₀ is true (α₂ = 0, β₂ = 0). This is just the original pooled regression on the whole dataset: Yᵢ = α₁ + β₁Xᵢ + vᵢ. Get its Residual Sum of Squares (RSS_R).
  3. Calculate the F-statistic: F = [ (RSS_R – RSS_UR) / m ] / [ RSS_UR / (n – k) ] where m = number of restrictions (2 here), n = total number of observations, and k = number of parameters in the unrestricted model (4 here).


Step 5: Conclusion

Compare the calculated F-value to a critical F-value with (m, n-k) degrees of freedom.

  • If F_calculated > F_critical , we reject H₀. We conclude there is a statistically significant structural break.
  • If F_calculated ≤ F_critical , we fail to reject H₀, suggesting the relationship is structurally stable.

An advantage of the dummy variable approach is that we can also perform individual t-tests on α₂ or β₂ to see if the break is only in the intercept, only in the slope, or in both.

Q10. Write short notes on any two of the following : (a) Dummy variable trap (b) RESET test (c) Test for normality of the error variable

Ans. (a) Dummy Variable Trap The dummy variable trap is a situation that arises in regression analysis when a dummy variable is included for every category of a qualitative variable, in addition to an intercept term in the model. This leads to perfect multicollinearity , making it impossible to compute the OLS estimators. Example: Suppose we have a qualitative variable ‘Gender’ with two categories: ‘Male’ and ‘Female’. If we create two dummy variables: D_male = 1 if the person is male, 0 otherwise D_female = 1 if the person is female, 0 otherwise And then attempt to estimate the model: Yᵢ = β₀ + β₁D_maleᵢ + β₂D_femaleᵢ + … + uᵢ The problem is that for every single observation, D_maleᵢ + D_femaleᵢ = 1 . This is the same as the regressor associated with the intercept term (β₀), which is a column of 1s for all observations. This exact linear relationship among the regressors causes perfect multicollinearity. As a result, the data matrix (X’X) becomes singular and cannot be inverted, which is necessary for calculating the OLS estimates. Solution: To avoid the trap, the rule is to always include one fewer dummy variable than the number of categories. If a qualitative variable has ‘m’ categories, include only ‘m-1’ dummy variables in the model. The omitted category becomes the base or reference category . The coefficients on the included dummy variables are then interpreted as the difference relative to this base category. (c) Test for Normality of the Error Variable A key assumption of the Classical Linear Regression Model (CLRM) is that the error terms (uᵢ) are normally distributed. This assumption is particularly crucial for the validity of hypothesis tests (t-tests and F-tests) in small samples. In large samples, due to the Central Limit Theorem, OLS estimators are approximately normally distributed even if the errors are not, provided other CLRM assumptions hold. The most widely used test for error normality is the Jarque-Bera (JB) test . Jarque-Bera (JB) Test: This test checks whether the residuals from an OLS regression have skewness and kurtosis consistent with a normal distribution.

  • Null Hypothesis (H₀): The errors are normally distributed.
  • In a normal distribution, Skewness (S) = 0 and Kurtosis (K) = 3.


Procedure:

1. Run the OLS regression and obtain the residuals (ûᵢ).

2. Calculate the sample skewness (S) and sample kurtosis (K) of the residuals.

3. The JB statistic is calculated using the formula:


JB = (n/6) * [ S² + ( (K-3)² / 4 ) ]

where ‘n’ is the sample size.


Interpretation:

Under the null hypothesis, the JB statistic has a chi-squared (χ²) distribution with 2 degrees of freedom.

  • If the calculated JB statistic’s value is greater than the critical χ² value at a chosen significance level (e.g., 5%), or if the p-value of the JB statistic is less than 0.05, we reject the null hypothesis.
  • Rejecting H₀ means there is evidence that the errors are not normally distributed.

If normality is rejected, in large samples we can still rely on the estimates, but in small samples, the results of hypothesis tests may be unreliable.


Download IGNOU previous Year Question paper download PDFs for MECE-101 to improve your preparation. These ignou solved question paper IGNOU Previous Year Question paper solved PDF in Hindi and English help you understand the exam pattern and score better.

  • IGNOU Previous Year Solved Question Papers (All Courses)

Thanks!

Share this:

  • Share on Facebook (Opens in new window) Facebook
  • Share on X (Opens in new window) X
  • More
  • Share on WhatsApp (Opens in new window) WhatsApp
  • Share on Telegram (Opens in new window) Telegram
  • Print (Opens in new window) Print
  • Email a link to a friend (Opens in new window) Email

Reader Interactions

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Primary Sidebar

लेटेस्ट अपडेट पायें

Telegram Telegram Channel Join Now
Facebook FaceBook Page Follow Us
YouTube Youtube Channel Subscribe
WhatsApp WhatsApp Channel Join Now

Search

Recent Posts

  • MSU Baroda Study Materials Free Download
  • Bhavnagar University Study Materials Free Download
  • Kachchh University Study Materials Free Download
  • BMTU Study Materials Free Download
  • SGGU Study Materials Free Download

Subscribe to Blog via Email

Enter your email address to subscribe to this blog and receive notifications of new posts by email.

Join 1,611 other subscribers

Categories

  • 10th model paper (3)
  • bed books (3)
  • Bihar Board Model Paper (7)
  • Bihar Jobs (1)
  • cg board model paper (1)
  • DELED Books (1)
  • English Posts (1)
  • Essay (1)
  • Exam Prep (9)
  • G.K quiz in hindi (7)
  • General Knowledge in hindi (सामान्य ज्ञान) (24)
  • gk 2018 in hindi (12)
  • GK 2020 (2)
  • GK HINDI 2019 (9)
  • gk pdf download (16)
  • High school science notes in Hindi (3)
  • IERT (3)
  • MODEL PAPER (30)
  • Motivational quotes in hindi (1)
  • mp board model paper (4)
  • My Thoughts (Thoughts by Sachin Yadav) (1)
  • Navy (2)
  • NCERT Books in hindi free download (1)
  • Police (2)
  • Polytechnic (6)
  • Pratiyogita Darpan 2019 (2)
  • RBSE Model Papers (2)
  • School Books (1)
  • SSC GENERAL KNOWLEDGE (7)
  • StudyTrac (69)
  • Uncategorized (54)
  • University Books (106)
  • University Question Papers (153)
  • University Study Materials (89)
  • University Syllabus (144)
  • UP Board Books (5)
  • up board model paper (10)
  • Up board model papers (16)
  • UPSC Notes (3)
  • Uttar Pradesh Jobs (2)
  • रेलवे (7)
  • सामान्य हिन्दी (3)

Footer

University Books

University Study Materials (Books and Notes) in PDF Format in Hindi and English languages.

Click here to download.

University Question Papers

University Previous Year Question Papers and Sample Papers in PDF Format for all Courses.

Click here to download.

University Syllabus

Universities Syllabus in PDF Format in the English and Hindi languages for all courses.

Click here to download.

Copyright © 2026 ·GKPAD by S.K Yadav | Disclaimer