The IGNOU BECC-107 Solved Question Paper PDF Download page is designed to help students access high-quality exam resources in one place. Here, you can find ignou solved question paper IGNOU Previous Year Question paper solved PDF that covers all important questions with detailed answers. This page provides IGNOU all Previous year Question Papers in one PDF format, making it easier for students to prepare effectively.
- IGNOU BECC-107 Solved Question Paper in Hindi
- IGNOU BECC-107 Solved Question Paper in English
- IGNOU Previous Year Solved Question Papers (All Courses)
Whether you are looking for IGNOU Previous Year Question paper solved in English or ignou previous year question paper solved in hindi, this page offers both options to suit your learning needs. These solved papers help you understand exam patterns, improve answer writing skills, and boost confidence for upcoming exams.
IGNOU BECC-107 Solved Question Paper PDF

This section provides IGNOU BECC-107 Solved Question Paper PDF in both Hindi and English. These ignou solved question paper IGNOU Previous Year Question paper solved PDF include detailed answers to help you understand exam patterns and improve your preparation. You can also access IGNOU all Previous year Question Papers in one PDF for quick and effective revision before exams.
IGNOU BECC-107 Previous Year Solved Question Paper in Hindi
Q1. परिघात (आघूर्ण) से आप क्या समझते हैं ? विषमता और कुकुदता मापने के लिए परिघात का उपयोग कैसे किया जाता है?
Ans.
परिघात (आघूर्ण) सांख्यिकीय वितरण के आकार और प्रकृति का वर्णन करने वाले संख्यात्मक माप हैं। वे माध्य के आसपास डेटा के फैलाव, विषमता और शिखरता को समझने में मदद करते हैं। परिघात की गणना या तो मूल-बिंदु (शून्य) के सापेक्ष की जा सकती है, जिसे कच्चे परिघात (raw moments) कहा जाता है, या माध्य के सापेक्ष, जिसे केंद्रीय परिघात (central moments) कहा जाता है।
मान लीजिए कि हमारे पास n अवलोकनों का एक समुच्चय x₁, x₂, …, xₙ है जिसका माध्य x̄ है।
- मूल-बिंदु के सापेक्ष r-वाँ परिघात (μ’ᵣ): इसकी गणना μ’ᵣ = (1/n) Σxᵢʳ के रूप में की जाती है। पहला कच्चा परिघात (μ’₁) माध्य ही होता है।
- माध्य के सापेक्ष r-वाँ परिघात (μᵣ): इसकी गणना μᵣ = (1/n) Σ(xᵢ – x̄)ʳ के रूप में की जाती है। ये वितरण के आकार का विश्लेषण करने के लिए अधिक उपयोगी होते हैं।
पहले चार केंद्रीय परिघात विशेष रूप से महत्वपूर्ण हैं:
- प्रथम केंद्रीय परिघात (μ₁): हमेशा शून्य होता है क्योंकि माध्य से विचलनों का योग शून्य होता है। μ₁ = (1/n) Σ(xᵢ – x̄) = 0।
- द्वितीय केंद्रीय परिघात (μ₂): यह प्रसरण (variance) (σ²) है, जो माध्य के आसपास डेटा के फैलाव को मापता है। μ₂ = (1/n) Σ(xᵢ – x̄)² = σ²।
- तृतीय केंद्रीय परिघात (μ₃): इसका उपयोग विषमता को मापने के लिए किया जाता है।
- चतुर्थ केंद्रीय परिघात (μ₄): इसका उपयोग कुकुदता (शिखरता) को मापने के लिए किया जाता है।
विषमता (Skewness) का मापन:
विषमता एक वितरण की समरूपता की कमी को मापती है। यह इंगित करता है कि डेटा माध्य के दोनों ओर समान रूप से वितरित है या नहीं।
- यदि μ₃ = 0 है, तो वितरण सममित है।
- यदि μ₃ > 0 है, तो वितरण धनात्मक रूप से विषम है (दाईं ओर लंबी पूंछ)।
- यदि μ₃ < 0 है, तो वितरण ऋणात्मक रूप से विषम है (बाईं ओर लंबी पूंछ)।
परिघात का उपयोग करके विषमता का गुणांक (β₁) इस प्रकार परिभाषित किया गया है: β₁ = μ₃² / μ₂³
यह एक सापेक्ष माप है और इकाई-मुक्त है। β₁ का वर्गमूल (γ₁ = √β₁) भी विषमता के माप के रूप में उपयोग किया जाता है, जो चिह्न को बनाए रखता है।
कुकुदता (Kurtosis) का मापन:
कुकुदता एक वितरण की “शिखरता” या “सपाटता” को सामान्य वितरण की तुलना में मापती है। यह पूंछों में डेटा की सांद्रता को इंगित करता है।
कुकुदता का गुणांक (β₂) चतुर्थ और द्वितीय परिघात का उपयोग करके परिभाषित किया गया है: β₂ = μ₄ / μ₂²
इसकी तुलना सामान्य वितरण के मान (जो 3 है) से की जाती है:
- मध्यकुकुदी (Mesokurtic): यदि β₂ = 3 है, तो वितरण में सामान्य वितरण के समान शिखरता होती है।
- तुंगकुकुदी (Leptokurtic): यदि β₂ > 3 है, तो वितरण में एक तेज शिखर और मोटी पूंछ होती है, जो यह इंगित करता है कि आउटलायर्स अधिक हैं।
- चिपिटकुकुदी (Platykurtic): यदि β₂ < 3 है, तो वितरण में एक सपाट शिखर और पतली पूंछ होती है।
इस प्रकार, केंद्रीय परिघात एक सांख्यिकीय वितरण की विशेषताओं का एक व्यापक संख्यात्मक सारांश प्रदान करते हैं।
Q2. (क) सामान्य वितरण फलन का वर्णन कीजिए। मानक सामान्य वक्र क्या है ? (ख) एक विश्लेषण से पता चलता है कि एक पेट्रोल पंप पर औसतन 10 ट्रेनें आती हैं। 15 मिनट की अवधि में दस ट्रेनें एक पेट्रोल पंप पर पहुँचती हैं। (i) 5 मिनट में 5 ट्रेनों के आने की प्रायिकता ज्ञात कीजिए। (ii) 3 मिनट में 1 ट्रेन के आने की प्रायिकता क्या है ?
Ans.
(क) सामान्य वितरण फलन और मानक सामान्य वक्र
सामान्य वितरण (Normal Distribution) , जिसे गाऊसी वितरण भी कहा जाता है, एक सतत प्रायिकता वितरण है जो सांख्यिकी में सबसे महत्वपूर्ण है। कई प्राकृतिक और सामाजिक घटनाएं लगभग सामान्य वितरण का पालन करती हैं।
इसका प्रायिकता घनत्व फलन (Probability Density Function – PDF) दो मापदंडों द्वारा परिभाषित किया गया है: माध्य (μ) और मानक विचलन (σ):
f(x) = [1 / (σ√(2π))] * e -(x-μ)² / (2σ²)
जहाँ:
- μ जनसंख्या का माध्य है।
- σ जनसंख्या का मानक विचलन है।
- π ≈ 3.14159 और e ≈ 2.71828 हैं।
सामान्य वितरण की विशेषताएँ:
- वक्र घंटी के आकार का और माध्य (μ) के परितः सममित होता है।
- माध्य, माध्यिका और बहुलक सभी बराबर होते हैं और वक्र के केंद्र में स्थित होते हैं।
- यह एक एकल-शिखर (unimodal) वितरण है।
- वक्र के दोनों सिरे क्षैतिज अक्ष के निकट आते जाते हैं लेकिन इसे कभी स्पर्श नहीं करते (अनंतस्पर्शी)।
- वक्र के अंतर्गत कुल क्षेत्रफल 1 के बराबर होता है।
मानक सामान्य वक्र (Standard Normal Curve):
मानक सामान्य वक्र सामान्य वितरण का एक विशेष मामला है जिसमें माध्य (μ) 0 और मानक विचलन (σ) 1 होता है। इस वितरण वाले एक चर को Z-चर कहा जाता है।
किसी भी सामान्य यादृच्छिक चर X को एक मानक सामान्य चर Z में बदलने की प्रक्रिया को मानकीकरण (standardization) कहा जाता है। इसका सूत्र है:
Z = (X – μ) / σ
यह रूपांतरण बहुत उपयोगी है क्योंकि यह हमें किसी भी सामान्य वितरण के लिए प्रायिकता की गणना के लिए एकल मानक सामान्य तालिका (Z-तालिका) का उपयोग करने की अनुमति देता है। Z-स्कोर यह मापता है कि एक अवलोकन माध्य से कितने मानक विचलन दूर है।
(ख) प्रायिकता गणना (प्वासों वितरण)
यह समस्या एक निश्चित समय अंतराल में होने वाली घटनाओं की संख्या से संबंधित है, जो प्वासों वितरण (Poisson Distribution) का एक उत्कृष्ट उदाहरण है। प्रश्न में एक टंकण त्रुटि प्रतीत होती है; हम यह मान लेंगे कि “15 मिनट की अवधि में दस ट्रेनें” का अर्थ है कि औसत दर 10 ट्रेनें प्रति 5 मिनट है।
प्वासों प्रायिकता सूत्र है: P(X=k) = (e -λ * λ k ) / k!
जहाँ λ (लैम्ब्डा) उस अंतराल में घटनाओं की औसत संख्या है, और k घटनाओं की वास्तविक संख्या है।
(i) 5 मिनट में 5 ट्रेनों के आने की प्रायिकता ज्ञात कीजिए।
यहाँ, समय अंतराल 5 मिनट है, और इस अंतराल के लिए औसत आगमन दर (λ) 10 है। हम k=5 के लिए प्रायिकता ज्ञात करना चाहते हैं।
λ = 10
k = 5
P(X=5) = (e -10 * 10 5 ) / 5!
P(X=5) = (0.0000454 * 100000) / 120
P(X=5) = 4.54 / 120
P(X=5) ≈ 0.0378
अतः, 5 मिनट में ठीक 5 ट्रेनों के आने की प्रायिकता लगभग 3.78% है।
(ii) 3 मिनट में 1 ट्रेन के आने की प्रायिकता क्या है?
सबसे पहले, हमें 3 मिनट के अंतराल के लिए औसत दर (λ) को समायोजित करने की आवश्यकता है।
5 मिनट में औसत दर = 10 ट्रेनें
प्रति मिनट औसत दर = 10 / 5 = 2 ट्रेनें
3 मिनट के अंतराल के लिए नई औसत दर (λ) = 2 ट्रेनें/मिनट * 3 मिनट = 6
अब, हम k=1 के लिए प्रायिकता ज्ञात करना चाहते हैं।
नया λ = 6
k = 1
P(X=1) = (e -6 * 6 1 ) / 1!
P(X=1) = (0.002478 * 6) / 1
P(X=1) ≈ 0.01487
अतः, 3 मिनट में ठीक 1 ट्रेन के आने की प्रायिकता लगभग 1.49% है।
Q3. नमूनाकरण के प्रकार कया हैं ? सरल यादृच्छिक नमूनाकरण स्तरीकृत यादृच्छिक नमूनाकरण से किस प्रकार भिन्न है ?
Ans.
नमूनाकरण (Sampling) एक बड़ी आबादी से व्यक्तियों के एक उपसमूह (एक नमूना) का चयन करने की प्रक्रिया है ताकि उस नमूने के आधार पर पूरी आबादी के बारे में अनुमान लगाया जा सके या निष्कर्ष निकाला जा सके। नमूनाकरण विधियों को मुख्य रूप से दो श्रेणियों में वर्गीकृत किया जाता है:
1. प्रायिकता नमूनाकरण (Probability Sampling):
इस विधि में, आबादी के प्रत्येक सदस्य के चुने जाने की एक ज्ञात, गैर-शून्य संभावना होती है। यह निष्पक्ष चयन सुनिश्चित करता है। इसके मुख्य प्रकार हैं:
- सरल यादृच्छिक नमूनाकरण (Simple Random Sampling – SRS): प्रत्येक सदस्य को चुने जाने का समान अवसर मिलता है।
- स्तरीकृत यादृच्छिक नमूनाकरण (Stratified Random Sampling): आबादी को सजातीय उपसमूहों (स्तरों) में विभाजित किया जाता है, और फिर प्रत्येक स्तर से यादृच्छिक रूप से नमूने लिए जाते हैं।
- व्यवस्थित नमूनाकरण (Systematic Sampling): एक यादृच्छिक प्रारंभिक बिंदु से शुरू करके, सूची से प्रत्येक k-वें सदस्य का चयन किया जाता है।
- गुच्छ नमूनाकरण (Cluster Sampling): आबादी को समूहों (गुच्छों) में विभाजित किया जाता है, और फिर गुच्छों का एक यादृच्छिक नमूना चुना जाता है और चयनित गुच्छों के सभी सदस्यों का सर्वेक्षण किया जाता है।
- बहु-स्तरीय नमूनाकरण (Multistage Sampling): यह गुच्छ नमूनाकरण का एक जटिल रूप है जिसमें कई चरणों में नमूनाकरण शामिल होता है।
2. गैर-प्रायिकता नमूनाकरण (Non-Probability Sampling):
इस विधि में, नमूने का चयन यादृच्छिक रूप से नहीं किया जाता है, बल्कि शोधकर्ता के निर्णय या सुविधा पर आधारित होता है। इसके मुख्य प्रकार हैं:
- सुविधा नमूनाकरण (Convenience Sampling): आसानी से उपलब्ध व्यक्तियों का चयन करना।
- निर्णयात्मक नमूनाकरण (Judgemental Sampling): शोधकर्ता अपने निर्णय के आधार पर नमूने का चयन करता है।
- कोटा नमूनाकरण (Quota Sampling): आबादी के समान अनुपात में उपसमूहों का प्रतिनिधित्व सुनिश्चित करने के लिए एक कोटा निर्धारित किया जाता है।
- स्नोबॉल नमूनाकरण (Snowball Sampling): मौजूदा अध्ययन विषयों से भविष्य के विषयों की भर्ती की जाती है।
सरल यादृच्छिक नमूनाकरण (SRS) और स्तरीकृत यादृच्छिक नमूनाकरण के बीच अंतर:
आधार सरल यादृच्छिक नमूनाकरण (SRS) स्तरीकृत यादृच्छिक नमूनाकरण परिभाषा एक नमूनाकरण तकनीक जिसमें आबादी के प्रत्येक सदस्य को चुने जाने का एक समान और स्वतंत्र अवसर मिलता है। एक तकनीक जिसमें आबादी को सजातीय, गैर-अतिव्यापी उपसमूहों (स्तरों) में विभाजित किया जाता है, और फिर प्रत्येक स्तर से स्वतंत्र रूप से एक SRS लिया जाता है। आबादी का प्रकार यह सबसे अच्छा काम करता है जब आबादी अपेक्षाकृत सजातीय (homogeneous) होती है। यह विषम (heterogeneous) आबादी के लिए आदर्श है जिसे सजातीय स्तरों में विभाजित किया जा सकता है। प्रक्रिया पूरी आबादी से एक ही चरण में सीधे नमूने का चयन किया जाता है। प्रक्रिया दो-चरणीय है: पहले स्तरीकरण (stratification), फिर प्रत्येक स्तर के भीतर यादृच्छिक नमूनाकरण। प्रतिनिधित्व यह पूरी आबादी का प्रतिनिधित्व करता है, लेकिन संयोग से कुछ उपसमूहों का कम या अधिक प्रतिनिधित्व हो सकता है। यह सभी महत्वपूर्ण उपसमूहों का उचित प्रतिनिधित्व सुनिश्चित करता है, जिससे नमूना अधिक प्रतिनिधि बनता है। सटीकता/परिशुद्धता समान नमूना आकार के लिए स्तरीकृत नमूनाकरण की तुलना में आमतौर पर कम सटीक (अधिक नमूनाकरण त्रुटि)। आमतौर पर अधिक सटीक (कम नमूनाकरण त्रुटि) क्योंकि यह प्रत्येक स्तर के भीतर की परिवर्तनशीलता को कम करता है। जटिलता और लागत डिजाइन और निष्पादन में सरल। डिजाइन और निष्पादन में अधिक जटिल क्योंकि इसके लिए स्तरीकरण चरों के पूर्व ज्ञान की आवश्यकता होती है। यह अधिक महंगा भी हो सकता है। संक्षेप में, जबकि SRS चयन की शुद्ध यादृच्छिकता प्रदान करता है, स्तरीकृत नमूनाकरण विषम आबादी की संरचना का बेहतर प्रतिनिधित्व करके और नमूनाकरण त्रुटि को कम करके सटीकता बढ़ाता है। चुनाव आबादी की प्रकृति और अध्ययन के उद्देश्यों पर निर्भर करता है।
Q4. मौसमी विविधताओं की माप क्या हैं ? प्रवृत्ति विधि, चलित औसत विधि से किस प्रकार भिन्न है ?
Ans.
मौसमी विविधताएँ (Seasonal Variations) एक काल श्रेणी (time series) में नियमित, आवधिक उतार-चढ़ाव हैं जो एक वर्ष से कम की अवधि में होते हैं। ये जलवायु, मौसम या छुट्टियों और त्योहारों जैसे मानव निर्मित रिवाजों के कारण होते हैं। उदाहरणों में सर्दियों में ऊनी कपड़ों की बिक्री में वृद्धि या छुट्टियों के दौरान हवाई यात्रा की मांग में वृद्धि शामिल है।
मौसमी विविधताओं को मापने और उनका विश्लेषण करने के लिए कई विधियाँ हैं, जिन्हें मौसमी सूचकांक (seasonal indices) की गणना के लिए उपयोग किया जाता है। मुख्य विधियाँ हैं:
- सरल औसत की विधि (Method of Simple Averages): यह सबसे सरल विधि है। इसमें, प्रत्येक मौसम (जैसे, प्रत्येक महीने या तिमाही) के लिए डेटा का औसत निकाला जाता है और फिर इन औसतों को एक समग्र औसत के प्रतिशत के रूप में व्यक्त किया जाता है। यह विधि प्रवृत्ति (trend) के प्रभाव को ध्यान में नहीं रखती है।
- प्रवृत्ति से अनुपात विधि (Ratio to Trend Method): इस विधि में, पहले डेटा के लिए एक प्रवृत्ति रेखा (trend line) फिट की जाती है। फिर, प्रत्येक अवधि के लिए मूल मान (Y) को संबंधित प्रवृत्ति मान (T) से विभाजित किया जाता है और 100 से गुणा किया जाता है। इन प्रतिशतों का औसत निकालकर मौसमी सूचकांक प्राप्त किया जाता है।
- चलित औसत से अनुपात विधि (Ratio to Moving Average Method): यह सबसे व्यापक रूप से इस्तेमाल की जाने वाली और प्रभावी विधि है। इसमें, प्रवृत्ति-चक्र (trend-cycle) घटक का अनुमान लगाने के लिए एक उपयुक्त अवधि का चलित औसत (moving average) गणना किया जाता है। फिर मूल मानों को चलित औसत मानों से विभाजित करके मौसमी और अनियमित घटकों (S × I) को अलग किया जाता है। इन अनुपातों का औसत निकालकर मौसमी सूचकांक प्राप्त किया जाता है।
- लिंक रिलेटिव्स विधि (Link Relatives Method): इस विधि में, प्रत्येक अवधि के डेटा को पिछली अवधि के डेटा के प्रतिशत के रूप में व्यक्त किया जाता है। इन लिंक रिलेटिव्स का औसत निकालकर और फिर उन्हें एक आधार अवधि से जोड़कर मौसमी सूचकांक प्राप्त किया जाता है।
प्रवृत्ति विधि (Ratio to Trend Method) और चलित औसत विधि (Ratio to Moving Average Method) के बीच अंतर:
दोनों विधियों का लक्ष्य मौसमी सूचकांकों की गणना के लिए काल श्रेणी से प्रवृत्ति (और चक्र) के प्रभाव को हटाना है, लेकिन वे इसे अलग-अलग तरीकों से करती हैं।
आधार प्रवृत्ति से अनुपात विधि चलित औसत से अनुपात विधि प्रवृत्ति का अनुमान यह मानती है कि प्रवृत्ति को पूरी काल श्रेणी के लिए एक ही गणितीय वक्र (जैसे, एक सीधी रेखा y = a + bx) द्वारा दर्शाया जा सकता है, जिसे न्यूनतम वर्ग विधि द्वारा फिट किया जाता है। यह किसी विशिष्ट गणितीय रूप को नहीं मानती है। यह प्रत्येक बिंदु के आसपास के मानों का औसत निकालकर स्थानीय रूप से प्रवृत्ति-चक्र का अनुमान लगाती है। लचीलापन यह विधि कठोर है। एक बार प्रवृत्ति रेखा फिट हो जाने के बाद, यह नहीं बदलती है। यह उन डेटा के लिए उपयुक्त है जहां प्रवृत्ति स्थिर है। यह विधि अधिक लचीली है क्योंकि चलित औसत प्रवृत्ति में परिवर्तनों के साथ चलता है और समायोजित होता है। यह उन डेटा के लिए बेहतर है जहां प्रवृत्ति दिशा बदलती है। डेटा का नुकसान प्रवृत्ति मानों की गणना सभी अवधियों के लिए की जा सकती है, इसलिए डेटा का कोई नुकसान नहीं होता है। चलित औसत की गणना में, काल श्रेणी की शुरुआत और अंत में कुछ डेटा बिंदु खो जाते हैं (उदाहरण के लिए, 4-तिमाही चलित औसत के लिए 2 शुरुआत में और 2 अंत में)। घटकों का पृथक्करण यह Y/T की गणना करके केवल प्रवृत्ति (T) को हटाती है, जिससे मौसमी (S), चक्रीय (C), और अनियमित (I) घटक बचते हैं। चक्रीय प्रभावों को औसत प्रक्रिया में पूरी तरह से हटाया नहीं जा सकता है। यह Y/(T×C) की गणना करके प्रवृत्ति (T) और चक्र (C) दोनों को अधिक प्रभावी ढंग से हटाती है, जिससे मौसमी (S) और अनियमित (I) घटक बचते हैं। इसलिए इसे अधिक सटीक माना जाता है। जटिलता यदि प्रवृत्ति रैखिक है तो यह अपेक्षाकृत सरल है। गैर-रैखिक प्रवृत्तियों के लिए अधिक जटिल हो सकती है। गणना अधिक कठिन और समय लेने वाली हो सकती है, खासकर यदि केंद्रित (centered) चलित औसत की आवश्यकता हो। निष्कर्ष में, चलित औसत से अनुपात विधि को आम तौर पर बेहतर माना जाता है क्योंकि यह प्रवृत्ति का अनुमान लगाने में अधिक लचीलापन प्रदान करती है और प्रवृत्ति और चक्र दोनों घटकों को अधिक प्रभावी ढंग से अलग करती है, जिससे मौसमी सूचकांकों की अधिक सटीक गणना होती है।
Q5. एक अनुमानक के वांछनीय गुण क्या हैं ?
Ans. सांख्यिकीय अनुमान में, एक अनुमानक (estimator) एक नियम या सूत्र है जिसका उपयोग जनसंख्या पैरामीटर के अनुमान की गणना के लिए नमूना डेटा पर किया जाता है। एक अनुमान (estimate) उस सूत्र को लागू करने से प्राप्त विशेष मान है। उदाहरण के लिए, नमूना माध्य (x̄) जनसंख्या माध्य (μ) का एक अनुमानक है। एक अच्छे अनुमानक में कुछ वांछनीय गुण होने चाहिए जो यह सुनिश्चित करते हैं कि यह जनसंख्या पैरामीटर का विश्वसनीय और सटीक अनुमान प्रदान करता है।
एक अच्छे अनुमानक के चार मुख्य वांछनीय गुण निम्नलिखित हैं:
1. अनभिनतता (Unbiasedness):
- एक अनुमानक को अनभिनत कहा जाता है यदि उसका अपेक्षित मान (expected value) उस जनसंख्या पैरामीटर के बराबर हो जिसका वह अनुमान लगा रहा है।
- गणितीय रूप से, यदि θ जनसंख्या पैरामीटर है और θ̂ इसका अनुमानक है, तो अनुमानक अनभिनत है यदि E(θ̂) = θ ।
- इसका मतलब यह है कि यदि हम एक ही आबादी से बार-बार नमूने लेते हैं और प्रत्येक नमूने के लिए अनुमान की गणना करते हैं, तो इन अनुमानों का औसत वास्तविक जनसंख्या पैरामीटर के बराबर होगा। अनुमानक व्यवस्थित रूप से पैरामीटर को अधिक या कम करके नहीं आंकता है।
2. दक्षता (Efficiency):
- दक्षता अनुमानक की सटीकता या परिशुद्धता से संबंधित है। दो अनभिनत अनुमानकों में से, वह अनुमानक अधिक कुशल माना जाता है जिसका प्रसरण (variance) सबसे कम हो।
- एक कुशल अनुमानक के नमूना वितरण में मान सघन रूप से वास्तविक पैरामीटर मान के आसपास केंद्रित होते हैं।
- यदि हमारे पास एक ही पैरामीटर θ के लिए दो अनभिनत अनुमानक θ̂₁ और θ̂₂ हैं, तो θ̂₁ को θ̂₂ से अधिक कुशल कहा जाता है यदि Var(θ̂₁) < Var(θ̂₂) । न्यूनतम संभव प्रसरण वाले अनुमानक को सबसे कुशल अनुमानक कहा जाता है।
3. संगति (Consistency):
- एक अनुमानक को संगत कहा जाता है यदि नमूना आकार (n) बढ़ने पर यह वास्तविक जनसंख्या पैरामीटर के मान के करीब और करीब आता जाता है।
- दूसरे शब्दों में, जैसे-जैसे नमूना आकार अनंत की ओर बढ़ता है, अनुमानक का मान संभाव्यता में जनसंख्या पैरामीटर के साथ संमिलित हो जाता है।
- गणितीय रूप से, एक अनुमानक θ̂ संगत है यदि किसी भी छोटे धनात्मक मान ε के लिए, lim (n→∞) P(|θ̂ – θ| < ε) = 1 ।
- अनिवार्य रूप से, एक बड़ा नमूना एक बेहतर अनुमान की ओर ले जाता है।
4. पर्याप्तता (Sufficiency):
- एक अनुमानक को पर्याप्त कहा जाता है यदि यह पैरामीटर के बारे में नमूने में निहित सभी जानकारी का उपयोग करता है।
- एक बार एक पर्याप्त सांख्यिकी की गणना हो जाने के बाद, मूल नमूना डेटा में कोई अतिरिक्त जानकारी नहीं होती है जो हमें पैरामीटर के बारे में और कुछ बता सके।
- यह गुण सुनिश्चित करता है कि अनुमानक डेटा का पूरी तरह से उपयोग करता है और कोई भी जानकारी बर्बाद नहीं होती है।
ये गुण सांख्यिकीविदों को विभिन्न अनुमानकों का मूल्यांकन और तुलना करने और किसी दिए गए अनुमान समस्या के लिए सबसे उपयुक्त का चयन करने में मदद करते हैं।
Q6. परिकल्पना के परीक्षण में अस्वीकृति क्षेत्र को परिभाषित कीजिए। टाइप-प और टाइप-ग] त्रुटियों का वर्णन कीजिए।
Ans.
परिकल्पना परीक्षण (Hypothesis Testing) एक सांख्यिकीय प्रक्रिया है जिसका उपयोग नमूना डेटा के आधार पर जनसंख्या पैरामीटर के बारे में एक दावे या परिकल्पना का मूल्यांकन करने के लिए किया जाता है। इस प्रक्रिया में, हम एक शून्य परिकल्पना (H₀) और एक वैकल्पिक परिकल्पना (H₁) स्थापित करते हैं।
अस्वीकृति क्षेत्र (Rejection Region)
अस्वीकृति क्षेत्र, जिसे क्रांतिक क्षेत्र (critical region) भी कहा जाता है, परीक्षण सांख्यिकी (test statistic) के मानों का वह समुच्चय है जिसके लिए हम शून्य परिकल्पना (H₀) को अस्वीकार कर देते हैं। यह क्षेत्र संभाव्यता वितरण के “पूंछ” (tails) में स्थित होता है।
इसकी सीमा महत्व के स्तर (level of significance), α (अल्फा) द्वारा निर्धारित की जाती है, जो एक सत्य शून्य परिकल्पना को अस्वीकार करने की प्रायिकता है। यदि परिकलित परीक्षण सांख्यिकी का मान इस क्षेत्र के भीतर आता है, तो हम यह निष्कर्ष निकालते हैं कि हमारे पास H₀ को अस्वीकार करने और H₁ का समर्थन करने के लिए पर्याप्त सांख्यिकीय साक्ष्य हैं। यदि मान अस्वीकृति क्षेत्र के बाहर आता है, तो हम H₀ को अस्वीकार करने में विफल रहते हैं।
अस्वीकृति क्षेत्र का स्थान परीक्षण की प्रकृति पर निर्भर करता है:
- द्वि-पुच्छीय परीक्षण (Two-tailed test): अस्वीकृति क्षेत्र वितरण के दोनों पुच्छों में होता है (उदाहरण के लिए, जब H₁: μ ≠ μ₀)।
- वाम-पुच्छीय परीक्षण (Left-tailed test): अस्वीकृति क्षेत्र वितरण के बाएं पुच्छ में होता है (उदाहरण के लिए, जब H₁: μ < μ₀)।
- दक्षिण-पुच्छीय परीक्षण (Right-tailed test): अस्वीकृति क्षेत्र वितरण के दाएं पुच्छ में होता है (उदाहरण के लिए, जब H₁: μ > μ₀)।
टाइप-I और टाइप-II त्रुटियाँ (Type I and Type II Errors)
परिकल्पना परीक्षण में, हमारा निष्कर्ष नमूना डेटा पर आधारित होता है, इसलिए हमेशा गलत निष्कर्ष पर पहुंचने का जोखिम होता है। दो प्रकार की संभावित त्रुटियाँ होती हैं:
1. टाइप-I त्रुटि (Type I Error):
- यह एक सत्य शून्य परिकल्पना (H₀) को अस्वीकार करने की त्रुटि है।
- इसे “फॉल्स पॉजिटिव” (false positive) भी कहा जाता है। उदाहरण के लिए, यह निष्कर्ष निकालना कि एक नई दवा प्रभावी है, जबकि वास्तव में वह नहीं है।
- टाइप-I त्रुटि करने की प्रायिकता को महत्व का स्तर कहा जाता है और इसे α (अल्फा) से दर्शाया जाता है।
- शोधकर्ता आमतौर पर परीक्षण करने से पहले α का मान (जैसे, 0.05 या 0.01) निर्धारित करते हैं। α = 0.05 का अर्थ है कि एक सत्य H₀ को गलती से अस्वीकार करने की 5% संभावना है।
2. टाइप-II त्रुटि (Type II Error):
- यह एक असत्य शून्य परिकल्पना (H₀) को अस्वीकार करने में विफल रहने की त्रुटि है।
- इसे “फॉल्स नेगेटिव” (false negative) भी कहा जाता है। उदाहरण के लिए, यह निष्कर्ष निकालना कि एक नई दवा अप्रभावी है, जबकि वास्तव में वह प्रभावी है।
- टाइप-II त्रुटि करने की प्रायिकता को β (बीटा) से दर्शाया जाता है।
- परीक्षण की शक्ति (Power of the test) को 1 – β के रूप में परिभाषित किया गया है, जो एक असत्य शून्य परिकल्पना को सही ढंग से अस्वीकार करने की प्रायिकता है।
नीचे दी गई तालिका इन त्रुटियों को सारांशित करती है:
वास्तविक स्थिति (Reality) निर्णय (Decision) H₀ सत्य है H₀ असत्य है H₀ को अस्वीकार न करें सही निर्णय (प्रायिकता = 1 – α) टाइप-II त्रुटि (प्रायिकता = β) H₀ को अस्वीकार करें टाइप-I त्रुटि (प्रायिकता = α) सही निर्णय (प्रायिकता = 1 – β) (शक्ति) α और β के बीच एक व्युत्क्रम संबंध होता है: एक प्रकार की त्रुटि के जोखिम को कम करने से दूसरे प्रकार की त्रुटि का जोखिम बढ़ जाता है, यदि बाकी सब कुछ समान रहे।
Q7. प्रतिगमन और सहसम्बन्ध के बीच अंतर बताइए। अरेखीय प्रतिगमन से आप क्या समझते हैं ?
Ans.
प्रतिगमन (Regression) और सहसंबंध (Correlation) दो सांख्यिकीय तकनीकें हैं जिनका उपयोग दो या दो से अधिक चरों के बीच संबंध का विश्लेषण करने के लिए किया जाता है। यद्यपि वे संबंधित हैं, वे अलग-अलग उद्देश्यों की पूर्ति करते हैं और उनके अलग-अलग अर्थ हैं।
प्रतिगमन और सहसंबंध के बीच अंतर:
आधार सहसंबंध (Correlation) प्रतिगमन (Regression) उद्देश्य दो चरों के बीच रैखिक संबंध की डिग्री और दिशा को मापना। एक चर (आश्रित) के मान का अनुमान लगाने या भविष्यवाणी करने के लिए दूसरे चर (स्वतंत्र) के मान का उपयोग करके संबंध की प्रकृति का वर्णन करना। कार्य-कारण संबंध सहसंबंध कार्य-कारण संबंध का संकेत नहीं देता है। यह केवल यह बताता है कि चर एक साथ चलते हैं। प्रतिगमन एक आश्रित और एक स्वतंत्र चर के बीच एक दिशात्मक संबंध या निर्भरता का संकेत देता है। यह एक-तरफ़ा प्रभाव का मॉडल बनाता है। चरों का व्यवहार चरों (X और Y) को सममित रूप से माना जाता है। r(X,Y) = r(Y,X)। कोई आश्रित या स्वतंत्र चर नहीं होता है। चरों को असममित रूप से माना जाता है। एक आश्रित (Y) और एक या अधिक स्वतंत्र (X) चर होते हैं। Y पर X का प्रतिगमन X पर Y के प्रतिगमन से भिन्न है। आउटपुट आउटपुट एक एकल मान है, सहसंबंध गुणांक (r) , जो -1 और +1 के बीच होता है। आउटपुट एक समीकरण (प्रतिगमन रेखा) होता है, जैसे Y = a + bX, जो चरों के बीच गणितीय संबंध का वर्णन करता है। माप की इकाई यह एक इकाई-मुक्त माप है। प्रतिगमन गुणांक (b) की इकाइयाँ होती हैं (आश्रित चर की इकाई / स्वतंत्र चर की इकाई)।
अरेखीय प्रतिगमन (Non-linear Regression)
अरेखीय प्रतिगमन एक प्रकार का प्रतिगमन विश्लेषण है जिसमें स्वतंत्र और आश्रित चरों के बीच संबंध को एक अरेखीय फलन के रूप में मॉडल किया जाता है। रैखिक प्रतिगमन के विपरीत, जो Y = a + bX जैसे एक सीधी रेखा संबंध को मानता है, अरेखीय प्रतिगमन वक्रित (curved) संबंधों को मॉडल कर सकता है।
एक प्रतिगमन मॉडल को अरेखीय माना जाता है यदि वह अपने मापदंडों (parameters) में अरेखीय हो। इसका मतलब है कि समीकरण को रैखिक रूप में पुनर्व्यवस्थित नहीं किया जा सकता है।
अरेखीय मॉडल के उदाहरण:
- द्विघाती (Quadratic): Y = a + b₁X + b₂X² (चरों में अरेखीय, लेकिन मापदंडों में रैखिक)
- घातांकीय (Exponential): Y = a * e bX (मापदंडों में अरेखीय)
- शक्ति (Power): Y = a * X b (मापदंडों में अरेखीय)
- लॉजिस्टिक (Logistic): Y = L / (1 + e -k(X-x₀) ) (आंतरिक रूप से अरेखीय)
कुछ मॉडल जो चरों में अरेखीय होते हैं, उन्हें रूपांतरण (जैसे, लघुगणक लेकर) द्वारा रैखिक बनाया जा सकता है। उदाहरण के लिए, Y = a X b को log(Y) = log(a) + b log(X) में बदला जा सकता है, जो एक रैखिक रूप है। इन मॉडलों को आंतरिक रूप से रैखिक (intrinsically linear) कहा जाता है।
हालांकि, कई मॉडल, जैसे लॉजिस्टिक मॉडल, को रैखिक रूप में नहीं बदला जा सकता है। इन आंतरिक रूप से अरेखीय (intrinsically non-linear) मॉडलों के मापदंडों का अनुमान लगाने के लिए पुनरावृत्त (iterative) एल्गोरिदम, जैसे कि न्यूनतम वर्ग विधि के अरेखीय संस्करण, की आवश्यकता होती है। अरेखीय प्रतिगमन अर्थशास्त्र और जीव विज्ञान जैसे क्षेत्रों में अधिक लचीले और यथार्थवादी मॉडल बनाने के लिए उपयोगी है जहां संबंध अक्सर सीधी रेखा नहीं होते हैं।
Q8. प्रवृत्ति निर्धारण के लिए बहुपदों को फिट करने की विधि क्या है ? प्रवृत्ति से अनुपात विधि का वर्णन कीजिए।
Ans.
प्रवृत्ति निर्धारण के लिए बहुपदों को फिट करने की विधि
काल श्रेणी (time series) विश्लेषण में, प्रवृत्ति (trend) डेटा में दीर्घकालिक गति या दिशा को संदर्भित करती है। जब डेटा में प्रवृत्ति एक सीधी रेखा नहीं होती है, बल्कि एक वक्र का अनुसरण करती है, तो एक बहुपदीय वक्र (polynomial curve) को फिट करना अधिक उपयुक्त हो सकता है। इस विधि को बहुपद प्रवृत्ति फिटिंग (fitting a polynomial trend) कहा जाता है और यह न्यूनतम वर्ग (least squares) के सिद्धांत का उपयोग करती है।
सबसे आम गैर-रैखिक प्रवृत्तियों में से एक द्वितीय-डिग्री बहुपद या परवलय (parabola) है, जिसका समीकरण है:
Yc = a + bX + cX²
जहाँ:
- Yc परिकलित प्रवृत्ति मान है।
- X समय चर है (जैसे, 1, 2, 3… या -2, -1, 0, 1, 2…)।
- a , b , और c वे स्थिरांक (मापदंड) हैं जिनका अनुमान लगाया जाना है।
न्यूनतम वर्ग विधि का उपयोग करके इन स्थिरांकों के मान ज्ञात किए जाते हैं। इसका उद्देश्य वास्तविक मानों (Y) और अनुमानित मानों (Yc) के बीच वर्गों के योग (Σ(Y – Yc)²) को न्यूनतम करना है। इसके लिए, निम्नलिखित तीन सामान्य समीकरणों (normal equations) को हल किया जाता है:
1. ΣY = na + bΣX + cΣX²
2. ΣXY = aΣX + bΣX² + cΣX³
3. ΣX²Y = aΣX² + bΣX³ + cΣX⁴
यदि समय चर X को इस तरह से चुना जाता है कि ΣX = 0 और ΣX³ = 0 (जो तब होता है जब अवधियों की संख्या विषम हो और मध्य अवधि को 0 के रूप में कोडित किया गया हो), तो ये समीकरण सरल हो जाते हैं, जिससे a, b, और c की गणना करना आसान हो जाता है। एक बार a, b, और c ज्ञात हो जाने पर, हम किसी भी समय अवधि के लिए प्रवृत्ति मान की गणना कर सकते हैं। यह विधि सीधी रेखा प्रवृत्ति की तुलना में अधिक लचीलापन प्रदान करती है।
प्रवृत्ति से अनुपात विधि (Ratio to Trend Method)
यह काल श्रेणी से मौसमी विविधताओं (seasonal variations) को मापने की एक विधि है। यह मानती है कि काल श्रेणी डेटा (Y) चार घटकों का गुणनफल है: प्रवृत्ति (T), मौसमी (S), चक्रीय (C), और अनियमित (I)। (Y = T × S × C × I)।
इस विधि में निम्नलिखित चरण शामिल हैं:
- प्रवृत्ति मानों की गणना (Calculate Trend Values): सबसे पहले, पूरे डेटासेट के लिए एक उपयुक्त प्रवृत्ति रेखा (रैखिक या बहुपदीय) को न्यूनतम वर्ग विधि का उपयोग करके फिट किया जाता है। इस प्रवृत्ति समीकरण का उपयोग करके, प्रत्येक समय अवधि (जैसे, प्रत्येक माह या तिमाही) के लिए प्रवृत्ति मान (T) की गणना की जाती है।
- अनुपात की गणना (Calculate Ratios): प्रत्येक अवधि के लिए, मूल डेटा मान (Y) को संबंधित परिकलित प्रवृत्ति मान (T) से विभाजित किया जाता है और 100 से गुणा किया जाता है। अनुपात = (Y / T) × 100 ये अनुपात या प्रतिशत मौसमी (S), चक्रीय (C), और अनियमित (I) घटकों (S × C × I) का प्रतिनिधित्व करते हैं, क्योंकि प्रवृत्ति घटक को हटा दिया गया है।
- अनुपातों का औसत निकालना (Average the Ratios): इन अनुपातों को मौसम (जैसे, सभी तिमाहियों के लिए या सभी महीनों के लिए) के अनुसार समूहीकृत किया जाता है। फिर प्रत्येक मौसम के लिए अनुपातों का औसत (या संशोधित औसत, जिसमें अत्यधिक मानों को हटा दिया जाता है) निकाला जाता है। यह औसत प्रक्रिया चक्रीय (C) और अनियमित (I) घटकों को रद्द करने में मदद करती है, जिससे केवल मौसमी घटक (S) बचता है।
- मौसमी सूचकांकों का समायोजन (Adjust for Seasonal Indices): इन औसत प्रतिशतों का योग 1200 (मासिक डेटा के लिए) या 400 (तिमाही डेटा के लिए) के बराबर होना चाहिए। यदि ऐसा नहीं है, तो उन्हें एक सुधार कारक से गुणा करके समायोजित किया जाता है ताकि उनका योग आवश्यक कुल के बराबर हो। परिणामी मान मौसमी सूचकांक (seasonal indices) होते हैं।
यह विधि मौसमी उतार-चढ़ाव को अलग करने और मापने के लिए एक व्यवस्थित दृष्टिकोण प्रदान करती है।
Q9. काई-वर्ग वितरण को परिभाषित कीजिए। इसकी विशेषताएँ कया हैं और इसका सामान्य वितरण से क्या सम्बन्ध है ?
Ans.
काई-वर्ग (Chi-square, χ²) वितरण एक सतत संभाव्यता वितरण है जो सांख्यिकी में बहुत महत्वपूर्ण है, खासकर परिकल्पना परीक्षण में। इसका उपयोग मुख्य रूप से गुडनेस-ऑफ-फिट परीक्षणों (goodness-of-fit tests), स्वतंत्रता के परीक्षणों (tests of independence) और जनसंख्या प्रसरण के बारे में अनुमान लगाने के लिए किया जाता है।
परिभाषा:
काई-वर्ग वितरण की औपचारिक परिभाषा स्वतंत्र मानक सामान्य यादृच्छिक चरों (independent standard normal random variables) के वर्गों के योग पर आधारित है।
यदि Z₁, Z₂, …, Zₖ ‘k’ स्वतंत्र यादृच्छिक चर हैं, जिनमें से प्रत्येक का मानक सामान्य वितरण (माध्य 0 और प्रसरण 1) है, तो इन चरों के वर्गों का योग,
Q = Z₁² + Z₂² + … + Zₖ²
k डिग्री ऑफ फ्रीडम (degrees of freedom, df) के साथ एक काई-वर्ग वितरण का पालन करता है। इसे Q ~ χ²(k) के रूप में दर्शाया जाता है। डिग्री ऑफ फ्रीडम (k) स्वतंत्र चरों की संख्या को संदर्भित करता है जो योग में जाते हैं।
काई-वर्ग वितरण की विशेषताएँ:
- सतत वितरण: यह एक सतत वितरण है, जिसका अर्थ है कि चर कोई भी गैर-ऋणात्मक वास्तविक मान ले सकता है।
- गैर-ऋणात्मक मान: चूंकि काई-वर्ग सांख्यिकी वर्गों का योग है, इसका मान हमेशा शून्य या धनात्मक (χ² ≥ 0) होता है।
- आकृति: काई-वर्ग वितरण का वक्र धनात्मक रूप से विषम (positively skewed) या दाईं ओर झुका हुआ होता है। हालाँकि, जैसे-जैसे डिग्री ऑफ फ्रीडम (df) बढ़ता है, वक्र कम विषम होता जाता है और अधिक सममित हो जाता है।
- डिग्री ऑफ फ्रीडम पर निर्भरता: वितरण का सटीक आकार और आकृति पूरी तरह से एक पैरामीटर, यानी डिग्री ऑफ फ्रीडम (k) पर निर्भर करती है। प्रत्येक df के लिए एक अलग काई-वर्ग वक्र होता है।
- माध्य और प्रसरण: k डिग्री ऑफ फ्रीडम वाले काई-वर्ग वितरण का माध्य k होता है और प्रसरण 2k होता है।
सामान्य वितरण से संबंध:
काई-वर्ग वितरण और सामान्य वितरण के बीच एक गहरा और मौलिक संबंध है:
- व्युत्पत्ति (Derivation): जैसा कि परिभाषा में बताया गया है, काई-वर्ग वितरण सीधे मानक सामान्य वितरण से व्युत्पन्न होता है। यह स्वतंत्र मानक सामान्य चरों के वर्गों का योग है।
- समरूपता की ओर प्रवृत्ति (Tendency towards Symmetry): जैसे-जैसे डिग्री ऑफ फ्रीडम (k) की संख्या बढ़ती है, काई-वर्ग वितरण की आकृति सामान्य वितरण के करीब आने लगती है। जब k बहुत बड़ा होता है (आमतौर पर k > 30 को पर्याप्त माना जाता है), तो काई-वर्ग वितरण को सामान्य वितरण द्वारा अनुमानित किया जा सकता है।
- अनुमानन (Approximation): बड़े k के लिए, चर (χ² – k) / √(2k) लगभग एक मानक सामान्य वितरण (माध्य 0, प्रसरण 1) का पालन करता है। इस गुण का उपयोग बड़े डिग्री ऑफ फ्रीडम के लिए काई-वर्ग प्रायिकताओं का अनुमान लगाने के लिए किया जा सकता है जब सटीक मान सारणीबद्ध नहीं होते हैं।
- योगात्मक गुण (Additive Property): यदि दो स्वतंत्र काई-वर्ग चर U ~ χ²(k₁) और V ~ χ²(k₂) हैं, तो उनका योग (U + V) भी एक काई-वर्ग चर होता है जिसका डिग्री ऑफ फ्रीडम k₁ + k₂ होता है। यह गुण सामान्य चरों के योग के गुण के समान है।
संक्षेप में, काई-वर्ग वितरण सामान्य वितरण का एक ‘उत्तराधिकारी’ है और बड़े नमूनों के लिए सामान्य वितरण की तरह व्यवहार करता है, जो इन दोनों मूलभूत सांख्यिकीय वितरणों के बीच एक पुल का काम करता है।
Q10. बेज प्रमेय को परिभाषित कीजिए। बेज प्रमेय को संचालित करने के लिए प्राथमिक शर्त क्या है ?
Ans.
बेज प्रमेय की परिभाषा (Definition of Bayes’ Theorem)
बेज प्रमेय (Bayes’ Theorem) , जिसे बेज के नियम या बेज के सिद्धांत के रूप में भी जाना जाता है, संभाव्यता सिद्धांत में एक मौलिक प्रमेय है। यह किसी घटना की संभाव्यता का वर्णन करता है, जो उस घटना से संबंधित हो सकने वाली स्थितियों के पूर्व ज्ञान पर आधारित होती है। यह अनिवार्य रूप से नए साक्ष्य उपलब्ध होने पर किसी विश्वास या परिकल्पना की सशर्त संभाव्यता (conditional probability) को अद्यतन करने का एक तरीका है।
प्रमेय को गणितीय रूप से इस प्रकार व्यक्त किया जाता है:
P(A|B) = [P(B|A) * P(A)] / P(B)
जहाँ:
- P(A|B) : पश्च संभाव्यता (Posterior Probability) है। यह घटना B के घटित होने के बाद घटना A के होने की सशर्त संभाव्यता है। यह हमारी अद्यतन की गई मान्यता है।
- P(B|A) : संभाव्यता (Likelihood) है। यह घटना A के सत्य होने पर घटना B के होने की सशर्त संभाव्यता है।
- P(A) : पूर्व संभाव्यता (Prior Probability) है। यह घटना A के होने की प्रारंभिक संभाव्यता है, किसी भी साक्ष्य B पर विचार करने से पहले।
- P(B) : साक्ष्य की सीमांत संभाव्यता (Marginal Probability of Evidence) है। यह घटना B के होने की कुल संभाव्यता है।
P(B) की गणना अक्सर कुल संभाव्यता के नियम (Law of Total Probability) का उपयोग करके की जाती है, यदि नमूना स्थान को परस्पर अपवर्जी घटनाओं A और A’ (A का पूरक) में विभाजित किया गया हो:
P(B) = P(B|A)P(A) + P(B|A’)P(A’)
संक्षेप में, बेज प्रमेय हमें पूर्व ज्ञान (P(A)) को नए साक्ष्य (B) के साथ जोड़कर एक अद्यतन या पश्च संभाव्यता (P(A|B)) प्राप्त करने की अनुमति देता है।
बेज प्रमेय को संचालित करने के लिए प्राथमिक शर्त
बेज प्रमेय के संचालन के लिए कई शर्तें आवश्यक हैं, लेकिन सबसे मौलिक और प्राथमिक शर्त यह है कि विचाराधीन घटना के लिए एक गैर-शून्य पूर्व संभाव्यता (non-zero prior probability) का अस्तित्व होना चाहिए।
प्राथमिक शर्त: P(A) > 0
स्पष्टीकरण:
- बेज प्रमेय एक “अद्यतन” प्रक्रिया है। यह एक मौजूदा विश्वास (पूर्व संभाव्यता) से शुरू होता है और इसे नए साक्ष्य के आलोक में संशोधित करता है। यदि किसी परिकल्पना के लिए प्रारंभिक विश्वास शून्य है (अर्थात, P(A) = 0), तो इसका मतलब है कि हम मानते हैं कि घटना A असंभव है।
- बेज प्रमेय के सूत्र के अनुसार, यदि P(A) = 0 है, तो अंश [P(B|A) * P(A)] भी शून्य हो जाएगा, जिसके परिणामस्वरूप पश्च संभाव्यता P(A|B) = 0 होगी।
- इसका तात्पर्य यह है कि “यदि आप किसी चीज़ को पूरी तरह से असंभव मानते हैं, तो कोई भी साक्ष्य आपको अपना मन बदलने पर मजबूर नहीं कर सकता है।” एक शून्य पूर्व संभाव्यता किसी भी सीखने या विश्वास के अद्यतन को रोक देती है।
अन्य आवश्यक शर्तें शामिल हैं:
- नमूना स्थान का विभाजन: नमूना स्थान को परस्पर अपवर्जी और समग्र रूप से संपूर्ण घटनाओं के एक सेट में विभाजित किया जाना चाहिए (जैसे, A₁, A₂, …, Aₙ)।
- ज्ञात सशर्त संभाव्यताएं: प्रत्येक घटना Aᵢ के लिए संभाव्यताएं P(B|Aᵢ) ज्ञात या अनुमान योग्य होनी चाहिए।
हालांकि, इन शर्तों में, एक गैर-शून्य पूर्व संभाव्यता की आवश्यकता सबसे बुनियादी है क्योंकि इसके बिना, प्रमेय का तर्कसंगत ढांचा शुरू ही नहीं हो सकता।
Q11. मल्टीस्टेज सैंपलिंग कया है ? मल्टीस्टेज सैंपलिंग के फायदे और नुकसान का वर्णन कीजिए ।
Ans.
मल्टीस्टेज सैंपलिंग (Multistage Sampling)
मल्टीस्टेज सैंपलिंग (बहु-स्तरीय नमूनाकरण) क्लस्टर सैंपलिंग का एक अधिक जटिल रूप है, जिसमें नमूना चयन कई चरणों में किया जाता है। यह एक संभाव्यता नमूनाकरण तकनीक है जिसका उपयोग तब किया जाता है जब आबादी बहुत बड़ी और भौगोलिक रूप से फैली हुई हो।
इस प्रक्रिया में, पूरी आबादी को पहले बड़े समूहों (या क्लस्टरों) में विभाजित किया जाता है, जिन्हें प्राथमिक नमूना इकाइयाँ (Primary Sampling Units – PSUs) कहा जाता है। इन PSUs का एक यादृच्छिक नमूना चुना जाता है। फिर, प्रत्येक चयनित PSU के भीतर से, छोटे समूहों का एक और नमूना चुना जाता है, जिन्हें द्वितीयक नमूना इकाइयाँ (Secondary Sampling Units – SSUs) कहा जाता है। यह प्रक्रिया तब तक जारी रह सकती है जब तक कि अंतिम नमूना इकाइयों (जैसे, व्यक्ति या घर) तक नहीं पहुंच जाते।
उदाहरण: भारत में घरों का एक राष्ट्रीय सर्वेक्षण करने के लिए।
- चरण 1: राज्यों (PSUs) का एक यादृच्छिक नमूना चुनें।
- चरण 2: प्रत्येक चयनित राज्य के भीतर से, जिलों (SSUs) का एक यादृच्छिक नमूना चुनें।
- चरण 3: प्रत्येक चयनित जिले के भीतर से, कस्बों या गांवों (तृतीयक इकाइयाँ) का एक यादृच्छिक नमूना चुनें।
- चरण 4: प्रत्येक चयनित कस्बे या गांव के भीतर से, घरों (अंतिम नमूना इकाइयाँ) का एक यादृच्छिक नमूना चुनें।
मल्टीस्टेज सैंपलिंग के फायदे (Advantages):
- लागत और समय की बचत (Cost and Time Effective): यह बड़ी और भौगोलिक रूप से बिखरी हुई आबादी के लिए सबसे बड़ा फायदा है। शोधकर्ताओं को केवल चयनित क्लस्टरों में यात्रा करने की आवश्यकता होती है, न कि पूरे देश में, जिससे यात्रा और प्रशासनिक लागत में काफी कमी आती है।
- व्यवहार्यता (Feasibility): यह अक्सर एकमात्र व्यवहार्य तरीका होता है जब पूरी आबादी की एक व्यापक सूची (सैंपलिंग फ्रेम) उपलब्ध नहीं होती है। उच्च-स्तरीय इकाइयों (जैसे, राज्यों या जिलों) की सूचियाँ आमतौर पर उपलब्ध होती हैं, लेकिन प्रत्येक व्यक्ति की सूची नहीं।
- लचीलापन (Flexibility): शोधकर्ता विभिन्न चरणों में विभिन्न नमूनाकरण विधियों (जैसे, पहले चरण में क्लस्टर, अंतिम चरण में SRS) का उपयोग कर सकते हैं, जो अध्ययन की जरूरतों के अनुकूल हो।
- प्रशासनिक सुविधा (Administrative Convenience): एक छोटे भौगोलिक क्षेत्र में सर्वेक्षण कार्य का प्रबंधन और पर्यवेक्षण करना आसान होता है।
मल्टीस्टेज सैंपलिंग के नुकसान (Disadvantages):
- कम सटीकता (Lower Precision): समान आकार के सरल यादृच्छिक नमूने (SRS) की तुलना में मल्टीस्टेज सैंपलिंग आमतौर पर कम सटीक होती है। ऐसा इसलिए है क्योंकि एक ही क्लस्टर के सदस्य अक्सर एक-दूसरे के समान होते हैं (इंट्रा-क्लास सहसंबंध), जिससे नमूने की विविधता कम हो जाती है। इसके परिणामस्वरूप नमूनाकरण त्रुटि (sampling error) अधिक होती है।
- जटिलता (Complexity): नमूना डिजाइन और विश्लेषण दोनों ही सरल नमूनाकरण योजनाओं की तुलना में अधिक जटिल होते हैं। नमूनाकरण त्रुटि और प्रसरण का अनुमान लगाना विशेष रूप से चुनौतीपूर्ण हो सकता है और इसके लिए विशेष सांख्यिकीय सॉफ्टवेयर की आवश्यकता होती है।
- पूर्वाग्रह का जोखिम (Risk of Bias): यदि प्रत्येक चरण में नमूनाकरण ठीक से नहीं किया जाता है, तो पूर्वाग्रह का जोखिम बढ़ जाता है। चयन प्रक्रिया में किसी भी स्तर पर त्रुटि अंतिम नमूने को प्रभावित कर सकती है।
- कम जानकारीपूर्ण (Less Informative): क्लस्टरिंग प्रभाव के कारण, प्रत्येक अतिरिक्त नमूना इकाई SRS की तुलना में कुल जानकारी में कम योगदान देती है, क्योंकि वे स्वतंत्र नहीं होती हैं।
इन सीमाओं के बावजूद, मल्टीस्टेज सैंपलिंग बड़े पैमाने पर सर्वेक्षणों के लिए एक अत्यंत व्यावहारिक और व्यापक रूप से उपयोग की जाने वाली विधि है।
Q12. निम्नलिखित में से किन्हीं दो पर संक्षिप्त टिप्पणियाँ लिखिए : (क) सतत् संभाव्यता वितरण (ख) भिन्नता का गुणांक (ग) स्तरीकृत यादृच्छिक नमूनाकरण (घ) जीवन तालिकाएँ
Ans.
(क) सतत् संभाव्यता वितरण (Continuous Probability Distribution)
एक सतत् संभाव्यता वितरण एक ऐसे यादृच्छिक चर (random variable) के लिए संभाव्यता वितरण है जो एक निश्चित सीमा के भीतर कोई भी मान ले सकता है। असतत यादृच्छिक चर के विपरीत, जो केवल अलग-अलग, गणनीय मान ले सकते हैं (जैसे 0, 1, 2), एक सतत् चर ऊंचाई, वजन, या तापमान जैसे मान ले सकता है।
इस वितरण का वर्णन प्रायिकता घनत्व फलन (Probability Density Function – PDF) , f(x) द्वारा किया जाता है। PDF की मुख्य विशेषताएँ हैं:
- फलन का मान हमेशा गैर-ऋणात्मक होता है, अर्थात, f(x) ≥ 0।
- PDF वक्र के नीचे का कुल क्षेत्रफल 1 के बराबर होता है, जो कुल संभाव्यता का प्रतिनिधित्व करता है।
एक महत्वपूर्ण बात यह है कि एक सतत् चर के लिए किसी एक विशिष्ट मान के होने की प्रायिकता शून्य होती है (उदाहरण के लिए, P(X = 3.14159…) = 0)। ऐसा इसलिए है क्योंकि एक सीमा में असीम रूप से कई संभावित मान होते हैं। इसलिए, हम हमेशा एक सीमा के भीतर मान आने की प्रायिकता की गणना करते हैं। किसी अंतराल [a, b] में X के होने की प्रायिकता PDF को a से b तक एकीकृत करके पाई जाती है: P(a ≤ X ≤ b) = ∫ₐᵇ f(x) dx।
सतत् संभाव्यता वितरण के प्रसिद्ध उदाहरणों में सामान्य वितरण (Normal Distribution) , घातांकीय वितरण (Exponential Distribution) , और काई-वर्ग वितरण (Chi-square Distribution) शामिल हैं।
(ख) भिन्नता का गुणांक (Coefficient of Variation)
भिन्नता का गुणांक (CV), जिसे सापेक्ष मानक विचलन (relative standard deviation) भी कहा जाता है, प्रसरण (dispersion) का एक सापेक्ष माप है। यह मानक विचलन को माध्य के प्रतिशत के रूप में व्यक्त करता है, जिससे यह एक इकाई-मुक्त संख्या बन जाती है।
इसका सूत्र है:
CV = (मानक विचलन / माध्य) × 100%
CV = (σ / μ) × 100%
CV का मुख्य उद्देश्य दो या दो से अधिक डेटा सेटों की परिवर्तनशीलता की तुलना करना है, खासकर जब:
- डेटा सेटों की माप की इकाइयाँ अलग-अलग हों (जैसे, एक समूह की ऊंचाई इंच में और दूसरे की सेंटीमीटर में)।
- डेटा सेटों के माध्य बहुत भिन्न हों।
उदाहरण के लिए, यदि हम हाथियों के वजन और चूहों के वजन में परिवर्तनशीलता की तुलना करना चाहते हैं, तो केवल मानक विचलन की तुलना करना भ्रामक होगा क्योंकि हाथियों का वजन बहुत अधिक होता है। CV हमें प्रत्येक समूह की परिवर्तनशीलता की तुलना उनके अपने-अपने माध्य के सापेक्ष करने की अनुमति देता है।
एक कम CV मान यह इंगित करता है कि डेटा बिंदु माध्य के करीब हैं, जिसका अर्थ है कम सापेक्ष परिवर्तनशीलता या अधिक स्थिरता। एक उच्च CV अधिक सापेक्ष परिवर्तनशीलता को इंगित करता है। यह वित्त में जोखिम का आकलन करने के लिए (जोखिम/इनाम अनुपात), और गुणवत्ता नियंत्रण में प्रक्रियाओं की स्थिरता की तुलना करने के लिए व्यापक रूप से उपयोग किया जाता है।
IGNOU BECC-107 Previous Year Solved Question Paper in English
Q1. What do you understand by moments ? How are the moments used to measure skewness and kurtosis ?
Ans. Moments are numerical measures that describe the shape and nature of a statistical distribution. They help in understanding the dispersion, asymmetry, and peakedness of data around the mean. Moments can be calculated either about the origin (zero), known as raw moments , or about the mean, known as central moments . Let’s consider a set of n observations x₁, x₂, …, xₙ with a mean of x̄.
- The r-th moment about the origin (μ’ᵣ): is calculated as μ’ᵣ = (1/n) Σxᵢʳ. The first raw moment (μ’₁) is the mean itself.
- The r-th moment about the mean (μᵣ): is calculated as μᵣ = (1/n) Σ(xᵢ – x̄)ʳ. These are more useful for analyzing the shape of the distribution.
The first four central moments are particularly important:
- First central moment (μ₁): It is always zero because the sum of deviations from the mean is zero. μ₁ = (1/n) Σ(xᵢ – x̄) = 0.
- Second central moment (μ₂): This is the variance (σ²), which measures the spread or dispersion of the data around the mean. μ₂ = (1/n) Σ(xᵢ – x̄)² = σ².
- Third central moment (μ₃): This is used to measure skewness.
- Fourth central moment (μ₄): This is used to measure kurtosis.
Measurement of Skewness:
Skewness measures the lack of symmetry in a distribution. It indicates whether the data is distributed evenly on both sides of the mean.
- If μ₃ = 0, the distribution is symmetric.
- If μ₃ > 0, the distribution is positively skewed (longer tail to the right).
- If μ₃ < 0, the distribution is negatively skewed (longer tail to the left).
The coefficient of skewness (β₁) using moments is defined as:
β₁ = μ₃² / μ₂³
This is a relative measure and is unit-free. The square root of β₁ (γ₁ = √β₁) is also used as a measure of skewness, which preserves the sign.
Measurement of Kurtosis: Kurtosis measures the “peakedness” or “flatness” of a distribution compared to the normal distribution. It indicates the concentration of data in the tails. The coefficient of kurtosis (β₂) is defined using the fourth and second moments: β₂ = μ₄ / μ₂² This is compared to the value for a normal distribution, which is 3:
- Mesokurtic: If β₂ = 3, the distribution has the same peakedness as a normal distribution.
- Leptokurtic: If β₂ > 3, the distribution has a sharper peak and fatter tails, indicating more outliers.
- Platykurtic: If β₂ < 3, the distribution has a flatter peak and thinner tails.
Thus, central moments provide a comprehensive numerical summary of the characteristics of a statistical distribution.
Q2. (a) Describe normal distribution function. What is the standard normal curve ? (b) An analysis shows that on average 10 trains arrive at a petrol pump. Ten trains arrive at a petrol pump in a 5 minutes period time. (i) Find the probability of the arrival of 5 trains in 5 minutes. (ii) What is the probability of the arrival of 1 train in 3 minutes ?
Ans. (a) Normal Distribution Function and Standard Normal Curve The Normal Distribution , also known as the Gaussian distribution, is a continuous probability distribution that is paramount in statistics. Many natural and social phenomena approximately follow a normal distribution. Its Probability Density Function (PDF) is defined by two parameters: the mean (μ) and the standard deviation (σ): f(x) = [1 / (σ√(2π))] * e -(x-μ)² / (2σ²) where:
- μ is the mean of the population.
- σ is the standard deviation of the population.
- π ≈ 3.14159 and e ≈ 2.71828.
Characteristics of the Normal Distribution:
- The curve is bell-shaped and symmetric about the mean (μ).
- The mean, median, and mode are all equal and located at the center of the curve.
- It is a unimodal distribution.
- The two tails of the curve extend indefinitely and approach the horizontal axis but never touch it (asymptotic).
- The total area under the curve is equal to 1.
The Standard Normal Curve:
The standard normal curve is a special case of the normal distribution where the
mean (μ) is 0
and the
standard deviation (σ) is 1
. A variable with this distribution is called a Z-variable.
The process of converting any normal random variable X into a standard normal variable Z is called
standardization
. The formula is:
Z = (X – μ) / σ
This transformation is very useful because it allows us to use a single standard normal table (Z-table) to calculate probabilities for any normal distribution. The Z-score measures how many standard deviations an observation is away from the mean.
(b) Probability Calculation (Poisson Distribution)
This problem deals with the number of events occurring in a fixed interval of time, which is a classic example of a
Poisson Distribution
. There appears to be a typo in the question; we will assume that “Ten trains arrive… in a 5 minutes period” means the average rate is 10 trains per 5 minutes.
The Poisson probability formula is: P(X=k) = (e
-λ
* λ
k
) / k!
where λ (lambda) is the average number of events in that interval, and k is the actual number of events.
(i) Find the probability of the arrival of 5 trains in 5 minutes. Here, the time interval is 5 minutes, and the average rate of arrival (λ) for this interval is 10. We want to find the probability for k=5. λ = 10 k = 5 P(X=5) = (e -10 * 10 5 ) / 5! P(X=5) = (0.0000454 * 100000) / 120 P(X=5) = 4.54 / 120 P(X=5) ≈ 0.0378 So, the probability of exactly 5 trains arriving in 5 minutes is approximately 3.78%.
(ii) What is the probability of the arrival of 1 train in 3 minutes? First, we need to adjust the average rate (λ) for a 3-minute interval. Average rate in 5 minutes = 10 trains Average rate per minute = 10 / 5 = 2 trains New average rate (λ) for a 3-minute interval = 2 trains/min * 3 minutes = 6 Now, we want to find the probability for k=1. New λ = 6 k = 1 P(X=1) = (e -6 * 6 1 ) / 1! P(X=1) = (0.002478 * 6) / 1 P(X=1) ≈ 0.01487 So, the probability of exactly 1 train arriving in 3 minutes is approximately 1.49%.
Q3. What are the types of sampling ? How is simple random sampling different from stratified random sampling ?
Ans. Sampling is the process of selecting a subset of individuals (a sample) from a larger population to make inferences or draw conclusions about the whole population. Sampling methods are broadly classified into two categories: 1. Probability Sampling: In this method, every member of the population has a known, non-zero chance of being selected. This ensures unbiased selection. The main types are:
- Simple Random Sampling (SRS): Every member has an equal chance of being chosen.
- Stratified Random Sampling: The population is divided into homogeneous subgroups (strata), and then random samples are taken from each stratum.
- Systematic Sampling: Starting from a random point, every k-th member from a list is selected.
- Cluster Sampling: The population is divided into groups (clusters), and then a random sample of clusters is chosen and all members in the selected clusters are surveyed.
- Multistage Sampling: A complex form of cluster sampling involving sampling in multiple stages.
2. Non-Probability Sampling:
In this method, the selection of the sample is not random but based on the researcher’s judgment or convenience. The main types are:
- Convenience Sampling: Selecting individuals who are easy to reach.
- Judgemental Sampling: The researcher selects the sample based on their judgment.
- Quota Sampling: A quota is set to ensure subgroups are represented in the same proportion as in the population.
- Snowball Sampling: Existing study subjects recruit future subjects from among their acquaintances.
Difference between Simple Random Sampling (SRS) and Stratified Random Sampling:
| Basis | Simple Random Sampling (SRS) | Stratified Random Sampling |
|---|---|---|
Definition |
A sampling technique where every member of the population has an equal and independent chance of being selected. | A technique where the population is divided into homogeneous, non-overlapping subgroups (strata), and an SRS is then taken from each stratum independently. |
Population Type |
It works best when the population is relatively homogeneous . |
It is ideal for heterogeneous populations that can be divided into homogeneous strata. |
Procedure |
Sample is selected directly from the entire population in a single step. | The process is two-step: first stratification, then random sampling within each stratum. |
Representation |
It represents the population as a whole, but by chance, some subgroups might be under or over-represented. | It ensures adequate representation of all important subgroups, making the sample more representative. |
Accuracy/Precision |
Generally less precise (higher sampling error) than stratified sampling for the same sample size. | Generally more precise (lower sampling error) because it reduces the variability within each stratum. |
Complexity and Cost |
Simpler to design and execute. | More complex to design and execute as it requires prior knowledge of the stratification variables. It can also be more costly. |
In summary, while SRS offers pure randomness of selection,
Stratified Sampling
increases precision by better representing the structure of a heterogeneous population and reducing sampling error. The choice depends on the nature of the population and the objectives of the study.
Q4. What are the measurements of seasonal variations ? How is the trend method different from the moving average method ?
Ans. Seasonal Variations are regular, periodic fluctuations in a time series that occur within a period of one year or less. These are caused by climate, weather, or man-made conventions like holidays and festivals. Examples include the rise in sales of woolen clothes in winter or increased demand for air travel during holidays. There are several methods to measure and analyze seasonal variations, which are used to compute seasonal indices . The main methods are:
- Method of Simple Averages: This is the simplest method. In it, the data for each season (e.g., each month or quarter) is averaged, and these averages are then expressed as a percentage of an overall average. This method does not account for the effect of trend.
- Ratio to Trend Method: In this method, a trend line is first fitted to the data. Then, for each period, the original value (Y) is divided by the corresponding trend value (T) and multiplied by 100. The seasonal index is obtained by averaging these percentages.
- Ratio to Moving Average Method: This is the most widely used and effective method. It involves calculating a moving average of an appropriate period to estimate the trend-cycle component. The original values are then divided by the moving average values to isolate the seasonal and irregular components (S × I). The seasonal index is found by averaging these ratios.
- Link Relatives Method: In this method, the data for each period is expressed as a percentage of the data from the previous period. These link relatives are averaged and then chained to a base period to obtain the seasonal indices.
Difference between the Trend Method (Ratio to Trend) and the Moving Average Method (Ratio to Moving Average):
Both methods aim to remove the effect of trend (and cycle) from a time series to calculate seasonal indices, but they do so in different ways.
| Basis | Ratio to Trend Method | Ratio to Moving Average Method |
|---|---|---|
Estimation of Trend |
It assumes the trend can be represented by a single mathematical curve (e.g., a straight line y = a + bx) for the entire time series, fitted by the method of least squares. | It does not assume any specific mathematical form. It estimates the trend-cycle locally by averaging the values around each point. |
Flexibility |
This method is rigid. Once the trend line is fitted, it does not change. It is suitable for data where the trend is steady. | This method is more flexible as the moving average moves and adjusts with changes in the trend. It is better for data where the trend changes direction. |
Loss of Data |
Trend values can be calculated for all periods, so there is no loss of data. | In calculating the moving average, some data points at the beginning and end of the time series are lost (e.g., 2 at the beginning and 2 at the end for a 4-quarter moving average). |
Isolation of Components |
It removes only the trend (T) by calculating Y/T, leaving the seasonal (S), cyclical (C), and irregular (I) components. Cyclical effects may not be fully removed in the averaging process. | It more effectively removes both the trend (T) and the cycle (C) by calculating Y/(T×C), leaving the seasonal (S) and irregular (I) components. It is therefore considered more accurate. |
Complexity |
It is relatively simple if the trend is linear. Can be more complex for non-linear trends. | The calculations can be more tedious and time-consuming, especially if a centered moving average is required. |
In conclusion, the
Ratio to Moving Average Method
is generally considered superior because it offers more flexibility in estimating the trend and isolates both trend and cycle components more effectively, leading to a more accurate calculation of seasonal indices.
Q5. What are the desirable properties of an estimator ?
Ans. In statistical inference, an estimator is a rule or formula that is applied to sample data to compute an estimate of a population parameter. An estimate is the particular value obtained from applying that formula. For example, the sample mean (x̄) is an estimator for the population mean (μ). A good estimator should possess certain desirable properties that ensure it provides a reliable and accurate approximation of the population parameter. The four main desirable properties of a good estimator are as follows: 1. Unbiasedness:
- An estimator is said to be unbiased if its expected value is equal to the population parameter it is estimating.
- Mathematically, if θ is the population parameter and θ̂ is its estimator, the estimator is unbiased if E(θ̂) = θ .
- This means that if we were to take repeated samples from the same population and calculate the estimate for each sample, the average of these estimates would be equal to the true population parameter. The estimator does not systematically over or underestimate the parameter.
2. Efficiency:
- Efficiency relates to the precision or accuracy of the estimator. Among two unbiased estimators, the one with the smallest variance is considered more efficient.
- The sampling distribution of an efficient estimator has its values tightly clustered around the true parameter value.
- If we have two unbiased estimators θ̂₁ and θ̂₂ for the same parameter θ, then θ̂₁ is said to be more efficient than θ̂₂ if Var(θ̂₁) < Var(θ̂₂) . The estimator with the minimum possible variance is called the most efficient estimator.
3. Consistency:
- An estimator is consistent if it gets closer and closer to the value of the true population parameter as the sample size (n) increases.
- In other words, as the sample size approaches infinity, the value of the estimator converges in probability to the population parameter.
- Mathematically, an estimator θ̂ is consistent if for any small positive value ε, lim (n→∞) P(|θ̂ – θ| < ε) = 1 .
- Essentially, a larger sample leads to a better estimate.
4. Sufficiency:
- An estimator is said to be sufficient if it uses all the information contained in the sample about the parameter.
- Once a sufficient statistic is calculated, the original sample data contains no additional information that could tell us more about the parameter.
- This property ensures that the estimator makes full use of the data and no information is wasted.
These properties help statisticians to evaluate and compare different estimators and to select the most appropriate one for a given estimation problem.
Q6. Define the rejection region in testing of hypothesis. Describe the Type-I and Type-II errors.
Ans. Hypothesis Testing is a statistical procedure used to evaluate a claim or hypothesis about a population parameter based on sample data. In this process, we set up a null hypothesis (H₀) and an alternative hypothesis (H₁). The Rejection Region The rejection region, also known as the critical region , is the set of values for the test statistic for which we reject the null hypothesis (H₀). This region lies in the “tails” of the probability distribution. Its boundary is determined by the level of significance, α (alpha) , which is the probability of rejecting a true null hypothesis. If the value of the calculated test statistic falls within this region, we conclude that we have sufficient statistical evidence to reject H₀ in favor of H₁. If the value falls outside the rejection region, we fail to reject H₀. The location of the rejection region depends on the nature of the test:
- Two-tailed test: The rejection region is in both tails of the distribution (e.g., when H₁: μ ≠ μ₀).
- Left-tailed test: The rejection region is in the left tail of the distribution (e.g., when H₁: μ < μ₀).
- Right-tailed test: The rejection region is in the right tail of the distribution (e.g., when H₁: μ > μ₀).
Type I and Type II Errors
In hypothesis testing, our conclusion is based on sample data, so there is always a risk of reaching the wrong conclusion. There are two types of potential errors:
1. Type I Error:
- This is the error of rejecting a true null hypothesis (H₀) .
- It is also known as a “false positive”. For example, concluding that a new drug is effective when in reality it is not.
- The probability of making a Type I error is called the level of significance and is denoted by α (alpha) .
- Researchers typically set the value of α (e.g., 0.05 or 0.01) before conducting the test. An α = 0.05 means there is a 5% chance of mistakenly rejecting a true H₀.
2. Type II Error:
- This is the error of failing to reject a false null hypothesis (H₀) .
- It is also known as a “false negative”. For example, concluding that a new drug is ineffective when in reality it is effective.
- The probability of making a Type II error is denoted by β (beta) .
- The Power of the test is defined as 1 – β, which is the probability of correctly rejecting a false null hypothesis.
The table below summarizes these errors:
Reality |
||
Decision |
H₀ is True |
H₀ is False |
| Do not reject H₀ |
Correct Decision
(Probability = 1 – α) |
Type II Error (Probability = β) |
| Reject H₀ | Type I Error (Probability = α) |
Correct Decision
(Probability = 1 – β) (Power) |
There is an inverse relationship between α and β: decreasing the risk of one type of error increases the risk of the other, all else being equal.
Q7. Distinguish between regression and correlation. What do you understand by non-linear regression ?
Ans. Regression and Correlation are two statistical techniques used to analyze the relationship between two or more variables. Though they are related, they serve different purposes and have different interpretations. Distinction between Correlation and Regression:
| Basis | Correlation | Regression |
|---|---|---|
Objective |
To measure the degree and direction of the linear relationship between two variables. |
To describe the nature of the relationship in order to estimate or predict the value of one variable (dependent) using the value of another (independent). |
Causation |
Correlation does not imply causation. It only indicates that variables move together. |
Regression implies a directional relationship or dependency between a dependent and an independent variable. It models a one-way effect. |
Treatment of Variables |
Variables (X and Y) are treated symmetrically . r(X,Y) = r(Y,X). There is no dependent or independent variable. |
Variables are treated asymmetrically . There is a dependent (Y) and one or more independent (X) variables. The regression of Y on X is different from the regression of X on Y. |
Output |
The output is a single value, the correlation coefficient (r) , which lies between -1 and +1. |
The output is an equation (the regression line) , such as Y = a + bX, which describes the mathematical relationship between the variables. |
Unit of Measurement |
It is a unit-free measure. | The regression coefficient (b) has units (units of dependent variable / units of independent variable). |
Non-linear Regression
Non-linear regression is a type of regression analysis in which the relationship between the independent and dependent variables is modeled as a
non-linear function
. Unlike linear regression, which assumes a straight-line relationship like Y = a + bX, non-linear regression can model curved relationships.
A regression model is considered non-linear if it is non-linear in its parameters. This means the equation cannot be rearranged into a linear form.
Examples of non-linear models:
- Quadratic: Y = a + b₁X + b₂X² (Non-linear in variables, but linear in parameters)
- Exponential: Y = a * e bX (Non-linear in parameters)
- Power: Y = a * X b (Non-linear in parameters)
- Logistic: Y = L / (1 + e -k(X-x₀) ) (Intrinsically non-linear)
Some models that are non-linear in variables can be made linear by transformations (e.g., by taking logarithms). For instance, Y = a
X
b
can be transformed into log(Y) = log(a) + b
log(X), which is a linear form. These models are called
intrinsically linear
.
However, many models, like the logistic model, cannot be transformed into a linear form. Estimating the parameters of these
intrinsically non-linear
models requires iterative algorithms, such as non-linear versions of the least squares method. Non-linear regression is useful for creating more flexible and realistic models in fields like economics and biology, where relationships are often not straight lines.
Q8. What is the method of fitting polynomials for determining trend ? Describe ratio to trend method.
Ans. Method of Fitting Polynomials for Determining Trend In time series analysis, the trend refers to the long-term movement or direction in the data. When the trend in the data is not a straight line, but rather follows a curve, fitting a polynomial curve may be more appropriate. This method is called fitting a polynomial trend and it uses the principle of least squares. One of the most common non-linear trends is the second-degree polynomial or parabola , whose equation is: Yc = a + bX + cX² where:
- Yc is the computed trend value.
- X is the time variable (e.g., 1, 2, 3… or -2, -1, 0, 1, 2…).
- a , b , and c are the constants (parameters) to be estimated.
The values of these constants are found using the method of least squares. The objective is to minimize the sum of the squares of the differences between the actual values (Y) and the estimated values (Yc), i.e., minimize Σ(Y – Yc)². This requires solving a set of three
normal equations
:
1. ΣY = na + bΣX + cΣX²
2. ΣXY = aΣX + bΣX² + cΣX³
3. ΣX²Y = aΣX² + bΣX³ + cΣX⁴
If the time variable X is chosen such that ΣX = 0 and ΣX³ = 0 (which happens when the number of periods is odd and the middle period is coded as 0), these equations simplify, making it easier to calculate a, b, and c. Once a, b, and c are known, we can calculate the trend value for any time period. This method offers more flexibility than a straight-line trend.
Ratio to Trend Method
This is a method for measuring
seasonal variations
from a time series. It assumes that the time series data (Y) is a product of four components: Trend (T), Seasonal (S), Cyclical (C), and Irregular (I). (Y = T × S × C × I).
The method involves the following steps:
- Calculate Trend Values: First, a suitable trend line (linear or polynomial) is fitted to the entire dataset using the method of least squares. Using this trend equation, the trend values (T) are calculated for each time period (e.g., each month or quarter).
- Calculate Ratios: For each period, the original data value (Y) is divided by the corresponding computed trend value (T) and multiplied by 100. Ratio = (Y / T) × 100 These ratios or percentages represent the seasonal (S), cyclical (C), and irregular (I) components (S × C × I), as the trend component has been removed.
- Average the Ratios: These ratios are grouped by season (e.g., for all Quarter 1s, or all Januarys). The average (or a modified average, which removes extreme values) of the ratios for each season is then calculated. This averaging process helps to cancel out the cyclical (C) and irregular (I) components, leaving only the seasonal component (S).
- Adjust for Seasonal Indices: The sum of these average percentages should be 1200 (for monthly data) or 400 (for quarterly data). If not, they are adjusted by multiplying them with a correction factor to make their sum equal the required total. The resulting values are the seasonal indices .
This method provides a systematic approach to isolating and measuring seasonal fluctuations.
Q9. Define Chi-square distribution. What are its features and what is its relationship with normal distribution ?
Ans. The Chi-square (Chi-squared, χ²) distribution is a continuous probability distribution that is very important in statistics, especially in hypothesis testing. It is primarily used for goodness-of-fit tests, tests of independence, and for making inferences about a population variance. Definition: The formal definition of the Chi-square distribution is based on the sum of squares of independent standard normal random variables . If Z₁, Z₂, …, Zₖ are ‘k’ independent random variables, each having a standard normal distribution (mean 0 and variance 1), then the sum of the squares of these variables, Q = Z₁² + Z₂² + … + Zₖ² follows a Chi-square distribution with k degrees of freedom (df) . This is denoted as Q ~ χ²(k). The degrees of freedom (k) refers to the number of independent variables that go into the sum. Features of the Chi-square Distribution:
- Continuous Distribution: It is a continuous distribution, meaning the variable can take any non-negative real value.
- Non-negative Values: Since the chi-square statistic is a sum of squares, its value is always zero or positive (χ² ≥ 0).
- Shape: The curve of the chi-square distribution is positively skewed or skewed to the right. However, as the degrees of freedom (df) increase, the curve becomes less skewed and more symmetric.
- Dependence on Degrees of Freedom: The exact shape and form of the distribution depend entirely on one parameter, the degrees of freedom (k). There is a different chi-square curve for each df.
- Mean and Variance: A chi-square distribution with k degrees of freedom has a mean of k and a variance of 2k .
Relationship with Normal Distribution:
There is a deep and fundamental relationship between the Chi-square distribution and the Normal distribution:
- Derivation: As stated in the definition, the Chi-square distribution is directly derived from the standard normal distribution. It is the sum of squared independent standard normal variables.
- Tendency towards Symmetry: As the number of degrees of freedom (k) increases, the shape of the Chi-square distribution begins to approximate the normal distribution. When k is very large (usually k > 30 is considered sufficient), the chi-square distribution can be approximated by a normal distribution.
- Approximation: For large k, the variable (χ² – k) / √(2k) approximately follows a standard normal distribution (mean 0, variance 1). This property can be used to approximate chi-square probabilities for large degrees of freedom when exact values are not tabulated.
- Additive Property: If U ~ χ²(k₁) and V ~ χ²(k₂) are two independent chi-square variables, then their sum (U + V) is also a chi-square variable with degrees of freedom k₁ + k₂. This property is analogous to the property of the sum of normal variables.
In essence, the Chi-square distribution is a ‘descendant’ of the normal distribution and behaves like a normal distribution for large samples, acting as a bridge between these two fundamental statistical distributions.
Q10. Define Bayes’ Theorem. What is the elementary condition for the Bayes’ theorem to operate ?
Ans. Definition of Bayes’ Theorem Bayes’ Theorem , also known as Bayes’ rule or Bayes’ law, is a fundamental theorem in probability theory. It describes the probability of an event, based on prior knowledge of conditions that might be related to the event. It is essentially a way of updating the conditional probability of a belief or hypothesis when new evidence becomes available. The theorem is expressed mathematically as: P(A|B) = [P(B|A) * P(A)] / P(B) Where:
- P(A|B) : is the Posterior Probability . It is the conditional probability of event A occurring after event B has occurred. It is our updated belief.
- P(B|A) : is the Likelihood . It is the conditional probability of event B occurring given that event A is true.
- P(A) : is the Prior Probability . It is the initial probability of event A occurring, before considering any evidence B.
- P(B) : is the Marginal Probability of Evidence . It is the total probability of event B occurring.
P(B) is often calculated using the Law of Total Probability, if the sample space is partitioned into mutually exclusive events A and A’ (the complement of A):
P(B) = P(B|A)P(A) + P(B|A’)P(A’)
In short, Bayes’ Theorem allows us to combine prior knowledge (P(A)) with new evidence (B) to get an updated or posterior probability (P(A|B)).
Elementary Condition for Bayes’ Theorem to Operate
Several conditions are necessary for Bayes’ theorem to operate, but the most fundamental and elementary condition is the existence of a
non-zero prior probability
for the event in question.
The Elementary Condition: P(A) > 0
Explanation:
- Bayes’ theorem is an “updating” process. It starts with an existing belief (the prior probability) and revises it in light of new evidence. If the initial belief for a hypothesis is zero (i.e., P(A) = 0), it means we believe that event A is impossible.
- According to the formula of Bayes’ theorem, if P(A) = 0, the numerator [P(B|A) * P(A)] will also be zero, resulting in a posterior probability of P(A|B) = 0.
- This implies that “if you believe something is completely impossible, no amount of evidence can ever convince you to change your mind.” A zero prior prevents any learning or updating of belief.
Other necessary conditions include:
- Partition of Sample Space: The sample space must be partitioned into a set of mutually exclusive and collectively exhaustive events (e.g., A₁, A₂, …, Aₙ).
- Known Conditional Probabilities: The likelihoods P(B|Aᵢ) for each event Aᵢ must be known or estimable.
However, among these conditions, the requirement of a non-zero prior is the most basic because, without it, the logical framework of the theorem cannot get started.
Q11. What is multistage sampling ? Describe the advantages and disadvantages of multistage sampling.
Ans. What is Multistage Sampling? Multistage sampling is a more complex form of cluster sampling, where the selection of a sample is done in multiple stages. It is a probability sampling technique used when the population is very large and geographically dispersed. In this process, the entire population is first divided into large groups (or clusters), known as Primary Sampling Units (PSUs) . A random sample of these PSUs is selected. Then, from within each selected PSU, a further sample of smaller groups is chosen, known as Secondary Sampling Units (SSUs) . This process can continue for multiple stages until the final sampling units (e.g., individuals or households) are reached. Example: To conduct a national survey of households in a country.
- Stage 1: Select a random sample of states (PSUs).
- Stage 2: From within each selected state, select a random sample of districts (SSUs).
- Stage 3: From within each selected district, select a random sample of towns or villages (tertiary units).
- Stage 4: From within each selected town or village, select a random sample of households (final sampling units).
Advantages of Multistage Sampling:
- Cost and Time Effective: This is the biggest advantage for large, geographically scattered populations. Researchers only need to travel to the selected clusters, not across the entire country, significantly reducing travel and administrative costs.
- Feasibility: It is often the only feasible method when a complete list of the entire population (a sampling frame) is not available. Lists of higher-stage units (like states or districts) are usually available, but not a list of every individual.
- Flexibility: Researchers can use different sampling methods at different stages (e.g., cluster at the first stage, SRS at the final stage), suiting the needs of the study.
- Administrative Convenience: It is easier to manage and supervise the survey work when it is concentrated in a smaller geographical area.
Disadvantages of Multistage Sampling:
- Lower Precision: Multistage sampling is generally less precise than a simple random sample (SRS) of the same size. This is because members within the same cluster often tend to be more similar to each other (intra-class correlation), which reduces the diversity of the sample. This results in a higher sampling error .
- Complexity: Both the sample design and the analysis are more complex than for simpler sampling schemes. Estimating the sampling error and variance can be particularly challenging and requires specialized statistical software.
- Risk of Bias: The risk of bias is increased if the sampling is not done properly at each stage. An error at any level of the selection process can affect the final sample.
- Less Informative: Due to the clustering effect, each additional sample unit contributes less to the total information than it would in an SRS, as they are not fully independent.
Despite these limitations, multistage sampling is an extremely practical and widely used method for large-scale surveys.
Q12. Write short notes on any two of the following : (a) Continuous probability distribution (b) Coefficient of variation (c) Stratified random sampling (d) Life tables
Ans. (a) Continuous Probability Distribution A continuous probability distribution is a probability distribution for a random variable that can take on any value within a given range. Unlike discrete random variables, which can only take on distinct, countable values (like 0, 1, 2), a continuous variable can take values such as height, weight, or temperature. The distribution is described by a Probability Density Function (PDF) , f(x). The main characteristics of a PDF are:
- The value of the function is always non-negative, i.e., f(x) ≥ 0.
- The total area under the curve of the PDF is equal to 1, representing the total probability.
A key point is that the probability of a continuous variable being exactly equal to a single specific value is zero (e.g., P(X = 3.14159…) = 0). This is because there are infinitely many possible values within a range. Therefore, we always calculate the probability of a value falling within a range. The probability of X falling in an interval [a, b] is found by integrating the PDF from a to b: P(a ≤ X ≤ b) = ∫ₐᵇ f(x) dx.
Famous examples of continuous probability distributions include the
Normal Distribution
, the
Exponential Distribution
, and the
Chi-square Distribution
.
(b) Coefficient of Variation The Coefficient of Variation (CV), also known as the relative standard deviation , is a relative measure of dispersion. It expresses the standard deviation as a percentage of the mean, making it a unitless number. The formula is: CV = (Standard Deviation / Mean) × 100% CV = (σ / μ) × 100% The main purpose of the CV is to compare the variability of two or more data sets, especially when:
- The data sets have different units of measurement (e.g., height of one group in inches and another in centimeters).
- The data sets have significantly different means.
For instance, if we want to compare the variability in the weights of elephants and the weights of mice, comparing standard deviations alone would be misleading because the absolute weights are vastly different. The CV allows us to compare the variability of each group relative to their own mean.
A low CV value indicates that the data points are close to the mean, implying low relative variability or more consistency. A high CV indicates greater relative variability. It is widely used in finance to assess risk (risk/reward ratio), and in quality control to compare the consistency of processes.
Download IGNOU previous Year Question paper download PDFs for BECC-107 to improve your preparation. These ignou solved question paper IGNOU Previous Year Question paper solved PDF in Hindi and English help you understand the exam pattern and score better.
Thanks!
Leave a Reply