The IGNOU MS-08 Solved Question Paper PDF Download page is designed to help students access high-quality exam resources in one place. Here, you can find ignou solved question paper IGNOU Previous Year Question paper solved PDF that covers all important questions with detailed answers. This page provides IGNOU all Previous year Question Papers in one PDF format, making it easier for students to prepare effectively.
- IGNOU MS-08 Solved Question Paper in Hindi
- IGNOU MS-08 Solved Question Paper in English
- IGNOU Previous Year Solved Question Papers (All Courses)
Whether you are looking for IGNOU Previous Year Question paper solved in English or ignou previous year question paper solved in hindi, this page offers both options to suit your learning needs. These solved papers help you understand exam patterns, improve answer writing skills, and boost confidence for upcoming exams.
IGNOU MS-08 Solved Question Paper PDF

This section provides IGNOU MS-08 Solved Question Paper PDF in both Hindi and English. These ignou solved question paper IGNOU Previous Year Question paper solved PDF include detailed answers to help you understand exam patterns and improve your preparation. You can also access IGNOU all Previous year Question Papers in one PDF for quick and effective revision before exams.
IGNOU MS-08 Previous Year Solved Question Paper in Hindi
Q1. वर्णनात्मक सांख्यिकी और आनुमानिक सांख्यिकी का अर्थ स्पष्ट कीजिए। सांख्यिकी में प्रयुक्त चरों के प्रकार को परिभाषित करें और उनके उपयोग पर टिप्पणी करें।
Ans. सांख्यिकी को मोटे तौर पर दो मुख्य शाखाओं में विभाजित किया गया है: वर्णनात्मक सांख्यिकी और आनुमानिक सांख्यिकी। दोनों डेटा का विश्लेषण करने के लिए महत्वपूर्ण हैं लेकिन विभिन्न उद्देश्यों की पूर्ति करते हैं।
वर्णनात्मक सांख्यिकी (Descriptive Statistics): वर्णनात्मक सांख्यिकी डेटा के एक सेट की मुख्य विशेषताओं का सारांश या वर्णन करने की विधि है। इसका मुख्य लक्ष्य डेटा को सुव्यवस्थित और प्रस्तुत करना है ताकि इसे आसानी से समझा जा सके। यह जनसंख्या के बारे में निष्कर्ष निकालने की कोशिश नहीं करता है, बल्कि केवल उपलब्ध डेटा का वर्णन करता है। इसके मुख्य उपकरणों में शामिल हैं:
- केंद्रीय प्रवृत्ति के माप (Measures of Central Tendency): जैसे माध्य (mean), माध्यिका (median), और बहुलक (mode), जो डेटा के केंद्र बिंदु का वर्णन करते हैं।
- प्रकीर्णन के माप (Measures of Dispersion): जैसे परास (range), चतुर्थक विचलन (quartile deviation), मानक विचलन (standard deviation), और प्रसरण (variance), जो बताते हैं कि डेटा कितना फैला हुआ है।
- आवृत्ति वितरण (Frequency Distributions): डेटा को सारणीबद्ध रूप में प्रस्तुत करना।
- ग्राफिकल प्रस्तुति (Graphical Representation): जैसे हिस्टोग्राम, बार चार्ट, और पाई चार्ट।
आनुमानिक सांख्यिकी (Inferential Statistics): आनुमानिक सांख्यिकी में एक छोटे समूह (नमूना) से एकत्र किए गए डेटा का उपयोग करके एक बड़े समूह (जनसंख्या) के बारे में निष्कर्ष या अनुमान लगाया जाता है। यह हमें नमूना डेटा के आधार पर जनसंख्या के बारे में भविष्यवाणी करने या परिकल्पनाओं का परीक्षण करने की अनुमति देता है। इसकी मुख्य तकनीकों में शामिल हैं:
- परिकल्पना परीक्षण (Hypothesis Testing): जनसंख्या पैरामीटर के बारे में एक दावे का परीक्षण करना।
- अनुमान (Estimation): एक नमूना आँकड़े के आधार पर जनसंख्या पैरामीटर (जैसे माध्य या अनुपात) का अनुमान लगाना, जिसमें बिंदु अनुमान और अंतराल अनुमान शामिल हैं।
- सहसंबंध और प्रतिगमन विश्लेषण (Correlation and Regression Analysis): चरों के बीच संबंधों का अध्ययन करना।
सांख्यिकी में चरों के प्रकार (Types of Variables): सांख्यिकी में, एक चर एक विशेषता या गुण है जो व्यक्ति से व्यक्ति या वस्तु से वस्तु में भिन्न हो सकता है। चरों को मुख्य रूप से दो प्रकारों में वर्गीकृत किया जाता है:
1. गुणात्मक या श्रेणीगत चर (Qualitative or Categorical Variables): ये चर गैर-संख्यात्मक विशेषताओं का प्रतिनिधित्व करते हैं। इन्हें आगे विभाजित किया जा सकता है:
- नाममात्र (Nominal): ये चर उन श्रेणियों का प्रतिनिधित्व करते हैं जिनका कोई स्वाभाविक क्रम नहीं होता है। उदाहरण: लिंग (पुरुष, महिला), वैवाहिक स्थिति (विवाहित, अविवाहित), रक्त समूह (A, B, AB, O)। इनका उपयोग केवल वर्गीकरण के लिए किया जाता है।
- क्रमसूचक (Ordinal): ये चर उन श्रेणियों का प्रतिनिधित्व करते हैं जिनका एक सार्थक क्रम या रैंक होता है, लेकिन श्रेणियों के बीच का अंतर समान या मापने योग्य नहीं होता है। उदाहरण: संतुष्टि स्तर (बहुत संतुष्ट, संतुष्ट, असंतुष्ट), शैक्षिक योग्यता (हाई स्कूल, स्नातक, स्नातकोत्तर)।
2. मात्रात्मक या संख्यात्मक चर (Quantitative or Numerical Variables): ये चर मापने योग्य मात्राओं का प्रतिनिधित्व करते हैं और संख्यात्मक मान लेते हैं। इन्हें आगे विभाजित किया जा सकता है:
- अंतराल (Interval): इन चरों का एक क्रम होता है और श्रेणियों के बीच का अंतर समान और सार्थक होता है, लेकिन इनमें एक वास्तविक शून्य बिंदु नहीं होता है। इसका मतलब है कि शून्य का मान उस गुण की अनुपस्थिति का प्रतिनिधित्व नहीं करता है। उदाहरण: तापमान सेल्सियस या फ़ारेनहाइट में। 0°C का मतलब गर्मी की अनुपस्थिति नहीं है।
- अनुपात (Ratio): ये अंतराल चर के समान हैं, लेकिन इनमें एक वास्तविक शून्य बिंदु होता है, जो उस गुण की पूर्ण अनुपस्थिति को इंगित करता है। उदाहरण: ऊंचाई, वजन, आय, आयु, लाभ। 0 रुपये की आय का मतलब कोई आय नहीं है। अनुपात चरों पर सभी गणितीय संक्रियाएं (जोड़, घटाव, गुणा, भाग) की जा सकती हैं।
उपयोग: चरों के प्रकार को समझना महत्वपूर्ण है क्योंकि यह निर्धारित करता है कि किस प्रकार के सांख्यिकीय विश्लेषण का उपयोग किया जा सकता है। उदाहरण के लिए, नाममात्र डेटा के लिए माध्य की गणना नहीं की जा सकती है, जबकि अनुपात डेटा के लिए सभी प्रकार के सांख्यिकीय उपाय लागू होते हैं। सही विश्लेषण के लिए सही चर प्रकार की पहचान करना पहला और सबसे महत्वपूर्ण कदम है।
Q2. ‘A’ 75% मामलों में सच बोलता है और ‘B’ 80% मामलों में सच बोलता है। कितने प्रतिशत मामलों में एक ही घटना का वर्णन करते समय वे एक-दूसरे का खंडन करने की संभावना रखते हैं?
Ans. इस समस्या को हल करने के लिए, हम प्रायिकता के सिद्धांतों का उपयोग करेंगे।
मान लीजिए:
- P(A) = A के सच बोलने की प्रायिकता = 75% = 0.75
- P(B) = B के सच बोलने की प्रायिकता = 80% = 0.80
अब, हम उनके झूठ बोलने की प्रायिकता की गणना कर सकते हैं:
- P(A’) = A के झूठ बोलने की प्रायिकता = 1 – P(A) = 1 – 0.75 = 0.25
- P(B’) = B के झूठ बोलने की प्रायिकता = 1 – P(B) = 1 – 0.80 = 0.20
A और B एक ही घटना का वर्णन करते समय एक-दूसरे का खंडन तब करेंगे जब उनमें से एक सच बोल रहा हो और दूसरा झूठ बोल रहा हो। इसके लिए दो संभावित स्थितियाँ हैं:
स्थिति 1: A सच बोलता है और B झूठ बोलता है।
इस घटना की प्रायिकता P(A और B’) है। चूंकि A और B के सच या झूठ बोलने की घटनाएँ स्वतंत्र हैं, हम उनकी प्रायिकताओं को गुणा कर सकते हैं:
P(A ∩ B’) = P(A) × P(B’)
P(A ∩ B’) = 0.75 × 0.20 = 0.15
स्थिति 2: A झूठ बोलता है और B सच बोलता है।
इस घटना की प्रायिकता P(A’ और B) है। फिर से, घटनाओं की स्वतंत्रता के कारण:
P(A’ ∩ B) = P(A’) × P(B)
P(A’ ∩ B) = 0.25 × 0.80 = 0.20
वे एक-दूसरे का खंडन करेंगे यदि स्थिति 1 या स्थिति 2 होती है। इसलिए, कुल प्रायिकता इन दोनों स्थितियों की प्रायिकताओं का योग होगी।
खंडन की कुल प्रायिकता = P(स्थिति 1) + P(स्थिति 2)
P(खंडन) = P(A ∩ B’) + P(A’ ∩ B)
P(खंडन) = 0.15 + 0.20 = 0.35
इस प्रायिकता को प्रतिशत में बदलने के लिए, हम इसे 100 से गुणा करते हैं:
प्रतिशत = 0.35 × 100 = 35%
अतः, 35% मामलों में वे एक ही घटना का वर्णन करते समय एक-दूसरे का खंडन करने की संभावना रखते हैं।
Q3. नीचे दी गई तालिका में एक वर्ष में 100 कंपनियों के लाभ को दर्शाने वाले समूहित डेटा के लिए चतुर्थक Q3 और शतमक P80 की गणना करें और इन मूल्यों की व्याख्या करें:
लाभ (लाख रुपये में) कंपनियों की संख्या 20—30 10 30—40 20 40—50 35 50—60 15 60—70 40
Ans. सबसे पहले, हम दी गई आवृत्ति वितरण तालिका के लिए संचयी आवृत्ति (cumulative frequency) की गणना करेंगे। (नोट: तालिका में कंपनियों की कुल संख्या 10+20+35+15+40 = 120 है, न कि प्रश्न में उल्लिखित 100। हम गणना के लिए तालिका के डेटा, N=120, का उपयोग करेंगे।)
संचयी आवृत्ति तालिका:
लाभ (लाख रुपये में) कंपनियों की संख्या (f) संचयी आवृत्ति (cf) 20—30 10 10 30—40 20 30 40—50 35 65 50—60 15 80 60—70 40 120 कुल N = 120
1. तृतीय चतुर्थक (Q3) की गणना (assuming Qe is a typo for Q3)
Q3 का स्थान = 3N / 4 = (3 × 120) / 4 = 90वाँ पद।
संचयी आवृत्ति तालिका से, हम देखते हैं कि 90वाँ पद 60-70 वर्ग अंतराल में आता है।
Q3 की गणना के लिए सूत्र है:
Q3 = L + [((3N/4) – cf) / f] × h
जहाँ:
- L = चतुर्थक वर्ग की निचली सीमा = 60
- N = कुल आवृत्ति = 120
- cf = चतुर्थक वर्ग से ठीक पहले वाले वर्ग की संचयी आवृत्ति = 80
- f = चतुर्थक वर्ग की आवृत्ति = 40
- h = वर्ग अंतराल की चौड़ाई = 10 (जैसे 70-60)
मानों को सूत्र में रखने पर:
Q3 = 60 + [(90 – 80) / 40] × 10
Q3 = 60 + [10 / 40] × 10
Q3 = 60 + 0.25 × 10
Q3 = 60 + 2.5 = 62.5
Q3 की व्याख्या: तृतीय चतुर्थक का मान 62.5 लाख रुपये है। इसका अर्थ है कि 75% कंपनियों का वार्षिक लाभ 62.5 लाख रुपये या उससे कम है , जबकि शेष 25% कंपनियों का लाभ 62.5 लाख रुपये से अधिक है।
2. 80वें शतमक (P80) की गणना (assuming Peso is P80) P80 का स्थान = 80N / 100 = (80 × 120) / 100 = 96वाँ पद। संचयी आवृत्ति तालिका से, हम देखते हैं कि 96वाँ पद भी 60-70 वर्ग अंतराल में आता है। P80 की गणना के लिए सूत्र है: P80 = L + [((80N/100) – cf) / f] × h जहाँ:
- L = शतमक वर्ग की निचली सीमा = 60
- N = 120
- cf = शतमक वर्ग से ठीक पहले वाले वर्ग की संचयी आवृत्ति = 80
- f = शतमक वर्ग की आवृत्ति = 40
- h = वर्ग अंतराल की चौड़ाई = 10
मानों को सूत्र में रखने पर:
P80 = 60 + [(96 – 80) / 40] × 10
P80 = 60 + [16 / 40] × 10
P80 = 60 + 0.4 × 10
P80 = 60 + 4 = 64
P80 की व्याख्या: 80वें शतमक का मान 64 लाख रुपये है। इसका अर्थ है कि 80% कंपनियों का वार्षिक लाभ 64 लाख रुपये या उससे कम है , और केवल 20% कंपनियों का लाभ 64 लाख रुपये से अधिक है।
Q4. परिकल्पना परीक्षण की व्याख्या कीजिए। परिकल्पना परीक्षण में शामिल चरण क्या हैं? परिकल्पना के परीक्षण में दो प्रकार की त्रुटियों पर चर्चा करें।
Ans.
परिकल्पना परीक्षण (Hypothesis Testing) एक सांख्यिकीय विधि है जिसका उपयोग किसी जनसंख्या पैरामीटर (जैसे माध्य या अनुपात) के बारे में किए गए दावे या धारणा (जिसे परिकल्पना कहा जाता है) का मूल्यांकन करने के लिए नमूना डेटा का उपयोग करके किया जाता है। यह प्रबंधकों और शोधकर्ताओं को डेटा-आधारित निर्णय लेने में मदद करता है कि क्या एक निश्चित सिद्धांत या परिकल्पना को स्वीकार या अस्वीकार किया जाना चाहिए।
उदाहरण के लिए, एक प्रबंधक यह परीक्षण करना चाह सकता है कि क्या एक नया विज्ञापन अभियान बिक्री में वृद्धि करता है, या क्या एक नई उत्पादन प्रक्रिया पिछली प्रक्रिया से तेज है।
परिकल्पना परीक्षण में शामिल चरण: परिकल्पना परीक्षण एक संरचित प्रक्रिया है जिसमें निम्नलिखित चरण शामिल होते हैं:
- शून्य परिकल्पना (H0) और वैकल्पिक परिकल्पना (H1) तैयार करना:
- शून्य परिकल्पना (Null Hypothesis – H0): यह एक ऐसा कथन है जो “कोई प्रभाव नहीं” या “कोई अंतर नहीं” दर्शाता है। यह वह परिकल्पना है जिसे हम सांख्यिकीय साक्ष्य के साथ गलत साबित करने का प्रयास करते हैं। उदाहरण: नया विज्ञापन अभियान बिक्री पर कोई प्रभाव नहीं डालता है।
- वैकल्पिक परिकल्पना (Alternative Hypothesis – H1): यह वह कथन है जिसे हम सत्य मानते हैं यदि हम शून्य परिकल्पना को अस्वीकार कर देते हैं। यह आमतौर पर शोधकर्ता की परिकल्पना होती है। उदाहरण: नया विज्ञापन अभियान बिक्री बढ़ाता है।
- सार्थकता स्तर (Significance Level – α) निर्धारित करना: यह एक सत्य शून्य परिकल्पना को अस्वीकार करने की प्रायिकता है (टाइप I त्रुटि)। आमतौर पर, α का मान 0.05 (5%) या 0.01 (1%) निर्धारित किया जाता है। यह निर्णय लेने के लिए आवश्यक साक्ष्य की मात्रा को परिभाषित करता है।
- उपयुक्त परीक्षण सांख्यिकी (Test Statistic) का चयन करना: डेटा के प्रकार, नमूने के आकार और परिकल्पना के आधार पर एक उपयुक्त परीक्षण (जैसे z-परीक्षण, t-परीक्षण, काई-स्क्वायर परीक्षण) चुना जाता है।
- अस्वीकृति क्षेत्र (Rejection Region) का निर्धारण करना: सार्थकता स्तर (α) और वैकल्पिक परिकल्पना (एक-पूंछ या दो-पूंछ) के आधार पर, हम उन मानों की सीमा निर्धारित करते हैं, जिनके भीतर यदि परीक्षण सांख्यिकी का मान आता है, तो हम शून्य परिकल्पना को अस्वीकार कर देंगे। इस सीमा को क्रांतिक क्षेत्र या अस्वीकृति क्षेत्र कहा जाता है।
- परीक्षण सांख्यिकी के मान की गणना करना: नमूना डेटा का उपयोग करके चुने गए परीक्षण सांख्यिकी के मान की गणना की जाती है।
- निर्णय लेना: परिकलित परीक्षण सांख्यिकी के मान की तुलना क्रांतिक मान से की जाती है।
- यदि परिकलित मान अस्वीकृति क्षेत्र में आता है, तो हम शून्य परिकल्पना को अस्वीकार करते हैं ।
- यदि परिकलित मान अस्वीकृति क्षेत्र में नहीं आता है, तो हम शून्य परिकल्पना को अस्वीकार करने में विफल रहते हैं (यानी, हम इसे स्वीकार करते हैं)।
- निष्कर्ष निकालना: समस्या के संदर्भ में निर्णय की व्याख्या की जाती है।
परिकल्पना के परीक्षण में त्रुटियाँ: परिकल्पना परीक्षण में दो प्रकार की संभावित त्रुटियाँ हो सकती हैं:
1. प्रकार I त्रुटि (Type I Error – α): यह त्रुटि तब होती है जब हम एक सत्य शून्य परिकल्पना को अस्वीकार कर देते हैं । इसे “गलत सकारात्मक” (false positive) भी कहा जाता है। इस त्रुटि की प्रायिकता को सार्थकता स्तर (α) द्वारा दर्शाया जाता है।
- उदाहरण: हम यह निष्कर्ष निकालते हैं कि एक नई दवा प्रभावी है (H0 को अस्वीकार करते हैं), जबकि वास्तव में वह नहीं है (H0 सत्य थी)।
2. प्रकार II त्रुटि (Type II Error – β): यह त्रुटि तब होती है जब हम एक असत्य शून्य परिकल्पना को अस्वीकार करने में विफल रहते हैं । इसे “गलत नकारात्मक” (false negative) भी कहा जाता है। इस त्रुटि की प्रायिकता को β द्वारा दर्शाया जाता है।
- उदाहरण: हम यह निष्कर्ष निकालते हैं कि एक नई दवा प्रभावी नहीं है (H0 को अस्वीकार करने में विफल रहते हैं), जबकि वास्तव में वह प्रभावी है (H0 असत्य थी)।
α और β के बीच एक व्युत्क्रम संबंध होता है; एक को कम करने से दूसरा बढ़ता है। शोधकर्ता को इन दोनों त्रुटियों के बीच संतुलन बनाना होता है, जो निर्णय के परिणामों पर निर्भर करता है।
Q5. 5000 की समष्टि में से 100 मजदूरों का एक प्रारंभिक नमूना सरल यादृच्छिक प्रतिचयन का उपयोग करके चुना गया था। यह पाया गया कि चयनित मजदूरों में से 40 ने एक नई प्रोत्साहन योजना का विकल्प चुना। 95% विश्वास के साथ +5% की परिशुद्धता प्राप्त करने के लिए कितना बड़ा नमूना चुना जाना चाहिए? (दिया गया है कि α = 0.05 पर प्रयुक्त सांख्यिकी का सारणीबद्ध मान 1.96 है)।
Ans. इस समस्या में, हमें एक परिमित समष्टि के लिए आवश्यक नमूना आकार की गणना करनी है, ताकि परिणाम एक निश्चित परिशुद्धता और विश्वास स्तर के भीतर हों।
सबसे पहले, हम दी गई जानकारी को सूचीबद्ध करते हैं:
- समष्टि आकार (N) = 5000
- प्रारंभिक नमूना आकार (n₀) = 100
- प्रारंभिक नमूने में योजना चुनने वाले मजदूरों की संख्या = 40
- प्रारंभिक नमूना अनुपात (p) = 40 / 100 = 0.4
- अतः, q = 1 – p = 1 – 0.4 = 0.6
- वांछित परिशुद्धता (त्रुटि का मार्जिन, E) = ±5% = 0.05
- विश्वास स्तर = 95%
- सार्थकता स्तर (α) = 1 – 0.95 = 0.05
- 95% विश्वास स्तर के लिए Z-मान (Z) = 1.96 (दिया गया है)
हम एक परिमित समष्टि के लिए नमूना आकार की गणना के सूत्र का उपयोग करेंगे, क्योंकि नमूना आकार समष्टि आकार का एक महत्वपूर्ण अंश हो सकता है।
सूत्र है: n = (Z² × p × q × N) / (E² × (N – 1) + Z² × p × q)
अब हम मानों को सूत्र में रखते हैं:
अंश की गणना (Numerator): Z² × p × q × N = (1.96)² × 0.4 × 0.6 × 5000 = 3.8416 × 0.24 × 5000 = 0.921984 × 5000 = 4609.92
हर की गणना (Denominator): E² × (N – 1) + Z² × p × q = (0.05)² × (5000 – 1) + (1.96)² × 0.4 × 0.6 = 0.0025 × 4999 + 3.8416 × 0.24 = 12.4975 + 0.921984 = 13.419484
नमूना आकार (n) की गणना: n = अंश / हर n = 4609.92 / 13.419484 n ≈ 343.52
चूंकि नमूना आकार एक पूर्णांक होना चाहिए (क्योंकि हम मजदूरों की गिनती कर रहे हैं), हम हमेशा अगले उच्च पूर्णांक पर पूर्णांकित करते हैं ताकि वांछित परिशुद्धता सुनिश्चित हो सके।
अतः, n = 344 .
निष्कर्ष: 95% विश्वास के साथ ±5% की परिशुद्धता प्राप्त करने के लिए, 344 मजदूरों का एक नमूना चुना जाना चाहिए।
Q6. निम्नलिखित में से किन्हीं तीन पर संक्षिप्त नोट्स लिखें: (a) प्राथमिक डेटा एकत्र करने की विधियाँ (b) निर्णय सिद्धांत में खेद का मानदंड (c) गैर-प्रायिकता प्रतिचयन विधियाँ (d) आसंजन अच्छाई का परीक्षण (e) न्यूनतम वर्ग मानदंड
Ans.
(a) प्राथमिक डेटा एकत्र करने की विधियाँ (Methods of collecting primary data)
प्राथमिक डेटा वह डेटा होता है जिसे शोधकर्ता द्वारा पहली बार सीधे स्रोत से किसी विशिष्ट उद्देश्य के लिए एकत्र किया जाता है। यह ताजा और मूल डेटा होता है। इसे एकत्र करने की मुख्य विधियाँ निम्नलिखित हैं:
- अवलोकन विधि (Observation Method): इस विधि में, शोधकर्ता बिना किसी संवाद के विषयों के व्यवहार, घटनाओं या विशेषताओं को व्यवस्थित रूप से देखता और रिकॉर्ड करता है। यह प्रत्यक्ष या अप्रत्यक्ष, सहभागी या गैर-सहभागी हो सकता है। यह लोगों के वास्तविक व्यवहार का अध्ययन करने के लिए उपयोगी है।
- साक्षात्कार विधि (Interview Method): इसमें उत्तरदाता से आमने-सामने बातचीत करके जानकारी एकत्र की जाती है। यह संरचित (पूर्व-निर्धारित प्रश्न), असंरचित (अनौपचारिक बातचीत) या अर्ध-संरचित हो सकता है। व्यक्तिगत साक्षात्कार, टेलीफोनिक साक्षात्कार और ऑनलाइन वीडियो साक्षात्कार इसके विभिन्न रूप हैं।
- प्रश्नावली विधि (Questionnaire Method): इस विधि में, उत्तरदाताओं को भरने के लिए प्रश्नों का एक सेट दिया जाता है। प्रश्नावली को डाक द्वारा, ऑनलाइन (ईमेल, वेब फॉर्म) या व्यक्तिगत रूप से वितरित किया जा सकता है। यह बड़े भौगोलिक क्षेत्र में फैले उत्तरदाताओं से डेटा एकत्र करने के लिए एक लागत प्रभावी तरीका है।
- अनुसूची विधि (Schedule Method): यह प्रश्नावली के समान है, लेकिन इसमें प्रश्नों को एक प्रगणक (enumerator) द्वारा भरा जाता है जो उत्तरदाता से प्रश्न पूछता है। यह विधि तब उपयोगी होती है जब उत्तरदाता अशिक्षित हों।
(b) निर्णय सिद्धांत में खेद का मानदंड (Criterion of Regret in Decision Theory)
खेद का मानदंड, जिसे मिनिमैक्स रिग्रेट मानदंड भी कहा जाता है, अनिश्चितता के तहत निर्णय लेने की एक तकनीक है। यह उन निर्णयकर्ताओं के लिए उपयुक्त है जो गलत निर्णय लेने के अवसर लागत को कम करना चाहते हैं। इस मानदंड का उपयोग करने के चरण हैं:
- खेद या अवसर हानि तालिका (Regret or Opportunity Loss Table) तैयार करना: सबसे पहले, प्रत्येक प्रकृति की स्थिति (state of nature) के लिए, उस स्थिति के लिए सर्वोत्तम संभव परिणाम की पहचान की जाती है।
- खेद की गणना: प्रत्येक प्रकृति की स्थिति के लिए, किसी भी कार्रवाई का खेद उस स्थिति के लिए सर्वोत्तम परिणाम और उस कार्रवाई के वास्तविक परिणाम के बीच का अंतर होता है। (खेद = अधिकतम भुगतान – वास्तविक भुगतान)।
- अधिकतम खेद की पहचान: प्रत्येक कार्रवाई (विकल्प) के लिए, सभी संभावित प्रकृति की स्थितियों में से अधिकतम खेद का मान ज्ञात किया जाता है।
- न्यूनतम खेद का चयन: अंत में, निर्णयकर्ता उस कार्रवाई का चयन करता है जिसके लिए अधिकतम खेद का मान न्यूनतम हो।
यह मानदंड “काश मैंने दूसरा विकल्प चुना होता” वाली भावना से बचने पर केंद्रित है। यह एक रूढ़िवादी लेकिन निराशावादी दृष्टिकोण से कम है, और यह सुनिश्चित करने का प्रयास करता है कि लिया गया निर्णय किसी भी स्थिति में “बहुत बुरा” न हो।
(c) गैर-प्रायिकता प्रतिचयन विधियाँ (Non-probability sampling methods)
गैर-प्रायिकता प्रतिचयन एक ऐसी तकनीक है जिसमें जनसंख्या से नमूनों का चयन यादृच्छिक (random) आधार पर नहीं, बल्कि शोधकर्ता के व्यक्तिपरक निर्णय के आधार पर किया जाता है। इसमें जनसंख्या के प्रत्येक सदस्य के चुने जाने की ज्ञात प्रायिकता नहीं होती है। इसकी मुख्य विधियाँ हैं:
- सुविधा प्रतिचयन (Convenience Sampling): शोधकर्ता उन उत्तरदाताओं का चयन करता है जो आसानी से उपलब्ध और सुलभ होते हैं। यह सबसे आसान और कम खर्चीला तरीका है, लेकिन यह बहुत पक्षपाती हो सकता है।
- निर्णयात्मक या उद्देश्यपूर्ण प्रतिचयन (Judgmental or Purposive Sampling): शोधकर्ता अपने ज्ञान और अध्ययन के उद्देश्य के आधार पर उन व्यक्तियों का चयन करता है जो उसे लगता है कि सबसे उपयुक्त जानकारी प्रदान कर सकते हैं।
- कोटा प्रतिचयन (Quota Sampling): यह स्तरीकृत प्रतिचयन का गैर-यादृच्छिक समकक्ष है। जनसंख्या को लिंग, आयु आदि जैसे उपसमूहों में विभाजित किया जाता है और प्रत्येक उपसमूह से एक निश्चित संख्या (कोटा) में व्यक्तियों का गैर-यादृच्छिक रूप से चयन किया जाता है।
- स्नोबॉल प्रतिचयन (Snowball Sampling): इस विधि का उपयोग तब किया जाता है जब लक्षित जनसंख्या के सदस्यों को खोजना मुश्किल होता है। शोधकर्ता कुछ प्रारंभिक उत्तरदाताओं की पहचान करता है और फिर उनसे दूसरों को संदर्भित करने के लिए कहता है जो अध्ययन के मानदंडों को पूरा करते हैं।
(d) आसंजन अच्छाई का परीक्षण (Testing the Goodness of Fit)
आसंजन अच्छाई परीक्षण एक सांख्यिकीय परिकल्पना परीक्षण है जिसका उपयोग यह निर्धारित करने के लिए किया जाता है कि क्या नमूना डेटा किसी परिकल्पित वितरण (जैसे सामान्य, द्विपद, या प्वासों वितरण) से कितनी अच्छी तरह मेल खाता है। इसका सबसे आम उदाहरण काई-स्क्वायर (Chi-Square, χ²) आसंजन अच्छाई परीक्षण है।
यह परीक्षण देखी गई आवृत्तियों (observed frequencies – O) की तुलना उन आवृत्तियों से करता है जिनकी हम एक शून्य परिकल्पना के तहत उम्मीद करेंगे (expected frequencies – E)।
काई-स्क्वायर सांख्यिकी की गणना सूत्र से की जाती है:
χ² = Σ [(O – E)² / E]
जहाँ Σ सभी श्रेणियों का योग है।
यदि परिकलित χ² मान एक निश्चित सार्थकता स्तर के लिए क्रांतिक मान से अधिक है, तो हम शून्य परिकल्पना को अस्वीकार कर देते हैं। इसका मतलब है कि नमूना डेटा परिकल्पित वितरण में फिट नहीं होता है। यदि परिकलित मान क्रांतिक मान से कम है, तो हम यह निष्कर्ष निकालते हैं कि देखी गई और अपेक्षित आवृत्तियों के बीच कोई महत्वपूर्ण अंतर नहीं है, और डेटा वितरण में फिट बैठता है।
(e) न्यूनतम वर्ग मानदंड (Least Square Criterion)
न्यूनतम वर्ग मानदंड प्रतिगमन विश्लेषण (regression analysis) में उपयोग की जाने वाली एक मानक विधि है, जिसका उद्देश्य डेटा बिंदुओं के एक सेट के लिए “सर्वोत्तम फिट” की एक रेखा (या वक्र) खोजना है। यह मानदंड उस रेखा को चुनता है जो देखे गए मानों और रेखा द्वारा अनुमानित मानों के बीच के अंतर (जिसे अवशिष्ट या residuals कहा जाता है) के वर्गों के योग को न्यूनतम करता है।
एक सरल रैखिक प्रतिगमन मॉडल (y = a + bx) में:
- y देखे गए आश्रित चर का मान है।
- ŷ (y-hat) दिए गए x के लिए प्रतिगमन रेखा द्वारा अनुमानित y का मान है।
- अवशिष्ट (e) = y – ŷ
न्यूनतम वर्ग मानदंड उस रेखा (अर्थात, ‘a’ (अवरोधन) और ‘b’ (ढलान) के मान) का पता लगाता है जो Σ(y – ŷ)² या Σe² के मान को न्यूनतम करता है।
इस विधि को व्यापक रूप से पसंद किया जाता है क्योंकि यह प्रतिगमन गुणांक (‘a’ और ‘b’) के लिए एक अद्वितीय और कुशल समाधान प्रदान करती है, और इसके परिणाम सांख्यिकीय रूप से वांछनीय गुणों वाले होते हैं।
Q7. सामान्य रूप से वितरित माने जाने वाले 1000 अवलोकनों के एक सेट के लिए, माध्य 534 सेमी और S.D. 13.5 सेमी है। कितने अवलोकन 556 सेमी से अधिक होने की संभावना है? कितने 520.5 और 547.5 सेमी के बीच होंगे? (दिया गया है कि मानक सामान्य वक्र के तहत कुल क्षेत्रफल 1 है, माध्य और पहले भाग के लिए परिकलित मान के बीच मानक सामान्य वक्र के तहत क्षेत्रफल 0.4772 है और दूसरे भाग के लिए 0.3413 है)।
Ans. यहाँ, हमें सामान्य वितरण के गुणों का उपयोग करके अवलोकनों की संख्या ज्ञात करनी है।
दी गई जानकारी:
- अवलोकनों की कुल संख्या (N) = 1000
- माध्य (μ) = 534 सेमी
- मानक विचलन (σ) = 13.5 सेमी
हम किसी भी मान (X) को एक मानक सामान्य चर (Z) में बदलने के लिए Z-स्कोर सूत्र का उपयोग करेंगे: Z = (X – μ) / σ
भाग 1: 556 सेमी से अधिक के अवलोकन
यहाँ, X = 556 सेमी।
सबसे पहले, हम Z-स्कोर की गणना करते हैं: Z = (556 – 534) / 13.5 = 22 / 13.5 ≈ 1.63
(नोट: प्रश्न में दिया गया है कि माध्य और परिकलित मान के बीच का क्षेत्रफल 0.4772 है, जो वास्तव में Z = 2.0 के लिए क्षेत्रफल है। हमारे परिकलित Z (1.63) और दिए गए क्षेत्रफल के बीच एक विसंगति है। परीक्षा की स्थिति में, हमें दिए गए मान का उपयोग करना चाहिए।)
हमें P(X > 556) ज्ञात करना है, जो P(Z > Z-value) के बराबर है। मानक सामान्य वक्र सममित होता है और माध्य के दाईं ओर का कुल क्षेत्रफल 0.5 है।
P(Z > Z-value) = (माध्य के दाईं ओर कुल क्षेत्रफल) – (माध्य और Z-value के बीच का क्षेत्रफल) P(X > 556) = 0.5 – 0.4772 = 0.0228
अब, 556 सेमी से अधिक होने वाले अवलोकनों की अपेक्षित संख्या है: संख्या = N × P(X > 556) संख्या = 1000 × 0.0228 = 22.8
चूंकि अवलोकनों की संख्या एक पूर्णांक होनी चाहिए, हम इसे निकटतम पूर्णांक में बदल देते हैं। अतः, लगभग 23 अवलोकन 556 सेमी से अधिक होने की संभावना है।
भाग 2: 520.5 और 547.5 सेमी के बीच के अवलोकन
हमें P(520.5 < X < 547.5) ज्ञात करना है। हम दोनों मानों के लिए Z-स्कोर की गणना करेंगे।
X₁ = 520.5 सेमी के लिए: Z₁ = (520.5 – 534) / 13.5 = -13.5 / 13.5 = -1.0
X₂ = 547.5 सेमी के लिए: Z₂ = (547.5 – 534) / 13.5 = 13.5 / 13.5 = +1.0
हमें P(-1.0 < Z < 1.0) के बीच का क्षेत्रफल ज्ञात करना है। यह क्षेत्रफल (माध्य से Z = -1.0 तक का क्षेत्रफल) + (माध्य से Z = +1.0 तक का क्षेत्रफल) के बराबर है। चूंकि वक्र सममित है, P(0 < Z < 1.0) = P(-1.0 < Z < 0)।
प्रश्न में दिया गया है कि दूसरे भाग के लिए माध्य और परिकलित मान (जो Z=1.0 है) के बीच का क्षेत्रफल 0.3413 है।
कुल क्षेत्रफल = P(0 < Z < 1.0) + P(-1.0 < Z < 0) = 0.3413 + 0.3413 = 0.6826
अब, 520.5 और 547.5 सेमी के बीच के अवलोकनों की अपेक्षित संख्या है: संख्या = N × कुल क्षेत्रफल संख्या = 1000 × 0.6826 = 682.6
पूर्णांकित करने पर, लगभग 683 अवलोकन 520.5 सेमी और 547.5 सेमी के बीच होंगे।
Q8. “काल-श्रेणी विश्लेषण उपयोग में आने वाली सबसे शक्तिशाली विधियों में से एक है, विशेष रूप से अल्पकालिक पूर्वानुमान उद्देश्यों के लिए।” इस कथन पर टिप्पणी करें।
Ans. यह कथन काफी हद तक सही है। काल-श्रेणी विश्लेषण (Time-series analysis) वास्तव में पूर्वानुमान, विशेषकर अल्पकालिक पूर्वानुमान के लिए, एक अत्यंत शक्तिशाली और व्यापक रूप से उपयोग की जाने वाली विधि है। यह विधि समय के साथ समान अंतराल पर एकत्र किए गए डेटा बिंदुओं (काल-श्रेणी) का विश्लेषण करके भविष्य के मानों का अनुमान लगाती है।
काल-श्रेणी डेटा में आम तौर पर चार घटक होते हैं:
- प्रवृत्ति (Trend – T): डेटा में दीर्घकालिक वृद्धि या कमी की दिशा।
- मौसमी भिन्नता (Seasonal Variation – S): एक वर्ष के भीतर होने वाले नियमित और पूर्वानुमानित पैटर्न, जैसे छुट्टियों के दौरान बिक्री में वृद्धि।
- चक्रीय भिन्नता (Cyclical Variation – C): एक वर्ष से अधिक की अवधि में होने वाले उतार-चढ़ाव, जो अक्सर आर्थिक चक्रों से जुड़े होते हैं।
- अनियमित भिन्नता (Irregular Variation – I): अप्रत्याशित और यादृच्छिक घटनाएं जो किसी भी पैटर्न का पालन नहीं करती हैं।
अल्पकालिक पूर्वानुमान के लिए शक्ति:
काल-श्रेणी विश्लेषण की शक्ति इस धारणा पर आधारित है कि “भविष्य अतीत का विस्तार होगा।” यह धारणा अल्पकालिक क्षितिज पर अधिक विश्वसनीय होती है।
- पैटर्न की निरंतरता: अल्पकाल में, प्रवृत्ति और मौसमी पैटर्न अपेक्षाकृत स्थिर रहते हैं। उदाहरण के लिए, यदि किसी कंपनी की बिक्री पिछली कुछ तिमाहियों से बढ़ रही है, तो यह संभावना है कि अगली तिमाही में भी यह प्रवृत्ति जारी रहेगी।
- सरलता और प्रभावशीलता: मूविंग एवरेज (Moving Averages) और एक्सपोनेंशियल स्मूथिंग (Exponential Smoothing) जैसी विधियाँ लागू करने में सरल हैं और अनियमित उतार-चढ़ाव को सुचारू करके विश्वसनीय अल्पकालिक पूर्वानुमान प्रदान करती हैं। ये विधियाँ हाल के डेटा को अधिक महत्व देती हैं, जो उन्हें हाल के रुझानों के प्रति उत्तरदायी बनाता है।
- परिचालन संबंधी निर्णय: यह प्रबंधकों को इन्वेंट्री स्तर, उत्पादन कार्यक्रम, स्टाफिंग और नकदी प्रवाह प्रबंधन जैसे महत्वपूर्ण परिचालन संबंधी निर्णय लेने में मदद करता है। उदाहरण के लिए, एक खुदरा विक्रेता पिछले वर्षों के बिक्री डेटा का विश्लेषण करके यह अनुमान लगा सकता है कि त्योहारी सीजन के लिए कितना स्टॉक रखना है।
सीमाएं और विचार:
हालांकि यह अल्पकाल के लिए शक्तिशाली है, लेकिन इसकी कुछ सीमाएं भी हैं, खासकर दीर्घकालिक पूर्वानुमान के लिए:
- संरचनात्मक परिवर्तनों की उपेक्षा: यह विधि बाजार में बड़े संरचनात्मक परिवर्तनों, नई प्रौद्योगिकियों के आगमन, या सरकारी नीतियों में बदलाव का अनुमान नहीं लगा सकती है, जो दीर्घकालिक रुझानों को बदल सकते हैं।
- कारणों की व्याख्या का अभाव: काल-श्रेणी विश्लेषण यह बताता है कि ‘क्या’ हो रहा है, लेकिन यह नहीं बताता कि ‘क्यों’ हो रहा है। यह केवल डेटा पैटर्न को एक्सट्रपलेशन करता है और बिक्री या मांग को चलाने वाले अंतर्निहित कारकों (जैसे प्रतिस्पर्धी मूल्य निर्धारण, विपणन व्यय) पर विचार नहीं करता है।
- अप्रत्याशित घटनाओं के प्रति संवेदनशीलता: यह विधि महामारी, प्राकृतिक आपदाओं या अचानक आर्थिक मंदी जैसी अप्रत्याशित घटनाओं के प्रभाव को शामिल नहीं कर सकती है।
निष्कर्ष: संक्षेप में, दिया गया कथन सटीक है। काल-श्रेणी विश्लेषण अल्पकालिक पूर्वानुमान के लिए एक अनिवार्य उपकरण है क्योंकि यह ऐतिहासिक पैटर्न पर आधारित है जो निकट भविष्य में जारी रहने की संभावना है। यह प्रबंधकों को त्वरित और डेटा-आधारित परिचालन निर्णय लेने में सक्षम बनाता है। हालांकि, दीर्घकालिक रणनीतिक योजना के लिए, प्रबंधकों को केवल इस विधि पर निर्भर नहीं रहना चाहिए, बल्कि इसे कारण-कार्य पूर्वानुमान मॉडल (causal forecasting models) और गुणात्मक विशेषज्ञ राय (qualitative expert opinions) के साथ पूरक करना चाहिए ताकि एक अधिक समग्र और मजबूत पूर्वानुमान प्राप्त हो सके।
IGNOU MS-08 Previous Year Solved Question Paper in English
Q1. Explain the meaning of descriptive statistics and inferential statistics. Define the type of variables used in statistics and comment on their usage.
Ans. Statistics is broadly divided into two main branches: descriptive statistics and inferential statistics. Both are crucial for analyzing data but serve different purposes. Descriptive Statistics: Descriptive statistics is the method of summarizing or describing the main features of a set of data. Its primary goal is to organize and present data in a way that is easily understandable. It does not attempt to draw conclusions about the population but only describes the data at hand. Its main tools include:
- Measures of Central Tendency: such as mean, median, and mode, which describe the center point of the data.
- Measures of Dispersion: such as range, quartile deviation, standard deviation, and variance, which indicate how spread out the data is.
- Frequency Distributions: presenting data in a tabular format.
- Graphical Representation: such as histograms, bar charts, and pie charts.
Inferential Statistics:
Inferential statistics involves using data collected from a small group (a sample) to make conclusions or inferences about a larger group (the population). It allows us to make predictions about a population or test hypotheses based on sample data.
Its main techniques include:
- Hypothesis Testing: to test a claim about a population parameter.
- Estimation: estimating a population parameter (like mean or proportion) based on a sample statistic, which includes point estimates and interval estimates (confidence intervals).
- Correlation and Regression Analysis: studying the relationships between variables.
Types of Variables in Statistics:
In statistics, a variable is a characteristic or attribute that can vary from person to person or object to object. Variables are primarily classified into two types:
1. Qualitative or Categorical Variables:
These variables represent non-numeric characteristics. They can be further divided into:
- Nominal: These variables represent categories that do not have a natural order. Examples: Gender (Male, Female), Marital Status (Married, Unmarried), Blood Type (A, B, AB, O). Their usage is purely for classification.
- Ordinal: These variables represent categories that have a meaningful order or rank, but the difference between the categories is not uniform or measurable. Examples: Satisfaction level (Very Satisfied, Satisfied, Dissatisfied), Educational qualification (High School, Graduate, Postgraduate).
2. Quantitative or Numerical Variables:
These variables represent measurable quantities and take on numerical values. They can be further divided into:
- Interval: These variables have an order, and the difference between values is uniform and meaningful, but they lack a true zero point. This means a value of zero does not represent the absence of the property. Example: Temperature in Celsius or Fahrenheit. 0°C does not mean the absence of heat.
- Ratio: These are similar to interval variables but have a true zero point, which indicates the complete absence of the property being measured. Examples: Height, weight, income, age, profit. An income of 0 means no income. All mathematical operations (addition, subtraction, multiplication, division) are permissible on ratio variables.
Usage:
Understanding the type of variable is critical because it determines what kind of statistical analysis can be used. For instance, you cannot calculate a mean for nominal data, whereas all statistical measures are applicable to ratio data. Identifying the correct variable type is the first and most crucial step for a valid analysis.
Q2. ‘A’ speaks truth in 75% cases and ‘B’ in 80% of the cases. In what percentage of cases are they likely to contradict each other in narrating the same incident?
Ans. To solve this problem, we will use the principles of probability. Let:
- P(A) = The probability that A speaks the truth = 75% = 0.75
- P(B) = The probability that B speaks the truth = 80% = 0.80
From this, we can calculate the probabilities of them lying:
- P(A’) = The probability that A lies = 1 – P(A) = 1 – 0.75 = 0.25
- P(B’) = The probability that B lies = 1 – P(B) = 1 – 0.80 = 0.20
A and B will contradict each other in narrating the same incident if one of them speaks the truth and the other lies. There are two possible scenarios for this to happen:
Scenario 1: A speaks the truth, and B lies.
The probability of this event is P(A and B’). Since the events of A and B speaking the truth or lying are independent, we can multiply their probabilities:
P(A ∩ B’) = P(A) × P(B’)
P(A ∩ B’) = 0.75 × 0.20 = 0.15
Scenario 2: A lies, and B speaks the truth.
The probability of this event is P(A’ and B). Again, due to the independence of the events:
P(A’ ∩ B) = P(A’) × P(B)
P(A’ ∩ B) = 0.25 × 0.80 = 0.20
They will contradict each other if either Scenario 1
or
Scenario 2 occurs. Therefore, the total probability is the sum of the probabilities of these two mutually exclusive scenarios.
Total Probability of Contradiction = P(Scenario 1) + P(Scenario 2)
P(Contradiction) = P(A ∩ B’) + P(A’ ∩ B)
P(Contradiction) = 0.15 + 0.20 = 0.35
To express this probability as a percentage, we multiply by 100:
Percentage = 0.35 × 100 = 35%
Therefore, they are likely to contradict each other in
35%
of the cases when narrating the same incident.
Q3. Compute the Quartile Q3 and Percentile P80 and interpret these values for the grouped data showing profits of 100 companies in a year in the table given below:
Profit (in lakh rupees) Number of Companies 20—30 10 30—40 20 40—50 35 50—60 15 60—70 40
Ans. First, we will create a cumulative frequency table from the given frequency distribution. (Note: The total number of companies in the table is 10+20+35+15+40 = 120, not 100 as mentioned in the question. We will proceed with the data from the table, i.e., N=120, for calculation.)
Cumulative Frequency Table:
| Profit (in lakh rupees) | Number of Companies (f) | Cumulative Frequency (cf) |
|---|---|---|
| 20—30 | 10 | 10 |
| 30—40 | 20 | 30 |
| 40—50 | 35 | 65 |
| 50—60 | 15 | 80 |
| 60—70 | 40 | 120 |
Total |
N = 120 |
1. Calculation of Third Quartile (Q3) (assuming Qe is a typo for Q3)
The position of Q3 = 3N / 4 = (3 × 120) / 4 = 90th item.
From the cumulative frequency table, we see that the 90th item falls in the class interval
60-70
.
The formula for Q3 is:
Q3 = L + [((3N/4) – cf) / f] × h
Where:
- L = Lower limit of the quartile class = 60
- N = Total frequency = 120
- cf = Cumulative frequency of the class preceding the quartile class = 80
- f = Frequency of the quartile class = 40
- h = Class width = 10 (e.g., 70-60)
Substituting the values into the formula:
Q3 = 60 + [(90 – 80) / 40] × 10
Q3 = 60 + [10 / 40] × 10
Q3 = 60 + 0.25 × 10
Q3 = 60 + 2.5 = 62.5
Interpretation of Q3:
The value of the third quartile is 62.5 lakh rupees. This means that
75% of the companies have an annual profit of 62.5 lakh rupees or less
, while the remaining 25% of companies have a profit of more than 62.5 lakh rupees.
2. Calculation of 80th Percentile (P80) (assuming Peso is P80) The position of P80 = 80N / 100 = (80 × 120) / 100 = 96th item. From the cumulative frequency table, we see that the 96th item also falls in the class interval 60-70 . The formula for P80 is: P80 = L + [((80N/100) – cf) / f] × h Where:
- L = Lower limit of the percentile class = 60
- N = 120
- cf = Cumulative frequency of the class preceding the percentile class = 80
- f = Frequency of the percentile class = 40
- h = Class width = 10
Substituting the values into the formula:
P80 = 60 + [(96 – 80) / 40] × 10
P80 = 60 + [16 / 40] × 10
P80 = 60 + 0.4 × 10
P80 = 60 + 4 = 64
Interpretation of P80:
The value of the 80th percentile is 64 lakh rupees. This means that
80% of the companies have an annual profit of 64 lakh rupees or less
, and only 20% of the companies have a profit of more than 64 lakh rupees.
Q4. Explain hypothesis testing. What are the steps involved in hypothesis testing? Discuss the two types of errors in testing of hypothesis.
Ans. Hypothesis Testing is a statistical method used to make decisions by evaluating a claim or assumption (known as a hypothesis) about a population parameter (such as a mean or proportion) using sample data. It helps managers and researchers make data-driven decisions on whether a certain theory or hypothesis should be accepted or rejected. For example, a manager might want to test if a new advertising campaign increases sales, or if a new production process is faster than the old one.
Steps Involved in Hypothesis Testing: Hypothesis testing is a structured process that involves the following steps:
- Formulate the Null (H0) and Alternative (H1) Hypotheses:
- Null Hypothesis (H0): This is a statement of “no effect” or “no difference.” It is the hypothesis that we try to disprove with statistical evidence. Example: The new ad campaign has no effect on sales.
- Alternative Hypothesis (H1): This is the statement we believe to be true if we reject the null hypothesis. It is typically the researcher’s hypothesis. Example: The new ad campaign increases sales.
- Set the Significance Level (α): This is the probability of rejecting a true null hypothesis (a Type I error). Commonly, α is set to 0.05 (5%) or 0.01 (1%). It defines the amount of evidence needed to make a decision.
- Choose the appropriate Test Statistic: Based on the type of data, sample size, and the hypothesis, an appropriate test (e.g., z-test, t-test, chi-square test) is selected.
- Determine the Rejection Region: Based on the significance level (α) and the alternative hypothesis (one-tailed or two-tailed), we determine the range of values for which, if the test statistic falls within it, we will reject the null hypothesis. This range is called the critical or rejection region.
- Calculate the value of the Test Statistic: The value of the chosen test statistic is calculated using the sample data.
- Make a Decision: The calculated value of the test statistic is compared to the critical value.
- If the calculated value falls in the rejection region, we reject the null hypothesis .
- If the calculated value does not fall in the rejection region, we fail to reject the null hypothesis .
- Draw a Conclusion: The decision is interpreted in the context of the problem.
Two Types of Errors in Hypothesis Testing: There are two types of potential errors that can be made in hypothesis testing: 1. Type I Error (α): This error occurs when we reject a null hypothesis that is actually true . It is also known as a “false positive.” The probability of making this error is denoted by the significance level (α).
- Example: We conclude that a new drug is effective (reject H0) when in reality it is not (H0 was true).
2. Type II Error (β): This error occurs when we fail to reject a null hypothesis that is actually false . It is also known as a “false negative.” The probability of making this error is denoted by β.
- Example: We conclude that a new drug is not effective (fail to reject H0) when in reality it is effective (H0 was false).
There is an inverse relationship between α and β; decreasing one tends to increase the other. The researcher has to strike a balance between these two errors, depending on the consequences of each type of decision.
Q5. A preliminary sample of 100 labourers was selected out of 5000 population by using simple random sampling. It was found that 40 of the selected labourers opt for a new incentive scheme. How large a sample must be selected to have a precision of +5% with 95% confidence? (Given the tabulated value of statistic used at α = 0.05 is 1.96).
Ans. In this problem, we need to calculate the required sample size for a finite population to ensure the results are within a specified precision and confidence level.
First, we list the given information:
- Population size (N) = 5000
- Preliminary sample size (n₀) = 100
- Number of labourers opting for the scheme in the preliminary sample = 40
- Preliminary sample proportion (p) = 40 / 100 = 0.4
- Therefore, q = 1 – p = 1 – 0.4 = 0.6
- Desired precision (Margin of Error, E) = ±5% = 0.05
- Confidence level = 95%
- Significance level (α) = 1 – 0.95 = 0.05
- Z-value (Z) for 95% confidence level = 1.96 (given)
We will use the formula for calculating the sample size for a finite population, as the sample size may be a significant fraction of the population size. The formula is: n = (Z² × p × q × N) / (E² × (N – 1) + Z² × p × q) Now, we substitute the values into the formula: Calculating the Numerator: Z² × p × q × N = (1.96)² × 0.4 × 0.6 × 5000 = 3.8416 × 0.24 × 5000 = 0.921984 × 5000 = 4609.92 Calculating the Denominator: E² × (N – 1) + Z² × p × q = (0.05)² × (5000 – 1) + (1.96)² × 0.4 × 0.6 = 0.0025 × 4999 + 3.8416 × 0.24 = 12.4975 + 0.921984 = 13.419484 Calculating the Sample Size (n): n = Numerator / Denominator n = 4609.92 / 13.419484 n ≈ 343.52 Since the sample size must be a whole number (as we are counting labourers), we always round up to the next higher integer to ensure the desired precision is met. Therefore, n = 344 . Conclusion: A sample of 344 labourers must be selected to have a precision of ±5% with 95% confidence.
Q6. Write short notes on any three of the following: (a) Methods of collecting primary data (b) Criterion of Regret in Decision Theory (c) Non-probability sampling methods (d) Testing the Goodness of Fit (e) Least Square Criterion
Ans. (a) Methods of collecting primary data Primary data is data collected for the first time by a researcher directly from the source for a specific purpose. It is fresh and original data. The main methods for collecting it are:
- Observation Method: In this method, the researcher systematically observes and records the behavior, events, or characteristics of subjects without direct interaction. It can be direct or indirect, participant or non-participant. It is useful for studying the actual behavior of people.
- Interview Method: This involves collecting information through a face-to-face conversation with the respondent. It can be structured (pre-determined questions), unstructured (informal conversation), or semi-structured. Personal interviews, telephonic interviews, and online video interviews are its various forms.
- Questionnaire Method: In this method, a set of questions is given to respondents to fill out. The questionnaire can be distributed by mail, online (email, web forms), or in person. It is a cost-effective way to gather data from respondents spread over a large geographical area.
- Schedule Method: This is similar to a questionnaire, but the questions are filled in by an enumerator who asks the questions to the respondent. This method is useful when respondents are illiterate.
(b) Criterion of Regret in Decision Theory The criterion of regret, also known as the Minimax Regret Criterion , is a technique for decision-making under uncertainty. It is suitable for decision-makers who want to minimize the opportunity cost of making a wrong decision. The steps to use this criterion are:
- Prepare a Regret or Opportunity Loss Table: First, for each state of nature, the best possible outcome for that state is identified.
- Calculate Regret: For each state of nature, the regret for any action is the difference between the best outcome for that state and the actual outcome of that action. (Regret = Maximum Payoff – Actual Payoff).
- Identify Maximum Regret: For each action (alternative), the maximum regret value across all possible states of nature is found.
- Select Minimum Regret: Finally, the decision-maker chooses the action for which this maximum regret value is the minimum.
This criterion focuses on avoiding the feeling of “I wish I had chosen the other option.” It is less pessimistic than a purely conservative approach and seeks to ensure that the decision taken is not “too bad” under any circumstance.
(c) Non-probability sampling methods Non-probability sampling is a technique where samples are selected from a population not on a random basis, but based on the subjective judgment of the researcher. Every member of the population does not have a known probability of being selected. Its main methods are:
- Convenience Sampling: The researcher selects respondents who are easily available and accessible. This is the easiest and least expensive method, but it can be very biased.
- Judgmental or Purposive Sampling: The researcher, based on their knowledge and the purpose of the study, selects individuals who they think can provide the most appropriate information.
- Quota Sampling: This is the non-random equivalent of stratified sampling. The population is divided into subgroups based on characteristics like gender, age, etc., and a fixed number (a quota) of individuals is non-randomly selected from each subgroup.
- Snowball Sampling: This method is used when members of the target population are difficult to locate. The researcher identifies a few initial respondents and then asks them to refer others who meet the study’s criteria.
(d) Testing the Goodness of Fit A goodness-of-fit test is a statistical hypothesis test used to determine how well sample data fits a hypothesized distribution (such as a normal, binomial, or Poisson distribution). The most common example is the Chi-Square (χ²) goodness-of-fit test . This test compares the observed frequencies (O) with the frequencies we would expect under a null hypothesis (E). The Chi-Square statistic is calculated with the formula: χ² = Σ [(O – E)² / E] Where Σ is the sum across all categories. If the calculated χ² value is greater than the critical value for a given significance level, we reject the null hypothesis. This means the sample data does not fit the hypothesized distribution. If the calculated value is less than the critical value, we conclude that there is no significant difference between the observed and expected frequencies, and the data fits the distribution.
(e) Least Square Criterion The least square criterion is a standard method used in regression analysis to find the “best fit” line (or curve) for a set of data points. The criterion chooses the line that minimizes the sum of the squares of the differences (called residuals) between the observed values and the values predicted by the line. In a simple linear regression model (y = a + bx):
- y is the observed value of the dependent variable.
- ŷ (y-hat) is the value of y predicted by the regression line for a given x.
- The residual (e) = y – ŷ
The least square criterion finds the line (i.e., the values of ‘a’ (intercept) and ‘b’ (slope)) that minimizes the value of
Σ(y – ŷ)²
or
Σe²
.
This method is widely preferred because it provides a unique and efficient solution for the regression coefficients (‘a’ and ‘b’), and its results have statistically desirable properties.
Q7. For a set of 1000 observations known to be normally distributed, the mean is 534 cm and S.D. is 13.5 cm. How many observations are likely to exceed 556 cm? How many will be between 520.5 and 547.5 cm? (Given that total area under the standard normal curve is 1, area under standard normal curve between mean and the calculated value for first part is 0.4772 and for the second part 0.3413).
Ans. Here, we need to use the properties of the normal distribution to find the number of observations. Given information:
- Total number of observations (N) = 1000
- Mean (μ) = 534 cm
- Standard Deviation (σ) = 13.5 cm
We will use the Z-score formula to convert any value (X) into a standard normal variable (Z):
Z = (X – μ) / σ
Part 1: Observations likely to exceed 556 cm
Here, X = 556 cm.
First, we calculate the Z-score:
Z = (556 – 534) / 13.5 = 22 / 13.5 ≈ 1.63
(Note: The question states the area between the mean and the calculated value is 0.4772, which is actually the area for Z = 2.0. There is a discrepancy between our calculated Z (1.63) and the given area. In an exam situation, we should use the given value.)
We need to find P(X > 556), which is equivalent to P(Z > Z-value).
The standard normal curve is symmetric, and the total area to the right of the mean is 0.5.
P(Z > Z-value) = (Total area to the right of mean) – (Area between mean and Z-value)
P(X > 556) = 0.5 – 0.4772 = 0.0228
Now, the expected number of observations exceeding 556 cm is:
Number = N × P(X > 556)
Number = 1000 × 0.0228 = 22.8
Since the number of observations must be an integer, we round it to the nearest whole number.
Thus, approximately
23 observations
are likely to exceed 556 cm.
Part 2: Observations between 520.5 and 547.5 cm
We need to find P(520.5 < X < 547.5). We will calculate the Z-scores for both values.
For X₁ = 520.5 cm:
Z₁ = (520.5 – 534) / 13.5 = -13.5 / 13.5 = -1.0
For X₂ = 547.5 cm:
Z₂ = (547.5 – 534) / 13.5 = 13.5 / 13.5 = +1.0
We need to find the area for P(-1.0 < Z < 1.0).
This area is equal to (Area from mean to Z = -1.0) + (Area from mean to Z = +1.0).
Since the curve is symmetric, P(0 < Z < 1.0) = P(-1.0 < Z < 0).
The question gives the area between the mean and the calculated value for the second part (which is Z=1.0) as
0.3413
.
Total Area = P(0 < Z < 1.0) + P(-1.0 < Z < 0)
= 0.3413 + 0.3413 = 0.6826
Now, the expected number of observations between 520.5 and 547.5 cm is:
Number = N × Total Area
Number = 1000 × 0.6826 = 682.6
Rounding off, approximately
683 observations
will be between 520.5 cm and 547.5 cm.
Q8. “Time-series analysis is one of the most powerful methods in use, especially for short-term forecasting purposes.” Comment on this statement.
Ans. This statement is largely accurate. Time-series analysis is indeed an extremely powerful and widely used method for forecasting, particularly for short-term horizons. It involves analyzing data points collected at regular intervals over time (a time series) to identify historical patterns and extrapolate them into the future. Time-series data typically consists of four components:
- Trend (T): The long-term direction of increase or decrease in the data.
- Seasonal Variation (S): Regular and predictable patterns that occur within a year, such as increased sales during holidays.
- Cyclical Variation (C): Fluctuations that occur over periods longer than a year, often linked to business or economic cycles.
- Irregular Variation (I): Unpredictable and random events that do not follow any pattern.
Power for Short-Term Forecasting:
The power of time-series analysis lies in the assumption that
“the future will be an extension of the past.”
This assumption is more reliable over a short-term horizon.
- Continuity of Patterns: In the short run, trend and seasonal patterns tend to remain relatively stable. For example, if a company’s sales have been growing for the past few quarters, it is likely this trend will continue into the next quarter.
- Simplicity and Effectiveness: Methods like Moving Averages and Exponential Smoothing are simple to implement and provide reliable short-term forecasts by smoothing out irregular fluctuations. These methods give more weight to recent data, making them responsive to recent trends.
- Operational Decisions: It helps managers make critical operational decisions regarding inventory levels, production schedules, staffing, and cash flow management. For instance, a retailer can analyze past sales data to forecast how much stock to carry for the holiday season.
Limitations and Considerations:
While powerful for the short term, it has limitations, especially for long-term forecasting:
- Ignores Structural Changes: The method cannot predict major structural shifts in the market, the advent of new technologies, or changes in government policies that can alter long-term trends.
- Lack of Causal Explanation: Time-series analysis explains ‘what’ is happening, but not ‘why’. It merely extrapolates data patterns and does not consider the underlying factors driving sales or demand (like competitor pricing, marketing spend).
- Vulnerability to Unforeseen Events: The method cannot incorporate the impact of unforeseen events like a pandemic, natural disaster, or a sudden economic recession.
Conclusion:
In summary, the given statement is accurate. Time-series analysis is an indispensable tool for short-term forecasting because it is based on historical patterns that are likely to persist in the near future. It enables managers to make quick, data-driven operational decisions. However, for long-term strategic planning, managers should not rely solely on this method but should supplement it with causal forecasting models and qualitative expert opinions to obtain a more holistic and robust forecast.
Download IGNOU previous Year Question paper download PDFs for MS-08 to improve your preparation. These ignou solved question paper IGNOU Previous Year Question paper solved PDF in Hindi and English help you understand the exam pattern and score better.
Thanks!
Leave a Reply