The IGNOU MCO-22 Solved Question Paper PDF Download page is designed to help students access high-quality exam resources in one place. Here, you can find ignou solved question paper IGNOU Previous Year Question paper solved PDF that covers all important questions with detailed answers. This page provides IGNOU all Previous year Question Papers in one PDF format, making it easier for students to prepare effectively.
- IGNOU MCO-22 Solved Question Paper in Hindi
- IGNOU MCO-22 Solved Question Paper in English
- IGNOU Previous Year Solved Question Papers (All Courses)
Whether you are looking for IGNOU Previous Year Question paper solved in English or ignou previous year question paper solved in hindi, this page offers both options to suit your learning needs. These solved papers help you understand exam patterns, improve answer writing skills, and boost confidence for upcoming exams.
IGNOU MCO-22 Solved Question Paper PDF

This section provides IGNOU MCO-22 Solved Question Paper PDF in both Hindi and English. These ignou solved question paper IGNOU Previous Year Question paper solved PDF include detailed answers to help you understand exam patterns and improve your preparation. You can also access IGNOU all Previous year Question Papers in one PDF for quick and effective revision before exams.
IGNOU MCO-22 Previous Year Solved Question Paper in Hindi
Q1. प्रबंधन के विभिन्न कार्यात्मक क्षेत्रों में मात्रात्मक तकनीकों के अनुप्रयोग पर चर्चा कीजिए।
Ans. मात्रात्मक तकनीकें (Quantitative Techniques – QT) गणितीय और सांख्यिकीय मॉडल का उपयोग करके प्रबंधकीय निर्णय लेने में सहायता करती हैं। ये तकनीकें जटिल समस्याओं का विश्लेषण करने, संसाधनों का इष्टतम उपयोग करने और भविष्य के बारे_ में पूर्वानुमान लगाने में मदद करती हैं। प्रबंधन के विभिन्न कार्यात्मक क्षेत्रों में इनका अनुप्रयोग इस प्रकार है:
1. वित्तीय प्रबंधन (Financial Management):
वित्त में, मात्रात्मक तकनीकें निवेश निर्णयों, पूंजी बजटिंग और जोखिम प्रबंधन में महत्वपूर्ण भूमिका निभाती हैं।
- पूंजी बजटिंग: नेट प्रेजेंट वैल्यू (NPV), इंटरनल रेट ऑफ रिटर्न (IRR) और पेबैक पीरियड जैसी तकनीकों का उपयोग विभिन्न निवेश परियोजनाओं की लाभप्रदता का मूल्यांकन करने के लिए किया जाता है।
- पोर्टफोलियो प्रबंधन: मार्कोविट्ज़ मॉडल और कैपिटल एसेट प्राइसिंग मॉडल (CAPM) का उपयोग जोखिम को कम करते हुए रिटर्न को अधिकतम करने के लिए एक इष्टतम निवेश पोर्टफोलियो बनाने में मदद करने के लिए किया जाता है।
- जोखिम विश्लेषण: सिमुलेशन तकनीकें (जैसे मोंटे कार्लो सिमुलेशन) और संभाव्यता सिद्धांत का उपयोग विभिन्न वित्तीय चर (जैसे स्टॉक की कीमतें, ब्याज दरें) में अनिश्चितता का विश्लेषण करने के लिए किया जाता है।
2. विपणन प्रबंधन (Marketing Management): विपणन में, QT का उपयोग उपभोक्ता व्यवहार को समझने, बाजार की मांग का पूर्वानुमान लगाने और विपणन रणनीतियों को अनुकूलित करने के लिए किया जाता है।
- बाजार अनुसंधान: सर्वेक्षण डेटा का विश्लेषण करने, बाजार को विभाजित करने और उपभोक्ता वरीयताओं की पहचान करने के लिए प्रतिगमन (Regression) और सहसंबंध (Correlation) विश्लेषण का उपयोग किया जाता है।
- मांग का पूर्वानुमान: समय श्रृंखला विश्लेषण (Time Series Analysis) और मूविंग एवरेज जैसी तकनीकों का उपयोग भविष्य की उत्पाद मांग का पूर्वानुमान लगाने के लिए किया जाता है।
- विज्ञापन बजट: लीनियर प्रोग्रामिंग का उपयोग विभिन्न मीडिया चैनलों में विज्ञापन खर्च को आवंटित करने के लिए किया जा सकता है ताकि न्यूनतम लागत पर अधिकतम पहुंच प्राप्त हो सके।
3. उत्पादन और संचालन प्रबंधन (Production and Operations Management): यह वह क्षेत्र है जहाँ QT का सबसे व्यापक रूप से उपयोग किया जाता है ताकि उत्पादन प्रक्रियाओं की दक्षता और प्रभावशीलता में सुधार हो सके।
- इन्वेंट्री प्रबंधन: इकोनॉमिक ऑर्डर क्वांटिटी (EOQ) मॉडल और जस्ट-इन-टाइम (JIT) जैसी तकनीकें होल्डिंग और ऑर्डरिंग लागत को कम करने में मदद करती हैं।
- गुणवत्ता नियंत्रण: सांख्यिकीय गुणवत्ता नियंत्रण (SQC) चार्ट का उपयोग उत्पादन प्रक्रिया की निगरानी करने और यह सुनिश्चित करने के लिए किया जाता है कि उत्पाद गुणवत्ता मानकों को पूरा करते हैं।
- शेड्यूलिंग: पर्ट (PERT) और सीपीएम (CPM) जैसी नेटवर्क विश्लेषण तकनीकों का उपयोग जटिल परियोजनाओं की योजना बनाने, शेड्यूल करने और निगरानी करने के लिए किया जाता है।
- सुविधा स्थान: परिवहन और असाइनमेंट मॉडल का उपयोग नए कारखानों या गोदामों के लिए इष्टतम स्थान निर्धारित करने के लिए किया जाता है।
4. मानव संसाधन प्रबंधन (Human Resource Management): मानव संसाधन में, QT का उपयोग भर्ती, प्रशिक्षण और प्रदर्शन मूल्यांकन से संबंधित निर्णयों में सहायता के लिए किया जाता है।
- कार्यबल योजना: मार्कोव विश्लेषण का उपयोग कर्मचारियों की आवाजाही (पदोन्नति, स्थानांतरण, इस्तीफे) का पूर्वानुमान लगाने और भविष्य की स्टाफिंग आवश्यकताओं की योजना बनाने के लिए किया जाता है।
- प्रदर्शन मूल्यांकन: सांख्यिकीय उपकरणों का उपयोग कर्मचारी प्रदर्शन डेटा का विश्लेषण करने और मूल्यांकन प्रणालियों की निष्पक्षता सुनिश्चित करने के लिए किया जाता है।
- वेतन निर्धारण: प्रतिगमन विश्लेषण का उपयोग अनुभव, शिक्षा और प्रदर्शन जैसे कारकों के आधार पर न्यायसंगत वेतन संरचना बनाने में मदद के लिए किया जा सकता है।
संक्षेप में, मात्रात्मक तकनीकें व्यक्तिपरक निर्णयों को वस्तुनिष्ठ, डेटा-संचालित विश्लेषण के साथ प्रतिस्थापित करके आधुनिक प्रबंधन का एक अनिवार्य हिस्सा बन गई हैं।
Q2. ‘सहसंबंध’ शब्द से आप क्या समझते हैं ? सहसंबंध का अध्ययन किसी उत्पाद की माँग का पूर्वानुमान लगाने में कैसे मदद करता है ? व्याख्या कीजिए ।
Ans.
सहसंबंध की अवधारणा (Concept of Correlation):
सहसंबंध एक सांख्यिकीय माप है जो दो या दो से अधिक चरों (variables) के बीच संबंध की मात्रा और दिशा को व्यक्त करता है। यह बताता है कि एक चर में परिवर्तन होने पर दूसरा चर किस प्रकार बदलता है। सहसंबंध के मुख्य पहलू हैं:
- दिशा (Direction): संबंध सकारात्मक, नकारात्मक या शून्य हो सकता है।
- सकारात्मक सहसंबंध: जब दोनों चर एक ही दिशा में चलते हैं (यानी, एक बढ़ता है, तो दूसरा भी बढ़ता है)। उदाहरण: विज्ञापन व्यय और बिक्री।
- नकारात्मक सहसंबंध: जब दोनों चर विपरीत दिशाओं में चलते हैं (यानी, एक बढ़ता है, तो दूसरा घटता है)। उदाहरण: किसी उत्पाद की कीमत और उसकी मांग।
- शून्य सहसंबंध: जब चरों के बीच कोई स्पष्ट संबंध नहीं होता है।
- मात्रा (Strength): सहसंबंध गुणांक, जो -1 से +1 के बीच होता है, संबंध की ताकत को मापता है। +1 एक पूर्ण सकारात्मक सहसंबंध को इंगित करता है, -1 एक पूर्ण नकारात्मक सहसंबंध को इंगित करता है, और 0 कोई सहसंबंध नहीं दर्शाता है। 0.7 से ऊपर या -0.7 से नीचे के मान को आमतौर पर एक मजबूत सहसंबंध माना जाता है।
यह ध्यान रखना महत्वपूर्ण है कि सहसंबंध कार्य-कारण संबंध (causation) को नहीं दर्शाता है । सिर्फ इसलिए कि दो चर सहसंबद्ध हैं, इसका मतलब यह नहीं है कि एक दूसरे का कारण बनता है।
मांग पूर्वानुमान में सहसंबंध का उपयोग (Use of Correlation in Demand Forecasting):
सहसंबंध का अध्ययन किसी उत्पाद की मांग का पूर्वानुमान लगाने में एक शक्तिशाली उपकरण है। यह प्रबंधकों को उन प्रमुख कारकों की पहचान करने में मदद करता है जो उनके उत्पाद की मांग को प्रभावित करते हैं। मांग पूर्वानुमान में इसकी भूमिका इस प्रकार है:
- प्रमुख चालकों की पहचान: प्रबंधक किसी उत्पाद की मांग और विभिन्न संभावित प्रभावशाली चरों के बीच सहसंबंध का विश्लेषण कर सकते हैं। इन चरों में शामिल हो सकते हैं:
- उत्पाद की अपनी कीमत
- प्रतिस्पर्धी उत्पादों की कीमतें
- विज्ञापन पर खर्च
- उपभोक्ताओं की आय का स्तर
- ब्याज दरें
- मौसम की स्थिति
मजबूत सहसंबंध वाले चरों की पहचान करके, प्रबंधक पूर्वानुमान मॉडल बनाने के लिए सबसे प्रासंगिक कारकों पर ध्यान केंद्रित कर सकते हैं।
- पूर्वानुमान मॉडल का निर्माण: एक बार जब महत्वपूर्ण चर पहचान लिए जाते हैं, तो सहसंबंध विश्लेषण प्रतिगमन विश्लेषण (regression analysis) का आधार बनता है। एक प्रतिगमन मॉडल एक गणितीय समीकरण बनाता है जो मांग (आश्रित चर) और पहचाने गए एक या अधिक चालकों (स्वतंत्र चरों) के बीच संबंध का वर्णन करता है। उदाहरण के लिए, एक साधारण मॉडल हो सकता है: मांग = a – b(कीमत) + c(विज्ञापन व्यय) ।
- ‘क्या-अगर’ परिदृश्यों का विश्लेषण: सहसंबद्ध संबंधों को समझकर, व्यवसाय ‘क्या-अगर’ (what-if) परिदृश्यों का मूल्यांकन कर सकते हैं। उदाहरण के लिए, वे अनुमान लगा सकते हैं कि यदि वे अपने विज्ञापन बजट को 10% बढ़ाते हैं या अपनी कीमत 5% कम करते हैं तो मांग पर क्या प्रभाव पड़ेगा। यह रणनीतिक मूल्य निर्धारण और विपणन निर्णय लेने में मदद करता है।
- बाजार की गतिशीलता को समझना: सहसंबंध विश्लेषण प्रतिस्पर्धी गतिशीलता में अंतर्दृष्टि प्रदान कर सकता है। उदाहरण के लिए, यदि किसी प्रतियोगी के उत्पाद की कीमत और आपकी बिक्री के बीच एक मजबूत सकारात्मक सहसंबंध है, तो इसका मतलब है कि जब वे अपनी कीमतें बढ़ाते हैं, तो आपकी बिक्री बढ़ती है (शायद इसलिए कि उपभोक्ता आपके उत्पाद पर स्विच करते हैं)।
संक्षेप में, सहसंबंध विश्लेषण प्रबंधकों को केवल ऐतिहासिक बिक्री डेटा पर निर्भर रहने के बजाय मांग के अंतर्निहित चालकों को समझने में सक्षम बनाता है, जिससे अधिक सटीक और मजबूत पूर्वानुमान प्राप्त होते हैं।
Q3. (a) तोरण (Ogives) क्या हैं ? उदाहरण की सहायता से तोरण बनाने की विधि पर चर्चा कीजिए। (b) अनुप्रयुक्त सांख्यिकी में केन्द्रीय सीमा प्रमेय की व्यावहारिक उपयोगिता क्या है ?
Ans.
(a) तोरण (Ogives):
एक तोरण (Ogive) , जिसे संचयी आवृत्ति बहुभुज (cumulative frequency polygon) भी कहा जाता है, एक प्रकार का आवृत्ति बहुभुज है जो संचयी आवृत्तियों को दर्शाता है। यह एक ग्राफ है जो डेटा के दिए गए मान से “कम” या “अधिक” डेटा बिंदुओं की संख्या को दिखाता है। तोरण डेटा वितरण के बारे में जानकारी प्राप्त करने के लिए उपयोगी होते हैं, विशेष रूप से माध्यिका (median) और चतुर्थक (quartiles) जैसे मानों का अनुमान लगाने के लिए।
दो प्रकार के तोरण होते हैं:
- ‘से कम’ तोरण (Less Than Ogive): यह ऊपरी वर्ग सीमाओं (upper class boundaries) के विरुद्ध संचयी आवृत्तियों (‘से कम’ प्रकार) को प्लॉट करके बनाया जाता है। यह हमेशा बाएं से दाएं ऊपर की ओर बढ़ता है।
- ‘से अधिक’ तोरण (More Than Ogive): यह निचली वर्ग सीमाओं (lower class boundaries) के विरुद्ध संचयी आवृत्तियों (‘से अधिक’ प्रकार) को प्लॉट करके बनाया जाता है। यह हमेशा बाएं से दाएं नीचे की ओर गिरता है।
तोरण बनाने की विधि (उदाहरण सहित):
आइए एक कक्षा में 50 छात्रों द्वारा प्राप्त अंकों के निम्नलिखित आवृत्ति वितरण का उपयोग करके तोरण बनाने की विधि को समझें। चरण 1: संचयी आवृत्ति सारणी तैयार करें।
अंक (वर्ग अंतराल)
छात्रों की संख्या (f)
‘से कम’ संचयी आवृत्ति (c.f.)
‘से अधिक’ संचयी आवृत्ति (c.f.)
0-10 4 4 50
10-20 8 12 (4+8) 46 (50-4)
20-30 15 27 (12+15) 38 (46-8)
30-40 12 39 (27+12) 23 (38-15)
40-50 7 46 (39+7) 11 (23-12)
50-60 4 50 (46+4) 4 (11-7) चरण 2: ग्राफ पर अक्षों को लेबल करें।
X-अक्ष पर वर्ग सीमाओं (अंक) और Y-अक्ष पर संचयी आवृत्तियों को चिह्नित करें। चरण 3: ‘से कम’ तोरण प्लॉट करें।
X-अक्ष पर ऊपरी वर्ग सीमाओं (10, 20, 30, 40, 50, 60) और Y-अक्ष पर संगत ‘से कम’ संचयी आवृत्तियों (4, 12, 27, 39, 46, 50) को प्लॉट करें। इन बिंदुओं को एक चिकने वक्र से जोड़ें। वक्र को X-अक्ष पर निचली सीमा (0) से शुरू करें। चरण 4: ‘से अधिक’ तोरण प्लॉट करें।
X-अक्ष पर निचली वर्ग सीमाओं (0, 10, 20, 30, 40, 50) और Y-अक्ष पर संगत ‘से अधिक’ संचयी आवृत्तियों (50, 46, 38, 23, 11, 4) को प्लॉट करें। इन बिंदुओं को एक चिकने वक्र से जोड़ें। जिस बिंदु पर ‘से कम’ और ‘से अधिक’ तोरण एक-दूसरे को काटते हैं, वह डेटा सेट की माध्यिका (median) देता है। इस उदाहरण में, प्रतिच्छेदन बिंदु से X-अक्ष पर एक लंब खींचने पर हमें लगभग 28.6 का माध्यिका मान मिलेगा।
(b) केन्द्रीय सीमा प्रमेय की व्यावहारिक उपयोगिता (Practical Utility of Central Limit Theorem):
केन्द्रीय सीमा प्रमेय (Central Limit Theorem – CLT) अनुप्रयुक्त सांख्यिकी की आधारशिला है। यह प्रमेय कहता है कि यदि आप किसी जनसंख्या (population) से, चाहे उसका वितरण कैसा भी हो, पर्याप्त रूप से बड़े आकार (आमतौर पर n ≥ 30) के प्रतिदर्श (samples) बार-बार लेते हैं, तो उन प्रतिदर्शों के माध्यों का वितरण लगभग एक सामान्य वितरण (normal distribution) का पालन करेगा।
इसकी व्यावहारिक उपयोगिता बहुत अधिक है क्योंकि यह सांख्यिकीय अनुमान (statistical inference) को संभव बनाता है, भले ही हमें मूल जनसंख्या के वितरण के बारे में कुछ भी न पता हो। इसकी मुख्य उपयोगिताएँ हैं:
- परिकल्पना परीक्षण (Hypothesis Testing): CLT हमें प्रतिदर्श माध्य का उपयोग करके जनसंख्या माध्य के बारे में परिकल्पनाओं का परीक्षण करने की अनुमति देता है। उदाहरण के लिए, एक कंपनी यह परीक्षण करना चाहती है कि क्या एक नई निर्माण प्रक्रिया के परिणामस्वरूप उत्पादन समय में कमी आई है। वे नई प्रक्रिया का उपयोग करके 30 उत्पादों का एक प्रतिदर्श ले सकते हैं, उनके उत्पादन समय का माध्य ज्ञात कर सकते हैं, और फिर CLT का उपयोग करके यह निर्धारित कर सकते हैं कि क्या यह माध्य सांख्यिकीय रूप से पुराने माध्य से महत्वपूर्ण रूप से भिन्न है।
- विश्वास अंतराल (Confidence Intervals): CLT के कारण, हम प्रतिदर्श माध्य के आसपास एक विश्वास अंतराल का निर्माण कर सकते हैं ताकि जनसंख्या माध्य का अनुमान लगाया जा सके। उदाहरण के लिए, एक बाजार शोधकर्ता 1000 उपभोक्ताओं के एक प्रतिदर्श के आधार पर यह कह सकता है कि वे “95% आश्वस्त” हैं कि किसी उत्पाद के लिए औसत व्यय ₹500 और ₹550 के बीच है। यह संभव है क्योंकि हम जानते हैं कि प्रतिदर्श माध्य सामान्य रूप से वितरित होते हैं।
- गुणवत्ता नियंत्रण: विनिर्माण में, गुणवत्ता नियंत्रण चार्ट बनाने के लिए CLT का उपयोग किया जाता है। एक प्रक्रिया से नियमित अंतराल पर नमूने लिए जाते हैं और उनके माध्यों को प्लॉट किया जाता है। चूंकि CLT भविष्यवाणी करता है कि ये माध्य सामान्य रूप से वितरित होने चाहिए, कोई भी बिंदु जो अपेक्षित सीमा से बहुत दूर है, यह संकेत दे सकता है कि प्रक्रिया नियंत्रण से बाहर हो गई है।
- अनुमान को सरल बनाना: कई वास्तविक दुनिया की आबादी सामान्य रूप से वितरित नहीं होती हैं (जैसे, आय वितरण)। CLT हमें इन गैर-सामान्य आबादियों के साथ काम करते समय भी सामान्य वितरण के सुस्थापित सांख्यिकीय गुणों और तालिकाओं का उपयोग करने की अनुमति देता है, जब तक कि हम प्रतिदर्श माध्यों के साथ काम कर रहे हों।
संक्षेप में, केन्द्रीय सीमा प्रमेय एक पुल के रूप में कार्य करता है जो हमें प्रतिदर्शों से प्राप्त जानकारी का उपयोग करके अज्ञात जनसंख्या के बारे में विश्वसनीय और मान्य निष्कर्ष निकालने में सक्षम बनाता है, जो व्यावहारिक सांख्यिकीय विश्लेषण का मूल है।
Q4. (a) निम्नलिखित डेटा के लिए माध्यिका का उपयोग करके विषमता के द्वितीय गुणांक (SK₂) की गणना कीजिए : 2, 2, 3, 4, 5, 6, 7, 8, 9, 9 (b) यदि किसी वितरण का विषमता गुणांक 0.32 है, मानक विचलन 6.5 है और माध्य 29.6 है, तो वितरण का बहुलक ज्ञात कीजिए।
Ans.
(a) विषमता के द्वितीय गुणांक (SK₂) की गणना
कार्ल पियर्सन का विषमता का दूसरा गुणांक (माध्यिका का उपयोग करके) निम्नलिखित सूत्र द्वारा दिया गया है:
SK p = 3(माध्य – माध्यिका) / मानक विचलन
या, SK p = 3(Mean – Median) / σ
दिए गए आंकड़े: 2, 2, 3, 4, 5, 6, 7, 8, 9, 9
अवलोकनों की संख्या (n) = 10
1. माध्य (Mean) की गणना:
माध्य (x̄) = सभी अवलोकनों का योग / अवलोकनों की संख्या
माध्य = (2 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 + 9) / 10
माध्य = 55 / 10 = 5.5
2. माध्यिका (Median) की गणना: डेटा पहले से ही आरोही क्रम में है: 2, 2, 3, 4, 5, 6, 7, 8, 9, 9 चूंकि n = 10 (सम संख्या), माध्यिका (n/2)वें और (n/2 + 1)वें पद का औसत होगी, यानी 5वें और 6वें पद का औसत। 5वां पद = 5 6वां पद = 6 माध्यिका = (5 + 6) / 2 = 11 / 2 = 5.5
3. मानक विचलन (Standard Deviation, σ) की गणना: मानक विचलन का सूत्र है: σ = √[Σ(xᵢ – x̄)² / n] हम प्रत्येक अवलोकन के लिए (xᵢ – x̄)² की गणना करेंगे, जहाँ x̄ = 5.5 (2 – 5.5)² = (-3.5)² = 12.25 (2 – 5.5)² = (-3.5)² = 12.25 (3 – 5.5)² = (-2.5)² = 6.25 (4 – 5.5)² = (-1.5)² = 2.25 (5 – 5.5)² = (-0.5)² = 0.25 (6 – 5.5)² = (0.5)² = 0.25 (7 – 5.5)² = (1.5)² = 2.25 (8 – 5.5)² = (2.5)² = 6.25 (9 – 5.5)² = (3.5)² = 12.25 (9 – 5.5)² = (3.5)² = 12.25 Σ(xᵢ – x̄)² = 12.25 + 12.25 + 6.25 + 2.25 + 0.25 + 0.25 + 2.25 + 6.25 + 12.25 + 12.25 = 66.5 प्रसरण (Variance), σ² = Σ(xᵢ – x̄)² / n = 66.5 / 10 = 6.65 मानक विचलन, σ = √6.65 ≈ 2.578
4. विषमता के गुणांक (SK₂) की गणना: SK p = 3(माध्य – माध्यिका) / σ SK p = 3(5.5 – 5.5) / 2.578 SK p = 3(0) / 2.578 SK p = 0 परिणाम: दिए गए डेटा के लिए विषमता का द्वितीय गुणांक 0 है, जो इंगित करता है कि वितरण सममित (symmetrical) है।
(b) बहुलक (Mode) की गणना
कार्ल पियर्सन का विषमता का पहला गुणांक (बहुलक का उपयोग करके) निम्नलिखित सूत्र द्वारा दिया गया है:
विषमता गुणांक (Sk) = (माध्य – बहुलक) / मानक विचलन
Sk = (Mean – Mode) / Standard Deviation
दिया गया है:
विषमता गुणांक (Sk) = 0.32
मानक विचलन (SD) = 6.5
माध्य (Mean) = 29.6
1. सूत्र को पुनर्व्यवस्थित करें: हमें बहुलक (Mode) ज्ञात करना है, इसलिए हम सूत्र को बहुलक के लिए हल करने के लिए पुनर्व्यवस्थित करेंगे। Sk * SD = Mean – Mode Mode = Mean – (Sk * SD)
2. मानों को प्रतिस्थापित करें: Mode = 29.6 – (0.32 * 6.5)
3. गणना करें: पहले, कोष्ठक में गुणन की गणना करें: 0.32 * 6.5 = 2.08 अब, इस मान को माध्य से घटाएं: Mode = 29.6 – 2.08 Mode = 27.52 परिणाम: वितरण का बहुलक 27.52 है।
Q5. संभाव्यता और गैर-संभाव्यता नमूने के बीच क्या प्रमुख अंतर है ? उन विभिन्न कारणों की सूची बनाइए जो जनसंख्या के बारे में निष्कर्ष निकालने में नमूनाकरण को इतना आकर्षक बनाते हैं।
Ans.
संभाव्यता और गैर-संभाव्यता नमूने के बीच अंतर (Difference between Probability and Non-Probability Sampling):
नमूनाकरण (Sampling) एक बड़ी जनसंख्या (population) से उसके एक उपसमूह (subset), जिसे नमूना (sample) कहा जाता है, का चयन करने की प्रक्रिया है। नमूनाकरण विधियों को मोटे तौर पर दो श्रेणियों में बांटा जा सकता है: संभाव्यता नमूनाकरण और गैर-संभाव्यता नमूनाकरण। इनके बीच प्रमुख अंतर चयन की विधि और परिणामों की सामान्यीकरण क्षमता में निहित है।
विशेषता
संभाव्यता नमूनाकरण (Probability Sampling)
गैर-संभाव्यता नमूनाकरण (Non-Probability Sampling)
परिभाषा
एक नमूनाकरण तकनीक जिसमें जनसंख्या की प्रत्येक इकाई के पास चुने जाने का एक ज्ञात, गैर-शून्य मौका होता है।
एक नमूनाकरण तकनीक जिसमें जनसंख्या की इकाइयों का चयन व्यक्तिपरक या गैर-यादृच्छिक विधि से किया जाता है; चुने जाने की संभावना अज्ञात होती है।
चयन का आधार
यादृच्छिक (Random) चयन। यह निष्पक्षता सुनिश्चित करता है।
शोधकर्ता की सुविधा, निर्णय या कोटा के आधार पर व्यक्तिपरक (Subjective) चयन।
प्रतिनिधित्व
नमूने के जनसंख्या का अत्यधिक प्रतिनिधि होने की संभावना होती है।
नमूना जनसंख्या का प्रतिनिधि हो भी सकता है और नहीं भी; पूर्वाग्रह का खतरा अधिक होता है।
सांख्यिकीय अनुमान
शोधकर्ताओं को नमूने के परिणामों से जनसंख्या के बारे में सांख्यिकीय अनुमान (जैसे, त्रुटि का मार्जिन, विश्वास अंतराल) लगाने की अनुमति देता है।
सांख्यिकीय अनुमान लगाना संभव नहीं है। परिणाम केवल नमूने का वर्णन करते हैं, पूरी जनसंख्या का नहीं।
उदाहरण
सरल यादृच्छिक नमूनाकरण, स्तरीकृत नमूनाकरण, क्लस्टर नमूनाकरण, व्यवस्थित नमूनाकरण।
सुविधा नमूनाकरण, कोटा नमूनाकरण, निर्णयात्मक (judgmental) नमूनाकरण, स्नोबॉल नमूनाकरण।
उपयोग
जब उद्देश्य जनसंख्या के बारे में सटीक और सामान्यीकरण योग्य निष्कर्ष निकालना हो (जैसे, राष्ट्रीय सर्वेक्षण, वैज्ञानिक अनुसंधान)।
जब खोजपूर्ण शोध करना हो, विचारों को उत्पन्न करना हो, या जब समय और लागत की कमी हो (जैसे, फोकस समूह, पायलट अध्ययन)।
नमूनाकरण को आकर्षक बनाने वाले कारण (Reasons Making Sampling Attractive):
पूरी जनसंख्या का अध्ययन करने (जिसे जनगणना कहा जाता है) के बजाय नमूनाकरण का उपयोग करके जनसंख्या के बारे में निष्कर्ष निकालना कई कारणों से एक बहुत ही आकर्षक तरीका है। ये कारण हैं:
- लागत प्रभावशीलता (Cost-Effectiveness): पूरी आबादी के हर सदस्य से डेटा एकत्र करना, खासकर अगर आबादी बड़ी हो, बेहद महंगा हो सकता है। नमूनाकरण के लिए बहुत कम संसाधनों की आवश्यकता होती है, जिससे यह एक अधिक किफायती विकल्प बन जाता है।
- समय की बचत (Time Saving): एक छोटे समूह से डेटा एकत्र करना और उसका विश्लेषण करना पूरी आबादी के लिए ऐसा करने की तुलना में बहुत तेज होता है। यह उन व्यवसायों के लिए महत्वपूर्ण है जिन्हें तेजी से निर्णय लेने की आवश्यकता होती है।
- व्यावहारिकता और व्यवहार्यता (Practicality and Feasibility): कुछ मामलों में, जनगणना करना असंभव है। उदाहरण के लिए, यदि कोई कंपनी भारत में सभी चाय पीने वालों की आदतों का अध्ययन करना चाहती है, तो हर एक व्यक्ति तक पहुंचना संभव नहीं है। नमूनाकरण इस तरह के शोध को संभव बनाता है।
- अधिक सटीकता और गुणवत्ता (Greater Accuracy and Quality): विरोधाभासी रूप से, एक नमूना कभी-कभी जनगणना की तुलना में अधिक सटीक परिणाम दे सकता है। ऐसा इसलिए है क्योंकि एक छोटे ऑपरेशन के लिए, बेहतर प्रशिक्षित कर्मियों को नियुक्त करना, डेटा संग्रह का अधिक बारीकी से पर्यवेक्षण करना और प्रसंस्करण त्रुटियों को कम करना संभव है। जनगणना में, विशाल पैमाने के कारण गैर-नमूनाकरण त्रुटियों (जैसे डेटा प्रविष्टि गलतियाँ) की संभावना अधिक होती है।
- विनाशकारी परीक्षण (Destructive Testing): कुछ परीक्षणों में उत्पाद को नष्ट करना शामिल होता है। उदाहरण के लिए, एक कार की सुरक्षा रेटिंग का परीक्षण करने के लिए उसे दुर्घटनाग्रस्त करना, या एक बल्ब के जीवनकाल का पता लगाने के लिए उसे जलाना। इन मामलों में, पूरी आबादी (सभी कारें या बल्ब) का परीक्षण करना तर्कहीन होगा। नमूनाकरण ही एकमात्र विकल्प है।
- विस्तृत जानकारी का संग्रह (Collection of Detailed Information): चूंकि नमूनाकरण में कम लोगों को शामिल किया जाता है, इसलिए प्रत्येक व्यक्ति से अधिक विस्तृत और गहन जानकारी एकत्र करना संभव होता है। जनगणना में अक्सर केवल कुछ बुनियादी प्रश्नों तक ही सीमित रहना पड़ता है।
इन कारणों से, नमूनाकरण अनुसंधान और डेटा विश्लेषण में एक मौलिक उपकरण है, जो सीमित संसाधनों के साथ जनसंख्या के बारे में शक्तिशाली अंतर्दृष्टि प्रदान करता है।
Q6. काई-वर्ग (Chi-square) वितरण क्या है ? आप इसका उपयोग फिट की अच्छाई का परीक्षण करने और वर्गीकृत डेटा की स्वतंत्रता का परीक्षण करने में कैसे करेंगे ?
Ans.
काई-वर्ग (Chi-square, χ²) वितरण:
काई-वर्ग (χ²) वितरण एक सतत संभाव्यता वितरण है जिसका सांख्यिकी में, विशेष रूप से परिकल्पना परीक्षण में, व्यापक रूप से उपयोग किया जाता है। यह कई स्वतंत्र मानक सामान्य चरों (standard normal variables) के वर्गों के योग का वितरण है।
इसकी मुख्य विशेषताएं हैं:
- यह हमेशा गैर-नकारात्मक होता है (χ² मान शून्य या उससे अधिक होता है)।
- यह दाएं ओर विषम (positively skewed) होता है।
- वितरण का आकार ‘स्वतंत्रता की डिग्री’ (degrees of freedom – df) नामक एक पैरामीटर पर निर्भर करता है। जैसे-जैसे स्वतंत्रता की डिग्री बढ़ती है, काई-वर्ग वितरण सामान्य वितरण के करीब आने लगता है।
- इसका उपयोग मुख्य रूप से प्रेक्षित आवृत्तियों (observed frequencies) और अपेक्षित आवृत्तियों (expected frequencies) के बीच अंतर के महत्व का परीक्षण करने के लिए किया जाता है।
काई-वर्ग परीक्षण का मूल विचार यह मापना है कि हमारा प्रेक्षित नमूना डेटा (observed data) शून्य परिकल्पना (null hypothesis) के तहत अपेक्षित डेटा (expected data) से कितना भिन्न है। χ² सांख्यिकी की गणना सूत्र का उपयोग करके की जाती है:
χ² = Σ [ (O – E)² / E ]
जहाँ, O = प्रेक्षित आवृत्ति (Observed Frequency) और E = अपेक्षित आवृत्ति (Expected Frequency) है।
अनुप्रयोग: फिट की अच्छाई और स्वतंत्रता का परीक्षण
1. फिट की अच्छाई का परीक्षण (Testing the Goodness of Fit):
‘फिट की अच्छाई’ परीक्षण का उपयोग यह निर्धारित करने के लिए किया जाता है कि क्या एक नमूना डेटा किसी विशिष्ट सैद्धांतिक वितरण (जैसे सामान्य, द्विपद, या पॉइसन वितरण) से मेल खाता है या नहीं। यह हमें यह जांचने की अनुमति देता है कि क्या हमारे नमूने की आवृत्तियां उन आवृत्तियों से महत्वपूर्ण रूप से भिन्न हैं जिनकी हम एक परिकल्पित जनसंख्या वितरण से उम्मीद करेंगे।
उपयोग कैसे करें:
- चरण 1 (परिकल्पना): शून्य परिकल्पना (H₀) स्थापित करें कि प्रेक्षित आवृत्तियां अपेक्षित सैद्धांतिक वितरण के अनुकूल हैं। वैकल्पिक परिकल्पना (H₁) यह है कि वे अनुकूल नहीं हैं।
- चरण 2 (अपेक्षित आवृत्तियों की गणना): सैद्धांतिक वितरण और नमूना आकार के आधार पर प्रत्येक श्रेणी के लिए अपेक्षित आवृत्तियों (E) की गणना करें।
- चरण 3 (χ² सांख्यिकी की गणना): प्रत्येक श्रेणी के लिए प्रेक्षित (O) और अपेक्षित (E) आवृत्तियों का उपयोग करके ऊपर दिए गए χ² सूत्र का उपयोग करके काई-वर्ग मान की गणना करें।
- चरण 4 (निष्कर्ष): परिकलित χ² मान की तुलना स्वतंत्रता की डिग्री (df = k-1-m, जहाँ k श्रेणियों की संख्या है और m अनुमानित पैरामीटर की संख्या है) और महत्व के चुने हुए स्तर (जैसे, α = 0.05) के लिए काई-वर्ग वितरण तालिका से प्राप्त महत्वपूर्ण मान से करें। यदि परिकलित मान महत्वपूर्ण मान से अधिक है, तो हम शून्य परिकल्पना को अस्वीकार करते हैं और यह निष्कर्ष निकालते हैं कि डेटा सैद्धांतिक वितरण के अनुकूल नहीं है।
उदाहरण: यह परीक्षण करना कि क्या एक पासे को 60 बार फेंकने के परिणाम (प्रत्येक संख्या के लिए प्रेक्षित आवृत्तियां) एक निष्पक्ष पासे (प्रत्येक संख्या के लिए अपेक्षित आवृत्ति 10) के अनुरूप हैं।
2. वर्गीकृत डेटा की स्वतंत्रता का परीक्षण (Testing Independence of Categorized Data): इस परीक्षण का उपयोग यह निर्धारित करने के लिए किया जाता है कि क्या दो वर्गीकृत चर एक दूसरे से स्वतंत्र हैं या संबंधित (associated) हैं। डेटा को आमतौर पर एक आकस्मिकता सारणी (contingency table) में प्रस्तुत किया जाता है। उपयोग कैसे करें:
- चरण 1 (परिकल्पना): शून्य परिकल्पना (H₀) स्थापित करें कि दोनों चर स्वतंत्र हैं। वैकल्पिक परिकल्पना (H₁) यह है कि वे स्वतंत्र नहीं हैं (यानी, वे संबंधित हैं)।
- चरण 2 (अपेक्षित आवृत्तियों की गणना): यह मानते हुए कि चर स्वतंत्र हैं, आकस्मिकता सारणी के प्रत्येक सेल के लिए अपेक्षित आवृत्तियों की गणना करें। सूत्र है: E = (संबंधित पंक्ति का कुल * संबंधित स्तंभ का कुल) / कुल योग ।
- चरण 3 (χ² सांख्यिकी की गणना): प्रत्येक सेल के लिए प्रेक्षित (O) और अपेक्षित (E) आवृत्तियों का उपयोग करके χ² मान की गणना करें।
- चरण 4 (निष्कर्ष): परिकलित χ² मान की तुलना स्वतंत्रता की डिग्री (df = (r-1)(c-1), जहाँ r पंक्तियों की संख्या और c स्तंभों की संख्या है) और महत्व के स्तर के लिए काई-वर्ग तालिका से प्राप्त महत्वपूर्ण मान से करें। यदि परिकलित मान महत्वपूर्ण मान से अधिक है, तो हम शून्य परिकल्पना को अस्वीकार करते हैं और यह निष्कर्ष निकालते हैं कि दोनों चरों के बीच एक महत्वपूर्ण संबंध है।
उदाहरण: यह परीक्षण करना कि क्या किसी व्यक्ति के लिंग (पुरुष/महिला) और उनकी पसंदीदा कार के रंग (लाल/नीला/सफेद) के बीच कोई संबंध है।
Q7. व्यवसाय में पूर्वानुमान इतना महत्वपूर्ण क्यों है ? निम्नलिखित के लिए पूर्वानुमान के अनुप्रयोगों की पहचान कीजिए : (a) दीर्घकालिक निर्णय (b) मध्यम अवधि का निर्णय (c) अल्पकालिक निर्णय
Ans.
व्यवसाय में पूर्वानुमान का महत्व (Importance of Forecasting in Business):
पूर्वानुमान भविष्य की घटनाओं का अनुमान लगाने की प्रक्रिया है, जो ऐतिहासिक और वर्तमान डेटा के विश्लेषण पर आधारित होती है। यह आधुनिक व्यवसाय प्रबंधन का एक अनिवार्य अंग है क्योंकि यह अनिश्चितता को कम करने और प्रभावी योजना बनाने में मदद करता है। पूर्वानुमान के बिना, व्यवसाय बिना किसी दिशा के काम करेंगे, और केवल प्रतिक्रियात्मक रूप से कार्य करेंगे, न कि सक्रिय रूप से। इसका महत्व निम्नलिखित कारणों से है:
- योजना का आधार: पूर्वानुमान प्रबंधकों को लक्ष्य निर्धारित करने, बजट बनाने और संसाधनों को प्रभावी ढंग से आवंटित करने के लिए एक आधार प्रदान करता है।
- अनिश्चितता में कमी: हालांकि पूर्वानुमान भविष्य की भविष्यवाणी सटीकता से नहीं कर सकता, यह संभावित परिणामों की एक श्रृंखला प्रदान करके अनिश्चितता को कम करता है, जिससे प्रबंधकों को आकस्मिक योजनाएं बनाने में मदद मिलती है।
- बेहतर निर्णय लेना: डेटा-संचालित पूर्वानुमान प्रबंधकों को अंतर्ज्ञान या अनुमान के बजाय वस्तुनिष्ठ जानकारी के आधार पर सूचित निर्णय लेने में सक्षम बनाता है।
- संसाधनों का इष्टतम उपयोग: मांग का सटीक पूर्वानुमान करके, कंपनियां अतिरिक्त इन्वेंट्री या उत्पादन क्षमता में निवेश करने से बच सकती हैं, जिससे लागत बचती है।
- ग्राहक संतुष्टि: मांग का पूर्वानुमान यह सुनिश्चित करने में मदद करता है कि सही उत्पाद सही समय पर उपलब्ध हों, जिससे स्टॉक-आउट की स्थिति कम होती है और ग्राहकों की संतुष्टि बढ़ती है।
विभिन्न निर्णय अवधियों में पूर्वानुमान के अनुप्रयोग:
(a) दीर्घकालिक निर्णय (Long-term decisions):
दीर्घकालिक निर्णय आम तौर पर 2 से 10 वर्ष या उससे अधिक की समय-सीमा को कवर करते हैं और प्रकृति में रणनीतिक होते हैं। ये निर्णय कंपनी के भविष्य की दिशा और संरचना को आकार देते हैं। इन निर्णयों के लिए पूर्वानुमान व्यापक और मैक्रो-स्तरीय कारकों पर ध्यान केंद्रित करते हैं।
- अनुप्रयोग:
- क्षमता योजना (Capacity Planning): क्या एक नया कारखाना या उत्पादन सुविधा बनानी है? इसके लिए दीर्घकालिक बाजार मांग, आर्थिक विकास और तकनीकी परिवर्तनों के पूर्वानुमान की आवश्यकता होती है।
- नए उत्पाद का विकास: भविष्य के उपभोक्ता रुझानों, जीवन शैली में बदलाव और तकनीकी प्रगति का पूर्वानुमान लगाकर नए उत्पादों या सेवाओं के लिए अवसर खोजना।
- बाजार में विस्तार: नए भौगोलिक बाजारों में प्रवेश करने के निर्णयों के लिए उन क्षेत्रों में आर्थिक स्थिरता, जनसंख्या वृद्धि और प्रतिस्पर्धी परिदृश्य के पूर्वानुमान की आवश्यकता होती है।
- अनुसंधान और विकास (R&D): उभरती प्रौद्योगिकियों और वैज्ञानिक सफलताओं का पूर्वानुमान लगाना ताकि यह तय किया जा सके कि अनुसंधान प्रयासों को कहाँ केंद्रित किया जाए।
(b) मध्यम अवधि का निर्णय (Medium-term decisions):
मध्यम अवधि के निर्णय आमतौर पर 6 महीने से 2 वर्ष तक की अवधि के लिए होते हैं और प्रकृति में सामरिक (tactical) होते हैं। वे दीर्घकालिक रणनीतिक योजनाओं को प्राप्त करने के लिए संसाधनों को व्यवस्थित करने पर ध्यान केंद्रित करते हैं।
- अनुप्रयोग:
- बिक्री और संचालन योजना (S&OP): आने वाले वर्ष के लिए कुल बिक्री, उत्पादन स्तर और इन्वेंट्री का पूर्वानुमान लगाना ताकि आपूर्ति और मांग में संतुलन बना रहे।
- बजट बनाना: अगले वित्तीय वर्ष के लिए राजस्व, लागत और मुनाफे का पूर्वानुमान लगाना ताकि वित्तीय बजट तैयार किया जा सके।
- कार्यबल योजना (Workforce Planning): बिक्री पूर्वानुमानों के आधार पर भर्ती, प्रशिक्षण और छंटनी की जरूरतों का अनुमान लगाना।
- बिक्री कोटा निर्धारित करना: विभिन्न क्षेत्रों या बिक्री टीमों के लिए यथार्थवादी बिक्री लक्ष्यों और कोटा का पूर्वानुमान और निर्धारण करना।
(c) अल्पकालिक निर्णय (Short-term decisions):
अल्पकालिक निर्णय दिन-प्रतिदिन के कार्यों से संबंधित होते हैं और आमतौर पर कुछ दिनों से लेकर 6 महीने तक की अवधि को कवर करते हैं। ये पूर्वानुमान अत्यधिक विस्तृत और विशिष्ट होते हैं।
- अनुप्रयोग:
- इन्वेंट्री प्रबंधन: स्टॉक-आउट या ओवरस्टॉकिंग से बचने के लिए व्यक्तिगत उत्पादों (SKUs) के लिए दैनिक या साप्ताहिक मांग का पूर्वानुमान लगाना।
- उत्पादन अनुसूची (Production Scheduling): अगले सप्ताह या महीने के लिए उत्पादन चलाने की योजना बनाने के लिए विशिष्ट उत्पादों की मांग का पूर्वानुमान करना।
- कर्मचारी अनुसूची (Staff Scheduling): खुदरा स्टोर या कॉल सेंटर में ग्राहक प्रवाह का पूर्वानुमान लगाना ताकि यह सुनिश्चित हो सके कि व्यस्त समय के दौरान पर्याप्त कर्मचारी उपलब्ध हों।
- लॉजिस्टिक्स और परिवहन: शिपमेंट की योजना बनाने और वाहन मार्गों को अनुकूलित करने के लिए निकट-अवधि की ऑर्डर मात्रा का पूर्वानुमान करना।
Q8. निम्नलिखित में से किन्हीं चार पर संक्षिप्त टिप्पणियाँ लिखिए : (a) गुणोत्तर माध्य (b) बहुलक वर्ग (c) रैंक सहसंबंध (d) विषमता के माप (e) प्रबंधकीय अनुप्रयोग में निर्णय वातावरण
Ans.
(a) गुणोत्तर माध्य (Geometric Mean)
गुणोत्तर माध्य (GM) एक प्रकार का औसत है, जिसका उपयोग विशेष रूप से उन मानों के सेट के लिए किया जाता है जिनका गुणात्मक संबंध होता है, जैसे कि वृद्धि दर, प्रतिशत परिवर्तन या अनुपात। इसे n संख्याओं के गुणनफल के nवें मूल के रूप में परिभाषित किया गया है।
सूत्र: GM = (x₁ x₂ … * xₙ)¹/ⁿ
यह हमेशा अंकगणितीय माध्य से कम या उसके बराबर होता है। इसका मुख्य उपयोग वित्त में चक्रवृद्धि वार्षिक वृद्धि दर (CAGR) की गणना करने, आर्थिक सूचकांकों के निर्माण में और जब डेटा की सीमा बहुत बड़ी हो या उसमें आउटलायर्स हों, तब किया जाता है। उदाहरण के लिए, यदि किसी निवेश पर दो वर्षों में 10% और 20% का रिटर्न मिलता है, तो औसत रिटर्न की गणना के लिए गुणोत्तर माध्य अधिक उपयुक्त होता है। यह अंकगणितीय माध्य की तुलना में अत्यधिक मानों से कम प्रभावित होता है।
(b) बहुलक वर्ग (Modal Class)
समूहीकृत आवृत्ति वितरण (grouped frequency distribution) में, बहुलक वर्ग वह वर्ग अंतराल होता है जिसकी आवृत्ति सबसे अधिक होती है। यह उस श्रेणी को इंगित करता है जिसमें डेटा सेट के अधिकांश मान केंद्रित होते हैं। जबकि असतत डेटा के लिए बहुलक (mode) सबसे अधिक बार आने वाला मान होता है, समूहीकृत डेटा के लिए, हम पहले बहुलक वर्ग की पहचान करते हैं।
एक बार बहुलक वर्ग की पहचान हो जाने के बाद, वास्तविक बहुलक मान का अनुमान निम्नलिखित सूत्र का उपयोग करके लगाया जा सकता है: बहुलक = L + [ (f₁ – f₀) / (2f₁ – f₀ – f₂) ] * h जहाँ:
- L = बहुलक वर्ग की निचली सीमा
- f₁ = बहुलक वर्ग की आवृत्ति
- f₀ = बहुलक वर्ग से पहले वाले वर्ग की आवृत्ति
- f₂ = बहुलक वर्ग के बाद वाले वर्ग की आवृत्ति
- h = वर्ग अंतराल की चौड़ाई
बहुलक वर्ग डेटा के सबसे सामान्य या विशिष्ट समूह का त्वरित स्नैपशॉट प्रदान करता है।
(c) रैंक सहसंबंध (Rank Correlation)
रैंक सहसंबंध, जिसे स्पीयरमैन के रैंक सहसंबंध गुणांक (ρ या rₛ) के रूप में भी जाना जाता है, दो चरों के बीच संबंध की ताकत और दिशा को मापता है जो रैंक किए गए डेटा (ordinal data) पर आधारित होते हैं। पियर्सन सहसंबंध के विपरीत, जो एक रैखिक संबंध को मापता है, रैंक सहसंबंध एकदिष्ट संबंध (monotonic relationship) को मापता है (यानी, एक चर के बढ़ने पर दूसरा चर लगातार बढ़ता या घटता है, जरूरी नहीं कि एक स्थिर दर पर)।
इसकी गणना के लिए, प्रत्येक चर के डेटा को अलग-अलग रैंक किया जाता है। फिर, प्रत्येक जोड़ी के लिए रैंकों के बीच के अंतर (d) की गणना की जाती है। सूत्र है:
ρ = 1 – [ (6 Σd²) / (n (n² – 1)) ]
जहाँ n युग्मित प्रेक्षणों की संख्या है।
यह तब बहुत उपयोगी होता है जब डेटा मात्रात्मक न हो (जैसे, सौंदर्य, बुद्धिमत्ता की रैंकिंग) या जब चरों के बीच संबंध रैखिक न हो। इसका मान भी -1 से +1 तक होता है।
(d) विषमता के माप (Measure of Skewness)
विषमता (Skewness) एक सांख्यिकीय माप है जो एक आवृत्ति वितरण की विषमता (asymmetry) की डिग्री का वर्णन करता है। यह इंगित करता है कि डेटा माध्य के दोनों ओर समान रूप से वितरित है या नहीं।
- शून्य विषमता: एक पूर्ण सममित वितरण (जैसे सामान्य वितरण) में शून्य विषमता होती है। इसमें माध्य = माध्यिका = बहुलक होता है।
- सकारात्मक विषमता (Positive Skewness): वितरण का दाहिना सिरा (tail) लंबा होता है। अधिकांश डेटा बाईं ओर केंद्रित होता है। इस मामले में, माध्य > माध्यिका > बहुलक होता है। आय वितरण अक्सर सकारात्मक रूप से विषम होता है।
- नकारात्मक विषमता (Negative Skewness): वितरण का बायां सिरा लंबा होता है। अधिकांश डेटा दाईं ओर केंद्रित होता है। इस मामले में, माध्य < माध्यिका < बहुलक होता है।
विषमता को मापने के लिए कई गुणांक हैं, जिनमें कार्ल पियर्सन के गुणांक (माध्य, बहुलक/माध्यिका और मानक विचलन पर आधारित) और बाउली का गुणांक (चतुर्थक पर आधारित) शामिल हैं।
(e) प्रबंधकीय अनुप्रयोग में निर्णय वातावरण (Decision Environment in Managerial Application)
प्रबंधकीय निर्णय विभिन्न वातावरणों में लिए जाते हैं, जिन्हें उपलब्ध जानकारी की मात्रा और परिणामों की भविष्यवाणी के आधार पर वर्गीकृत किया जाता है। ये तीन प्रकार के होते हैं:
- निश्चितता (Certainty): यह एक ऐसी स्थिति है जिसमें प्रबंधक प्रत्येक वैकल्पिक कार्रवाई के परिणाम को निश्चित रूप से जानता है। भविष्य के बारे में पूरी जानकारी होती है और कोई अनिश्चितता नहीं होती है। उदाहरण के लिए, एक निश्चित ब्याज दर पर बैंक में पैसा निवेश करना। यह वातावरण प्रबंधकीय निर्णय लेने में बहुत दुर्लभ है।
- जोखिम (Risk): यह एक ऐसी स्थिति है जिसमें प्रबंधक को प्रत्येक परिणाम की निश्चितता तो नहीं होती, लेकिन वह प्रत्येक संभावित परिणाम की संभाव्यता (probability) का अनुमान लगा सकता है। यह संभाव्यता अक्सर ऐतिहासिक डेटा या व्यक्तिपरक अनुमान पर आधारित होती है। प्रबंधक अपेक्षित मूल्य (Expected Value) जैसी तकनीकों का उपयोग करके विकल्पों का मूल्यांकन कर सकते हैं। उदाहरण: एक बीमा कंपनी प्रीमियम निर्धारित करती है।
- अनिश्चितता (Uncertainty): यह सबसे कठिन वातावरण है। यहां, न तो परिणाम निश्चित होते हैं और न ही उनकी संभाव्यता का विश्वसनीय अनुमान लगाया जा सकता है। प्रबंधक के पास बहुत कम जानकारी होती है। ऐसे में, निर्णय व्यक्तिगत निर्णय, अंतर्ज्ञान और मनोवैज्ञानिक अभिविन्यास पर बहुत अधिक निर्भर करता है। इसके लिए विभिन्न मानदंड उपयोग किए जाते हैं, जैसे कि मैक्सीमैक्स (आशावादी), मैक्सीमिन (निराशावादी), और मिनिमैक्स रिग्रेट। उदाहरण: एक पूरी तरह से नई तकनीक के साथ एक नए बाजार में प्रवेश करना।
IGNOU MCO-22 Previous Year Solved Question Paper in English
Q1. Discuss the application of quantitative techniques in various functional areas of management.
Ans. Quantitative Techniques (QT) aid in managerial decision-making by using mathematical and statistical models. These techniques help in analyzing complex problems, optimizing resource utilization, and forecasting future events. Their application across various functional areas of management is as follows: 1. Financial Management: In finance, quantitative techniques play a crucial role in investment decisions, capital budgeting, and risk management.
- Capital Budgeting: Techniques like Net Present Value (NPV), Internal Rate of Return (IRR), and Payback Period are used to evaluate the profitability of various investment projects.
- Portfolio Management: The Markowitz Model and Capital Asset Pricing Model (CAPM) are used to help create an optimal investment portfolio to maximize returns while minimizing risk.
- Risk Analysis: Simulation techniques (like Monte Carlo simulation) and probability theory are used to analyze uncertainty in various financial variables such as stock prices and interest rates.
2. Marketing Management: In marketing, QT is used to understand consumer behavior, forecast market demand, and optimize marketing strategies.
- Market Research: Regression and Correlation analysis are used to analyze survey data, segment the market, and identify consumer preferences.
- Demand Forecasting: Techniques like Time Series Analysis and moving averages are used to predict future product demand.
- Advertising Budget: Linear programming can be used to allocate advertising expenditure across different media channels to achieve maximum reach at a minimum cost.
3. Production and Operations Management: This is the area where QT is most extensively used to improve the efficiency and effectiveness of production processes.
- Inventory Management: Techniques like Economic Order Quantity (EOQ) models and Just-in-Time (JIT) help in minimizing holding and ordering costs.
- Quality Control: Statistical Quality Control (SQC) charts are used to monitor the production process and ensure that products meet quality standards.
- Scheduling: Network analysis techniques like PERT (Program Evaluation and Review Technique) and CPM (Critical Path Method) are used for planning, scheduling, and monitoring complex projects.
- Facility Location: Transportation and assignment models are used to determine the optimal location for new factories or warehouses.
4. Human Resource Management (HRM): In HR, QT is used to assist in decisions related to recruitment, training, and performance evaluation.
- Workforce Planning: Markov analysis is used to forecast the movement of employees (promotions, transfers, resignations) and plan for future staffing needs.
- Performance Appraisal: Statistical tools are used to analyze employee performance data and ensure the fairness of evaluation systems.
- Salary Determination: Regression analysis can be used to help create equitable salary structures based on factors like experience, education, and performance.
In summary, quantitative techniques have become an indispensable part of modern management by supplementing subjective judgments with objective, data-driven analysis.
Q2. What do you understand by the term ‘correlation’? Explain how the study of correlation helps in forecasting demand of a product.
Ans. Concept of Correlation: Correlation is a statistical measure that expresses the extent and direction of the relationship between two or more variables. It indicates how a change in one variable is associated with a change in another. The main aspects of correlation are:
- Direction: The relationship can be positive, negative, or zero.
- Positive Correlation: When both variables move in the same direction (i.e., as one increases, the other also tends to increase). Example: Advertising expenditure and sales.
- Negative Correlation: When the variables move in opposite directions (i.e., as one increases, the other tends to decrease). Example: The price of a product and its demand.
- Zero Correlation: When there is no discernible relationship between the variables.
- Strength: The correlation coefficient, which ranges from -1 to +1, measures the strength of the relationship. +1 indicates a perfect positive correlation, -1 indicates a perfect negative correlation, and 0 indicates no correlation. Values above 0.7 or below -0.7 are generally considered strong correlations.
It is crucial to note that
correlation does not imply causation
. Just because two variables are correlated, it does not mean that one causes the other.
Use of Correlation in Demand Forecasting:
The study of correlation is a powerful tool in forecasting the demand for a product. It helps managers identify the key factors that influence the demand for their product. Its role in demand forecasting is as follows:
- Identification of Key Drivers: Managers can analyze the correlation between the demand for a product and various potential influencing variables. These variables could include:
- The product’s own price
- Prices of competing products
- Advertising spend
- Income levels of consumers
- Interest rates
- Weather conditions
By identifying the variables with strong correlations, managers can focus on the most relevant factors for building forecasting models.
- Building Forecasting Models: Once the significant variables are identified, correlation analysis forms the basis for regression analysis. A regression model creates a mathematical equation that describes the relationship between demand (the dependent variable) and one or more of the identified drivers (the independent variables). For example, a simple model might be: Demand = a – b(Price) + c(Advertising Spend) .
- Analysis of ‘What-if’ Scenarios: By understanding the correlated relationships, businesses can evaluate ‘what-if’ scenarios. For instance, they can estimate the impact on demand if they increase their advertising budget by 10% or decrease their price by 5%. This helps in making strategic pricing and marketing decisions.
- Understanding Market Dynamics: Correlation analysis can provide insights into competitive dynamics. For example, if there is a strong positive correlation between a competitor’s product price and your sales, it means that when they raise their prices, your sales increase (perhaps because consumers switch to your product).
In essence, correlation analysis enables managers to understand the underlying drivers of demand, rather than just relying on historical sales data, leading to more accurate and robust forecasts.
Q3. (a) What are Ogives? Discuss the method of constructing ogives with the help of an example. (b) What is the practical utility of the central limit theorem in Applied Statistics?
Ans. (a) Ogives: An Ogive , also known as a cumulative frequency polygon, is a type of frequency polygon that shows cumulative frequencies. It is a graph that represents the number of data points that are “less than” or “more than” a given value. Ogives are useful for obtaining information about the data distribution, especially for estimating values like the median and quartiles. There are two types of ogives:
- ‘Less Than’ Ogive: This is constructed by plotting the cumulative frequencies (‘less than’ type) against the upper class boundaries. It always slopes upwards from left to right.
- ‘More Than’ Ogive: This is constructed by plotting the cumulative frequencies (‘more than’ type) against the lower class boundaries. It always slopes downwards from left to right.
Method of Constructing an Ogive (with Example):
Let’s understand the method of constructing an ogive using the following frequency distribution of marks obtained by 50 students in a class.
Step 1: Prepare the cumulative frequency table.
| Marks (Class Interval) | No. of Students (f) | ‘Less Than’ Cumulative Frequency (c.f.) | ‘More Than’ Cumulative Frequency (c.f.) |
|---|---|---|---|
| 0-10 | 4 | 4 | 50 |
| 10-20 | 8 | 12 (4+8) | 46 (50-4) |
| 20-30 | 15 | 27 (12+15) | 38 (46-8) |
| 30-40 | 12 | 39 (27+12) | 23 (38-15) |
| 40-50 | 7 | 46 (39+7) | 11 (23-12) |
| 50-60 | 4 | 50 (46+4) | 4 (11-7) |
Step 2: Label the axes on a graph. Mark the class boundaries (Marks) on the X-axis and the cumulative frequencies on the Y-axis.
Step 3: Plot the ‘Less Than’ Ogive. Plot the points corresponding to the upper class boundaries (10, 20, 30, 40, 50, 60) on the X-axis and their corresponding ‘less than’ cumulative frequencies (4, 12, 27, 39, 46, 50) on the Y-axis. Join these points with a smooth curve. The curve starts from the lower boundary of the first class (0) on the X-axis.
Step 4: Plot the ‘More Than’ Ogive. Plot the points corresponding to the lower class boundaries (0, 10, 20, 30, 40, 50) on the X-axis and their corresponding ‘more than’ cumulative frequencies (50, 46, 38, 23, 11, 4) on the Y-axis. Join these points with a smooth curve.
The point where the ‘less than’ and ‘more than’ ogives intersect gives the median of the data set. By drawing a perpendicular from the intersection point to the X-axis, we would find the median value, which is approximately 28.6 in this example.
(b) Practical Utility of the Central Limit Theorem: The Central Limit Theorem (CLT) is a cornerstone of applied statistics. The theorem states that if you take sufficiently large samples (typically n ≥ 30) repeatedly from any population, regardless of its distribution, the distribution of the means of those samples will approximate a normal distribution. Its practical utility is immense because it makes statistical inference possible even when we know nothing about the distribution of the original population. Its main utilities are:
- Hypothesis Testing: The CLT allows us to test hypotheses about the population mean using the sample mean. For instance, a company wants to test if a new manufacturing process has resulted in a reduced production time. They can take a sample of 30 products using the new process, find the mean of their production times, and then use the CLT to determine if this mean is statistically significantly different from the old mean.
- Confidence Intervals: Because of the CLT, we can construct a confidence interval around a sample mean to estimate the population mean. For example, a market researcher can state, based on a sample of 1000 consumers, that they are “95% confident” that the average expenditure for a product is between ₹500 and ₹550. This is possible because we know the sample means are normally distributed.
- Quality Control: In manufacturing, the CLT is used to create quality control charts. Samples are taken from a process at regular intervals, and their means are plotted. Since the CLT predicts that these means should be normally distributed, any point that falls too far from the expected range can signal that the process has gone out of control.
- Simplifying Inference: Many real-world populations are not normally distributed (e.g., income distribution). The CLT allows us to use the well-established statistical properties and tables of the normal distribution even when dealing with these non-normal populations, as long as we are working with sample means.
In short, the Central Limit Theorem acts as a bridge that enables us to use information from samples to draw reliable and valid conclusions about unknown populations, which is the essence of practical statistical analysis.
Q4. (a) Calculate the second coefficient of skewness (SK₂) using median for the following data: 2, 2, 3, 4, 5, 6, 7, 8, 9, 9 (b) If the coefficient of skewness of a distribution is 0.32, the standard deviation is 6.5 and the mean is 29.6, then find the mode of distribution.
Ans. (a) Calculation of the Second Coefficient of Skewness (SK₂) Karl Pearson’s second coefficient of skewness (using the median) is given by the formula: SK p = 3(Mean – Median) / Standard Deviation SK p = 3(x̄ – Median) / σ Given data: 2, 2, 3, 4, 5, 6, 7, 8, 9, 9 Number of observations (n) = 10 1. Calculate the Mean (x̄): Mean = Sum of all observations / Number of observations Mean = (2 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 + 9) / 10 Mean = 55 / 10 = 5.5
2. Calculate the Median: The data is already in ascending order: 2, 2, 3, 4, 5, 6, 7, 8, 9, 9 Since n = 10 (an even number), the median is the average of the (n/2)th and (n/2 + 1)th terms, i.e., the average of the 5th and 6th terms. 5th term = 5 6th term = 6 Median = (5 + 6) / 2 = 11 / 2 = 5.5
3. Calculate the Standard Deviation (σ): The formula for standard deviation is: σ = √[Σ(xᵢ – x̄)² / n] We will calculate (xᵢ – x̄)² for each observation, where x̄ = 5.5 (2 – 5.5)² = (-3.5)² = 12.25 (2 – 5.5)² = (-3.5)² = 12.25 (3 – 5.5)² = (-2.5)² = 6.25 (4 – 5.5)² = (-1.5)² = 2.25 (5 – 5.5)² = (-0.5)² = 0.25 (6 – 5.5)² = (0.5)² = 0.25 (7 – 5.5)² = (1.5)² = 2.25 (8 – 5.5)² = (2.5)² = 6.25 (9 – 5.5)² = (3.5)² = 12.25 (9 – 5.5)² = (3.5)² = 12.25 Σ(xᵢ – x̄)² = 12.25 + 12.25 + 6.25 + 2.25 + 0.25 + 0.25 + 2.25 + 6.25 + 12.25 + 12.25 = 66.5 Variance, σ² = Σ(xᵢ – x̄)² / n = 66.5 / 10 = 6.65 Standard Deviation, σ = √6.65 ≈ 2.578
4. Calculate the Coefficient of Skewness (SK₂): SK p = 3(Mean – Median) / σ SK p = 3(5.5 – 5.5) / 2.578 SK p = 3(0) / 2.578 SK p = 0 Result: The second coefficient of skewness for the given data is 0, which indicates that the distribution is symmetrical.
(b) Calculation of the Mode Karl Pearson’s first coefficient of skewness (using the mode) is given by the formula: Coefficient of Skewness (Sk) = (Mean – Mode) / Standard Deviation Given: Coefficient of Skewness (Sk) = 0.32 Standard Deviation (SD) = 6.5 Mean = 29.6
1. Rearrange the formula: We need to find the Mode, so we will rearrange the formula to solve for Mode. Sk * SD = Mean – Mode Mode = Mean – (Sk * SD)
2. Substitute the values: Mode = 29.6 – (0.32 * 6.5)
3. Calculate: First, calculate the product in the parenthesis: 0.32 * 6.5 = 2.08 Now, subtract this value from the mean: Mode = 29.6 – 2.08 Mode = 27.52 Result: The mode of the distribution is 27.52.
Q5. What is the major difference between probability and non-probability sampling? List the various reasons that make sampling so attractive in drawing conclusions about the population.
Ans. Major Difference Between Probability and Non-Probability Sampling: Sampling is the process of selecting a subset, called a sample, from a larger population to study. Sampling methods can be broadly classified into two categories: probability sampling and non-probability sampling. The major difference lies in the method of selection and the generalizability of the findings.
| Feature | Probability Sampling | Non-Probability Sampling |
|---|---|---|
Definition |
A sampling technique where every unit in the population has a known, non-zero chance of being selected. | A sampling technique where the selection of units from the population is done using a subjective or non-random method; the probability of being selected is unknown. |
Basis of Selection |
Random selection. This ensures objectivity and fairness. | Subjective selection based on the researcher’s convenience, judgment, or quotas. |
Representativeness |
The sample is highly likely to be representative of the population. | The sample may or may not be representative of the population; the risk of bias is high. |
Statistical Inference |
Allows researchers to make statistical inferences (e.g., margin of error, confidence intervals) about the population from the sample results. | Making statistical inferences is not possible. The results only describe the sample, not the entire population. |
Examples |
Simple Random Sampling, Stratified Sampling, Cluster Sampling, Systematic Sampling. | Convenience Sampling, Quota Sampling, Judgmental Sampling, Snowball Sampling. |
Usage |
When the objective is to draw precise and generalizable conclusions about a population (e.g., national surveys, scientific research). | When conducting exploratory research, generating ideas, or when time and cost are constraints (e.g., focus groups, pilot studies). |
Reasons Making Sampling Attractive:
Drawing conclusions about a population by using sampling, rather than studying the entire population (which is called a census), is a very attractive approach for several reasons. These reasons are:
- Cost-Effectiveness: Collecting data from every member of a large population can be extremely expensive. Sampling requires far fewer resources, making it a more economical option.
- Time Saving: Collecting and analyzing data from a smaller group is much faster than doing so for an entire population. This is crucial for businesses that need to make quick decisions.
- Practicality and Feasibility: In some cases, conducting a census is simply impossible. For example, if a company wants to study the habits of all tea drinkers in India, it is not feasible to reach every single person. Sampling makes such research possible.
- Greater Accuracy and Quality: Paradoxically, a sample can sometimes yield more accurate results than a census. This is because, for a smaller operation, it is possible to hire better-trained personnel, supervise data collection more closely, and reduce processing errors. In a census, non-sampling errors (like data entry mistakes) are more likely due to the sheer scale.
- Destructive Testing: Some tests involve destroying the item being tested. For example, crash-testing a car to test its safety rating, or burning out a lightbulb to find its lifespan. In these cases, testing the entire population (all cars or bulbs) would be irrational. Sampling is the only option.
- Collection of Detailed Information: Since sampling involves fewer subjects, it is possible to collect more detailed and in-depth information from each individual. A census often has to be limited to only a few basic questions.
For these reasons, sampling is a fundamental tool in research and data analysis, providing powerful insights about a population with limited resources.
Q6. What is Chi-square distribution? How would you use it in testing the goodness of fit and testing independence of categorized data?
Ans. Chi-square (χ²) Distribution: The Chi-square (χ²) distribution is a continuous probability distribution that is widely used in statistics, particularly in hypothesis testing. It is the distribution of a sum of the squares of several independent standard normal variables. Its main characteristics are:
- It is always non-negative (the χ² value is zero or greater).
- It is positively skewed (skewed to the right).
- The shape of the distribution depends on a single parameter called ‘degrees of freedom’ (df). As the degrees of freedom increase, the Chi-square distribution begins to approximate a normal distribution.
- It is primarily used to test the significance of the difference between observed frequencies and expected frequencies.
The basic idea behind the Chi-square test is to measure how far our observed sample data deviates from the expected data under the null hypothesis. The χ² statistic is calculated using the formula:
χ² = Σ [ (O – E)² / E ]
Where, O = Observed Frequency and E = Expected Frequency.
Applications: Testing Goodness of Fit and Independence 1. Testing the Goodness of Fit: The ‘goodness of fit’ test is used to determine if a sample dataset matches a specific theoretical distribution (such as a normal, binomial, or Poisson distribution). It allows us to check if the frequencies in our sample differ significantly from the frequencies we would expect from a hypothesized population distribution. How to use:
- Step 1 (Hypotheses): Set the null hypothesis (H₀) that the observed frequencies fit the expected theoretical distribution. The alternative hypothesis (H₁) is that they do not fit.
- Step 2 (Calculate Expected Frequencies): Calculate the expected frequencies (E) for each category based on the theoretical distribution and sample size.
- Step 3 (Calculate χ² statistic): Use the χ² formula above to calculate the Chi-square value using the observed (O) and expected (E) frequencies for each category.
- Step 4 (Conclusion): Compare the calculated χ² value to the critical value from the Chi-square distribution table for the given degrees of freedom (df = k-1-m, where k is the number of categories and m is the number of estimated parameters) and chosen level of significance (e.g., α = 0.05). If the calculated value is greater than the critical value, we reject the null hypothesis and conclude that the data does not fit the theoretical distribution.
Example:
Testing if the outcomes of rolling a die 60 times (observed frequencies for each number) conform to that of a fair die (expected frequency of 10 for each number).
2. Testing Independence of Categorized Data: This test is used to determine whether two categorical variables are independent of or associated with each other. The data is typically presented in a contingency table. How to use:
- Step 1 (Hypotheses): Set the null hypothesis (H₀) that the two variables are independent. The alternative hypothesis (H₁) is that they are not independent (i.e., they are associated).
- Step 2 (Calculate Expected Frequencies): Assuming the variables are independent, calculate the expected frequencies for each cell of the contingency table. The formula is: E = (Row Total * Column Total) / Grand Total .
- Step 3 (Calculate χ² statistic): Calculate the χ² value using the observed (O) and expected (E) frequencies for each cell.
- Step 4 (Conclusion): Compare the calculated χ² value to the critical value from the Chi-square table for the degrees of freedom (df = (r-1)(c-1), where r is the number of rows and c is the number of columns) and level of significance. If the calculated value is greater than the critical value, we reject the null hypothesis and conclude that there is a significant association between the two variables.
Example:
Testing if there is a relationship between a person’s gender (Male/Female) and their preference of car color (Red/Blue/White).
Q7. Why is forecasting so important in business? Identify the applications of forecasting for the following: (a) Long-term decisions (b) Medium-term decisions (c) Short-term decisions
Ans. Importance of Forecasting in Business: Forecasting is the process of estimating future events based on the analysis of historical and current data. It is an indispensable part of modern business management because it helps to reduce uncertainty and enables effective planning. Without forecasting, businesses would operate without direction, acting only reactively rather than proactively. Its importance stems from the following reasons:
- Basis for Planning: Forecasts provide a basis for managers to set goals, create budgets, and allocate resources effectively.
- Reduction of Uncertainty: While forecasting cannot predict the future with certainty, it reduces uncertainty by providing a range of possible outcomes, helping managers to create contingency plans.
- Better Decision-Making: Data-driven forecasts enable managers to make informed decisions based on objective information rather than intuition or guesswork.
- Optimal Use of Resources: By accurately forecasting demand, companies can avoid investing in excess inventory or production capacity, thereby saving costs.
- Customer Satisfaction: Forecasting demand helps ensure that the right products are available at the right time, reducing stock-outs and increasing customer satisfaction.
Applications of Forecasting in Different Decision Horizons:
(a) Long-term decisions: Long-term decisions typically cover a time horizon of 2 to 10 years or more and are strategic in nature. These decisions shape the future direction and structure of the company. Forecasts for these decisions are broad and focus on macro-level factors.
- Applications:
- Capacity Planning: Should we build a new factory or production facility? This requires forecasts of long-term market demand, economic growth, and technological changes.
- New Product Development: Identifying opportunities for new products or services by forecasting future consumer trends, lifestyle changes, and technological advancements.
- Market Expansion: Decisions to enter new geographical markets require forecasts of economic stability, population growth, and the competitive landscape in those regions.
- Research & Development (R&D): Forecasting emerging technologies and scientific breakthroughs to decide where to focus research efforts.
(b) Medium-term decisions: Medium-term decisions usually span a period of 6 months to 2 years and are tactical in nature. They focus on organizing resources to achieve the long-term strategic plans.
- Applications:
- Sales and Operations Planning (S&OP): Forecasting aggregate sales, production levels, and inventory for the upcoming year to balance supply and demand.
- Budgeting: Forecasting revenues, costs, and profits for the next fiscal year to prepare financial budgets.
- Workforce Planning: Estimating hiring, training, and layoff needs based on sales forecasts.
- Setting Sales Quotas: Forecasting and setting realistic sales targets and quotas for different regions or sales teams.
(c) Short-term decisions: Short-term decisions are concerned with day-to-day operations and typically cover a period from a few days up to 6 months . These forecasts are highly detailed and specific.
- Applications:
- Inventory Management: Forecasting daily or weekly demand for individual products (SKUs) to avoid stock-outs or overstocking.
- Production Scheduling: Forecasting demand for specific products to plan production runs for the next week or month.
- Staff Scheduling: Forecasting customer traffic in a retail store or call center to ensure enough staff are available during peak hours.
- Logistics and Transportation: Forecasting near-term order volumes to plan shipments and optimize vehicle routes.
Q8. Write short notes on any four of the following: (a) Geometric Mean (b) Modal Class (c) Rank Correlation (d) Measure of Skewness (e) Decision Environment in Managerial Application
Ans. (a) Geometric Mean The Geometric Mean (GM) is a type of average, used specifically for sets of values that have a multiplicative relationship, such as growth rates, percentage changes, or ratios. It is defined as the nth root of the product of n numbers. Formula: GM = (x₁ x₂ … * xₙ)¹/ⁿ It is always less than or equal to the arithmetic mean. Its primary use is in finance for calculating the Compound Annual Growth Rate (CAGR), in constructing economic indices, and when the data has a wide range or contains outliers. For example, if an investment yields returns of 10% and 20% over two years, the geometric mean is more appropriate for calculating the average return. It is less affected by extreme values than the arithmetic mean.
(b) Modal Class In a grouped frequency distribution, the modal class is the class interval that has the highest frequency. It indicates the category where the majority of the data set’s values are concentrated. While the mode for discrete data is the most frequently occurring value, for grouped data, we first identify the modal class. Once the modal class is identified, the actual mode value can be estimated using the formula: Mode = L + [ (f₁ – f₀) / (2f₁ – f₀ – f₂) ] * h Where:
- L = Lower limit of the modal class
- f₁ = Frequency of the modal class
- f₀ = Frequency of the class preceding the modal class
- f₂ = Frequency of the class succeeding the modal class
- h = Width of the class interval
The modal class provides a quick snapshot of the most common or typical group in the data.
(c) Rank Correlation Rank correlation, also known as Spearman’s rank correlation coefficient (ρ or rₛ), measures the strength and direction of the relationship between two variables that are based on ranked data (ordinal data). Unlike the Pearson correlation, which measures a linear relationship, rank correlation measures a monotonic relationship (i.e., as one variable increases, the other consistently increases or decreases, but not necessarily at a constant rate). To calculate it, the data for each variable is ranked separately. Then, the differences in ranks (d) for each pair are calculated. The formula is: ρ = 1 – [ (6 Σd²) / (n (n² – 1)) ] where n is the number of paired observations. It is very useful when the data is not quantitative (e.g., rankings of beauty, intelligence) or when the relationship between variables is non-linear. Its value also ranges from -1 to +1.
(d) Measure of Skewness Skewness is a statistical measure that describes the degree of asymmetry of a frequency distribution. It indicates whether the data is distributed symmetrically on either side of the mean.
- Zero Skewness: A perfectly symmetrical distribution (like the normal distribution) has zero skewness. In it, Mean = Median = Mode.
- Positive Skewness: The distribution has a longer right tail. The bulk of the data is concentrated on the left side. In this case, Mean > Median > Mode. Income distributions are often positively skewed.
- Negative Skewness: The distribution has a longer left tail. The bulk of the data is concentrated on the right side. In this case, Mean < Median < Mode.
There are several coefficients to measure skewness, including Karl Pearson’s coefficients (based on mean, mode/median, and standard deviation) and Bowley’s coefficient (based on quartiles).
(e) Decision Environment in Managerial Application Managerial decisions are made in various environments, which are classified based on the amount of available information and the predictability of outcomes. There are three main types:
- Certainty: This is a situation where the manager knows the outcome of every alternative course of action with certainty. There is complete information about the future and no uncertainty. For example, investing money in a bank at a fixed interest rate. This environment is very rare in managerial decision-making.
- Risk: This is a situation where the manager does not know the outcome of each alternative with certainty but can assign a probability to each possible outcome. This probability is often based on historical data or subjective estimation. Managers can evaluate options using techniques like Expected Value. Example: An insurance company setting premiums.
- Uncertainty: This is the most difficult environment. Here, neither the outcomes are certain, nor can their probabilities be reliably estimated. The manager has very little information. In such cases, the decision depends heavily on personal judgment, intuition, and psychological orientation. Various criteria are used, such as maximax (optimistic), maximin (pessimistic), and minimax regret. Example: Entering a new market with a completely new technology.
Download IGNOU previous Year Question paper download PDFs for MCO-22 to improve your preparation. These ignou solved question paper IGNOU Previous Year Question paper solved PDF in Hindi and English help you understand the exam pattern and score better.
Thanks!
Leave a Reply