The IGNOU MS-95 Solved Question Paper PDF Download page is designed to help students access high-quality exam resources in one place. Here, you can find ignou solved question paper IGNOU Previous Year Question paper solved PDF that covers all important questions with detailed answers. This page provides IGNOU all Previous year Question Papers in one PDF format, making it easier for students to prepare effectively.
- IGNOU MS-95 Solved Question Paper in Hindi
- IGNOU MS-95 Solved Question Paper in English
- IGNOU Previous Year Solved Question Papers (All Courses)
Whether you are looking for IGNOU Previous Year Question paper solved in English or ignou previous year question paper solved in hindi, this page offers both options to suit your learning needs. These solved papers help you understand exam patterns, improve answer writing skills, and boost confidence for upcoming exams.
IGNOU MS-95 Solved Question Paper PDF

This section provides IGNOU MS-95 Solved Question Paper PDF in both Hindi and English. These ignou solved question paper IGNOU Previous Year Question paper solved PDF include detailed answers to help you understand exam patterns and improve your preparation. You can also access IGNOU all Previous year Question Papers in one PDF for quick and effective revision before exams.
IGNOU MS-95 Previous Year Solved Question Paper in Hindi
Q1. आंकड़े एकत्र करने में अवलोकन विधि के गुणों और सीमाओं का परीक्षण कीजिए। उपयुक्त उदाहरणों के साथ अपने उत्तर का वर्णन कीजिए।
Ans. अवलोकन विधि अनुसंधान में आंकड़े एकत्र करने की एक मौलिक तकनीक है, जिसमें शोधकर्ता सीधे तौर पर व्यक्तियों, समूहों या घटनाओं को उनके प्राकृतिक परिवेश में व्यवस्थित रूप से देखता और रिकॉर्ड करता है। इसमें उत्तरदाताओं से सीधे प्रश्न पूछना शामिल नहीं है।
अवलोकन विधि के गुण (Merits):
- प्रत्यक्षता और यथार्थता: यह विधि व्यवहार का प्रत्यक्ष विवरण प्रदान करती है जैसा कि वह घटित होता है। यह उत्तरदाताओं द्वारा बताई गई जानकारी (जो पक्षपातपूर्ण हो सकती है) के बजाय उनके वास्तविक व्यवहार को पकड़ती है। उदाहरण के लिए, एक स्टोर मैनेजर यह देखने के लिए ग्राहकों का अवलोकन कर सकता है कि वे वास्तव में स्टोर में कैसे घूमते हैं, बजाय इसके कि वे पूछें कि वे कैसे घूमते हैं।
- प्राकृतिक परिवेश: चूंकि अवलोकन अक्सर एक प्राकृतिक सेटिंग में होता है, इसलिए आंकड़े अधिक यथार्थवादी और बाहरी रूप से मान्य हो सकते हैं। इसे हॉथोर्न प्रभाव (जब लोग जानते हैं कि उन्हें देखा जा रहा है तो व्यवहार बदलना) को कम करने के लिए गुप्त रूप से किया जा सकता है।
- गैर-मौखिक व्यवहार: यह विधि गैर-मौखिक संकेतों, जैसे कि शारीरिक भाषा, बातचीत और अन्य सूक्ष्म व्यवहारों को पकड़ने के लिए उत्कृष्ट है, जिन्हें सर्वेक्षणों के माध्यम से आसानी से मापा नहीं जा सकता है।
- उन विषयों के लिए उपयुक्त जो संवाद नहीं कर सकते: यह उन विषयों का अध्ययन करने के लिए उपयोगी है जो मौखिक रूप से जानकारी प्रदान नहीं कर सकते हैं, जैसे कि छोटे बच्चे, जानवर, या गंभीर मानसिक दुर्बलता वाले व्यक्ति।
अवलोकन विधि की सीमाएं (Limitations):
- पर्यवेक्षक का पक्षपात: शोधकर्ता की अपनी मान्यताएं और अपेक्षाएं उनकी व्याख्याओं को प्रभावित कर सकती हैं, जिससे व्यक्तिपरक और पक्षपाती आंकड़े प्राप्त हो सकते हैं। एक ही घटना को दो अलग-अलग पर्यवेक्षक अलग-अलग तरीके से दर्ज कर सकते हैं।
- महंगा और समय लेने वाला: अवलोकन, विशेष रूप से दीर्घकालिक अध्ययन, बहुत समय लेने वाले और संसाधन-गहन हो सकते हैं। इसके लिए प्रशिक्षित पर्यवेक्षकों और लंबे समय तक आंकड़े एकत्र करने की आवश्यकता हो सकती है।
- नैतिक चिंताएं: गुप्त अवलोकन, जहां विषय नहीं जानते कि उन्हें देखा जा रहा है, गोपनीयता और सूचित सहमति के बारे में गंभीर नैतिक प्रश्न उठाता है।
- भावनाओं और दृष्टिकोणों को मापने में असमर्थता: अवलोकन केवल बाहरी व्यवहार को पकड़ सकता है। यह लोगों की भावनाओं, विश्वासों, दृष्टिकोणों या इरादों के पीछे के “क्यों” को नहीं समझा सकता है। उदाहरण के लिए, आप देख सकते हैं कि कोई ग्राहक किसी उत्पाद को खरीदता है, लेकिन आप यह नहीं जान सकते कि वे ब्रांड के प्रति वफादार हैं या सिर्फ इसलिए कि वह बिक्री पर था।
Q2. लिकर्ट-प्रकार का रेटिंग पैमाना क्या है? इसे संकलित रेटिंग का पैमाना क्यों कहा जाता है? इसके फायदे और सीमाओं का उल्लेख कीजिए।
Ans.
लिकर्ट-प्रकार का रेटिंग पैमाना (Likert-type rating scale) एक साइकोमेट्रिक पैमाना है जिसका उपयोग आमतौर पर प्रश्नावली अनुसंधान में किया जाता है। इसका उपयोग किसी विशेष विषय, वस्तु या कथन के प्रति उत्तरदाता के समझौते, राय या दृष्टिकोण की तीव्रता को मापने के लिए किया जाता है। पैमाने में आमतौर पर कथनों की एक श्रृंखला होती है, और उत्तरदाताओं को प्रत्येक कथन के लिए अपनी सहमति का स्तर इंगित करने के लिए कहा जाता है। सबसे आम प्रारूप एक पांच-बिंदु पैमाना है:
1. दृढ़ता से असहमत (Strongly Disagree)
2. असहमत (Disagree)
3. न तो सहमत और न ही असहमत (Neutral)
4. सहमत (Agree)
5. दृढ़ता से सहमत (Strongly Agree)
संकलित रेटिंग का पैमाना (Scale of Summated Rating):
लिकर्ट पैमाने को संकलित रेटिंग का पैमाना कहा जाता है क्योंकि किसी व्यक्ति का समग्र दृष्टिकोण स्कोर पैमाने पर सभी अलग-अलग मदों (कथनों) के लिए उनकी रेटिंग के योग (या औसत) से निर्धारित होता है। प्रत्येक प्रतिक्रिया विकल्प को एक संख्यात्मक मान दिया जाता है (उदाहरण के लिए, 1 से 5)। एक उत्तरदाता के लिए, इन सभी मानों को एक समग्र स्कोर बनाने के लिए जोड़ा जाता है। यह “संकलित” या समग्र स्कोर उस निर्माण या दृष्टिकोण का प्रतिनिधित्व करता है जिसे मापा जा रहा है। उदाहरण के लिए, यदि नौकरी की संतुष्टि को मापने वाले 10 कथन हैं, तो एक व्यक्ति का कुल स्कोर सभी 10 कथनों पर उनकी रेटिंग का योग होगा।
लिकर्ट पैमाने के लाभ (Advantages):
- निर्माण में आसानी: इसे बनाना और प्रशासित करना अपेक्षाकृत सरल है।
- मात्रात्मक आंकड़े: यह गुणात्मक दृष्टिकोणों को मात्रात्मक आंकड़ों में परिवर्तित करता है, जिससे सांख्यिकीय विश्लेषण संभव हो जाता है।
- उच्च विश्वसनीयता: जब अच्छी तरह से बनाया जाता है, तो लिकर्ट पैमाना समय के साथ और विभिन्न आबादी में लगातार परिणाम दे सकता है।
- अधिक सूक्ष्म जानकारी: यह सरल हां/नहीं या सहमत/असहमत प्रश्नों की तुलना में अधिक विस्तृत और सूक्ष्म प्रतिक्रियाएं प्रदान करता है।
लिकर्ट पैमाने की सीमाएं (Limitations):
- अंतराल की समानता का अभाव: तकनीकी रूप से, यह एक क्रमसूचक पैमाना (ordinal scale) है, जिसका अर्थ है कि हम यह नहीं मान सकते हैं कि “सहमत” और “दृढ़ता से सहमत” के बीच की मनोवैज्ञानिक दूरी “असहमत” और “तटस्थ” के बीच की दूरी के समान है।
- केंद्रीय प्रवृत्ति का पूर्वाग्रह: उत्तरदाता चरम विकल्पों (दृढ़ता से सहमत/असहमत) से बच सकते हैं और मध्य या तटस्थ प्रतिक्रियाओं का चयन कर सकते हैं।
- सामाजिक वांछनीयता पूर्वाग्रह: उत्तरदाता ऐसे उत्तर चुन सकते हैं जो उन्हें लगता है कि सामाजिक रूप से स्वीकार्य हैं, बजाय उनके जो उनके वास्तविक विश्वासों को दर्शाते हैं।
- एक-आयामीता (Unidimensionality) की धारणा: संकलित स्कोर इस धारणा पर निर्भर करता है कि सभी कथन एक ही अंतर्निहित दृष्टिकोण को माप रहे हैं, जो हमेशा सच नहीं हो सकता है।
Q3. आप नमूनाकरण डिजाइन के बारे में क्या जानते हैं? एक नमूनाकरण डिजाइन विकसित करते समय किन बिंदुओं पर विचार किया जाना चाहिए? चर्चा कीजिए।
Ans.
नमूनाकरण डिजाइन (Sampling Design) एक दी गई जनसंख्या से नमूना प्राप्त करने के लिए एक निश्चित योजना या खाका है। यह उस तकनीक या प्रक्रिया को संदर्भित करता है जिसे शोधकर्ता नमूने के लिए वस्तुओं का चयन करने में अपनाएगा। एक अच्छा नमूनाकरण डिजाइन यह सुनिश्चित करता है कि चुना गया नमूना पूरी आबादी का प्रतिनिधि है, जिससे शोधकर्ता अपने निष्कर्षों को सामान्य बना सकते हैं। नमूनाकरण डिजाइन का चुनाव अनुसंधान के उद्देश्यों, उपलब्ध संसाधनों और जनसंख्या की प्रकृति पर निर्भर करता है।
एक प्रभावी नमूनाकरण डिजाइन विकसित करते समय निम्नलिखित महत्वपूर्ण बिंदुओं पर विचार किया जाना चाहिए:
- लक्ष्य जनसंख्या को परिभाषित करना (Defining the Target Population): पहला और सबसे महत्वपूर्ण कदम उस समूह को स्पष्ट रूप से परिभाषित करना है जिसके बारे में आप निष्कर्ष निकालना चाहते हैं। जनसंख्या को विशेषताओं (जैसे, आयु, लिंग, भौगोलिक स्थिति, आय) के संदर्भ में सटीक रूप से परिभाषित किया जाना चाहिए। एक अस्पष्ट रूप से परिभाषित जनसंख्या एक त्रुटिपूर्ण नमूने को जन्म देगी।
- नमूनाकरण फ्रेम का निर्धारण (Determining the Sampling Frame): नमूनाकरण फ्रेम उन सभी व्यक्तियों या इकाइयों की सूची है जिनसे नमूना लिया जाएगा। उदाहरणों में टेलीफोन निर्देशिका, मतदाता सूची या किसी कंपनी के कर्मचारियों की सूची शामिल है। एक आदर्श नमूनाकरण फ्रेम पूर्ण, सटीक और अद्यतित होना चाहिए। एक अधूरा या गलत फ्रेम कवरेज त्रुटियों को जन्म दे सकता है।
- नमूनाकरण विधि का चयन (Selecting the Sampling Method): दो मुख्य प्रकार की नमूनाकरण विधियाँ हैं:
- संभाव्यता नमूनाकरण (Probability Sampling): इसमें जनसंख्या के प्रत्येक सदस्य के चुने जाने की एक ज्ञात, गैर-शून्य संभावना होती है। तरीके जैसे सरल यादृच्छिक नमूनाकरण (simple random sampling) , स्तरीकृत नमूनाकरण (stratified sampling) , और समूह नमूनाकरण (cluster sampling) इस श्रेणी में आते हैं। यह सांख्यिकीय अनुमान के लिए सबसे अच्छा है।
- गैर-संभाव्यता नमूनाकरण (Non-probability Sampling): इसमें चयन यादृच्छिक नहीं होता है। तरीके जैसे सुविधा नमूनाकरण (convenience sampling) , कोटा नमूनाकरण (quota sampling) , और निर्णय नमूनाकरण (judgmental sampling) शामिल हैं। यह तेज और कम खर्चीला है लेकिन इसमें पूर्वाग्रह का खतरा अधिक होता है।
विधि का चुनाव सटीकता की आवश्यकता, समय और बजट पर निर्भर करता है।
- नमूने के आकार का निर्धारण (Determining the Sample Size): नमूने में शामिल किए जाने वाले तत्वों की संख्या एक महत्वपूर्ण निर्णय है। नमूने का आकार वांछित सटीकता के स्तर, आत्मविश्वास के स्तर (confidence level), जनसंख्या में परिवर्तनशीलता और अनुसंधान की लागत और समय की कमी पर निर्भर करता है। एक बड़ा नमूना आम तौर पर नमूनाकरण त्रुटि को कम करता है लेकिन लागत बढ़ाता है।
- लागत और समय (Cost and Time): नमूनाकरण डिजाइन को अनुसंधान के लिए उपलब्ध बजटीय और समय की बाधाओं के भीतर यथार्थवादी होना चाहिए। संभाव्यता नमूनाकरण अक्सर गैर-संभाव्यता नमूनाकरण की तुलना में अधिक महंगा और समय लेने वाला होता है।
- आंकड़ा संग्रह प्रक्रिया (Data Collection Procedure): नमूना डिजाइन को इस बात पर भी विचार करना चाहिए कि चयनित नमूना इकाइयों से आंकड़े कैसे एकत्र किए जाएंगे, चाहे वह सर्वेक्षण, साक्षात्कार या अवलोकन के माध्यम से हो।
Q4. विभेदक विश्लेषण क्या है? एक विभेदक विश्लेषण अभ्यास करने में विभिन्न चरणों की व्याख्या कीजिए।
Ans.
विभेदक विश्लेषण (Discriminant Analysis) एक बहुभिन्नरूपी सांख्यिकीय तकनीक है जिसका उपयोग एक या एक से अधिक सतत या द्विआधारी स्वतंत्र चर (जिन्हें भविष्यवक्ता या predictors कहा जाता है) के आधार पर एक स्पष्ट आश्रित चर (समूह सदस्यता) की भविष्यवाणी करने के लिए किया जाता है। इसका मुख्य उद्देश्य अवलोकनों को पूर्व-निर्धारित समूहों में वर्गीकृत करना है।
उदाहरण के लिए, एक बैंक यह अनुमान लगाने के लिए विभेदक विश्लेषण का उपयोग कर सकता है कि क्या कोई ऋण आवेदक ‘अच्छा क्रेडिट जोखिम’ है या ‘खराब क्रेडिट जोखिम’ है, जो उनकी आय, आयु और मौजूदा ऋण जैसे चर पर आधारित है। यह उन भविष्यवक्ता चरों की पहचान करने में भी मदद करता है जो समूहों के बीच सबसे अधिक अंतर करते हैं।
एक विभेदक विश्लेषण अभ्यास करने में निम्नलिखित चरण शामिल हैं:
- समस्या का निरूपण (Problem Formulation):
- अनुसंधान के उद्देश्यों को स्पष्ट रूप से परिभाषित करें।
- स्पष्ट आश्रित चर (समूह) और स्वतंत्र चर (भविष्यवक्ता) की पहचान करें। आश्रित चर नाममात्र का होना चाहिए (जैसे, खरीदार/गैर-खरीदार), जबकि स्वतंत्र चर आमतौर पर अंतराल या अनुपात पैमाने पर होते हैं।
- नमूने का विभाजन (Sample Division):
- कुल आंकड़ा नमूने को दो भागों में विभाजित करें: एक विश्लेषण नमूना (analysis or training sample) और एक सत्यापन नमूना (validation or holdout sample) ।
- विश्लेषण नमूने का उपयोग विभेदक फलन का अनुमान लगाने के लिए किया जाता है, जबकि सत्यापन नमूने का उपयोग इसकी पूर्वानुमानित सटीकता का आकलन करने के लिए किया जाता है।
- विभेदक फलन का अनुमान (Estimation of the Discriminant Function):
- विश्लेषण नमूने का उपयोग करके, एक या एक से अधिक विभेदक फलन प्राप्त किए जाते हैं। एक विभेदक फलन भविष्यवक्ता चरों का एक रैखिक संयोजन है: D = b₀ + b₁X₁ + b₂X₂ + … + bₙXₙ जहां D विभेदक स्कोर है, X भविष्यवक्ता चर हैं, और b विभेदक गुणांक या भार हैं।
- लक्ष्य उन गुणांकों को खोजना है जो समूहों के बीच के अंतर को अधिकतम करते हैं।
- सार्थकता का निर्धारण (Determination of Significance):
- यह निर्धारित करने के लिए सांख्यिकीय परीक्षण (जैसे विल्क्स लैम्ब्डा) करें कि क्या अनुमानित विभेदक फलन(नों) सांख्यिकीय रूप से सार्थक हैं। यह परीक्षण करता है कि क्या भविष्यवक्ता चरों के आधार पर समूहों के बीच सार्थक अंतर हैं।
- व्याख्या (Interpretation):
- यदि फलन सार्थक है, तो गुणांकों (भार) की जांच करके इसकी व्याख्या करें। बड़े गुणांक वाले चर समूहों के बीच भेदभाव करने में अधिक महत्वपूर्ण होते हैं। संरचना मैट्रिक्स (Structure Matrix) की भी जांच की जा सकती है, जो प्रत्येक भविष्यवक्ता और विभेदक फलन के बीच सहसंबंध दिखाती है।
- सत्यापन (Validation):
- मॉडल की सटीकता का आकलन करने के लिए सत्यापन (होल्डआउट) नमूने का उपयोग करें। एक वर्गीकरण मैट्रिक्स (classification matrix) या भ्रम मैट्रिक्स (confusion matrix) बनाएं।
- यह मैट्रिक्स दिखाता है कि कितने मामलों को सही और गलत तरीके से वर्गीकृत किया गया था। ‘हिट रेट’ (सही ढंग से वर्गीकृत मामलों का प्रतिशत) मॉडल की पूर्वानुमानित शक्ति का एक उपाय प्रदान करता है।
Q5. आप डेटा संपादन से क्या समझते हैं? उन दो चरणों पर चर्चा करें जिन पर संपादन किया जा सकता है।
Ans.
डेटा संपादन (Data Editing) सर्वेक्षणों या अन्य स्रोतों से एकत्र किए गए कच्चे आंकड़ों की समीक्षा, जांच और सुधार की प्रक्रिया है। इसका मुख्य उद्देश्य आंकड़ों में त्रुटियों, चूकों और विसंगतियों का पता लगाना और उन्हें ठीक करना है। संपादन यह सुनिश्चित करता है कि अंतिम आंकड़ासेट विश्लेषण के लिए सटीक (accurate) , सुसंगत (consistent) , पूर्ण (complete) और समान रूप से व्यवस्थित (uniformly arranged) है। यह आंकड़ा तैयारी प्रक्रिया में एक महत्वपूर्ण कदम है, क्योंकि खराब गुणवत्ता वाले आंकड़े गलत विश्लेषण और अविश्वसनीय निष्कर्षों को जन्म दे सकते हैं। त्रुटियों में अपठनीय लिखावट, अधूरी प्रतिक्रियाएं, टाइपिंग की गलतियां या तार्किक रूप से असंगत उत्तर शामिल हो सकते हैं।
संपादन मुख्य रूप से दो चरणों में किया जा सकता है:
- फील्ड संपादन (Field Editing): यह एक प्रारंभिक संपादन है जो आंकड़ा संग्रह के तुरंत बाद और अक्सर क्षेत्र में ही किया जाता है। यह आमतौर पर अन्वेषक (investigator) या फील्ड पर्यवेक्षक (field supervisor) द्वारा किया जाता है।
- उद्देश्य: इसका मुख्य उद्देश्य स्पष्ट त्रुटियों, चूकों या अपठनीय लिखावट को तुरंत पकड़ना है जब साक्षात्कारकर्ता की स्मृति अभी भी ताजा हो।
- प्रक्रिया: पर्यवेक्षक प्रत्येक भरी हुई प्रश्नावली की समीक्षा करता है ताकि यह जांचा जा सके कि सभी प्रश्न पूछे गए हैं, प्रतिक्रियाएं सुपाठ्य हैं, और कोई स्पष्ट विसंगतियां नहीं हैं।
- लाभ: यह चरण महत्वपूर्ण है क्योंकि यदि आवश्यक हो तो उत्तरदाता से फिर से संपर्क करना संभव हो सकता है ताकि छूटी हुई जानकारी को भरा जा सके या अस्पष्ट उत्तरों को स्पष्ट किया जा सके। यह अन्वेषकों को प्रतिक्रिया भी प्रदान करता है, जिससे बाद के साक्षात्कारों में आंकड़ा संग्रह की गुणवत्ता में सुधार होता है।
- उदाहरण: एक पर्यवेक्षक यह नोटिस करता है कि एक साक्षात्कारकर्ता ने प्रश्नावली के आय वाले हिस्से को खाली छोड़ दिया है। वह तुरंत साक्षात्कारकर्ता से इसके बारे में पूछ सकता है और यदि संभव हो तो उत्तरदाता से संपर्क करके जानकारी प्राप्त कर सकता है।
- केंद्रीय संपादन (Central Editing): यह एक अधिक गहन और व्यवस्थित संपादन है जो आंकड़ा संग्रह पूरा होने के बाद एक केंद्रीय कार्यालय में होता है। यह अक्सर एक ही संपादक या संपादकों की एक छोटी, प्रशिक्षित टीम द्वारा किया जाता है ताकि संपादन प्रक्रिया में निरंतरता सुनिश्चित हो सके।
- उद्देश्य: इसका उद्देश्य पूरे आंकड़ासेट की पूरी तरह से जांच करना है ताकि उन त्रुटियों और विसंगतियों का पता लगाया जा सके जो फील्ड संपादन में छूट गई थीं।
- प्रक्रिया: संपादक सभी प्रश्नावली या आंकड़ा फाइलों की सावधानीपूर्वक जांच करते हैं। वे उत्तरों के बीच तार्किक विसंगतियों की जांच करते हैं (उदाहरण के लिए, एक उत्तरदाता ‘बेरोजगार’ होने का दावा करता है लेकिन एक ‘कार्यालय का पता’ प्रदान करता है)। वे यह सुनिश्चित करते हैं कि कोडिंग के लिए आंकड़े तैयार हैं, और यदि आवश्यक हो तो अवैध कोड को संभालते हैं।
- लाभ: यह आंकड़ासेट में उच्च स्तर की सटीकता और निरंतरता सुनिश्चित करता है। चूंकि यह एक केंद्रीकृत स्थान पर किया जाता है, इसलिए विभिन्न संपादकों द्वारा अपनाए गए नियमों और प्रक्रियाओं में एकरूपता होती है, जिससे पूर्वाग्रह कम होता है।
- उदाहरण: एक कार्यालय संपादक को पता चलता है कि एक उत्तरदाता की आयु ’15’ के रूप में दर्ज की गई है, लेकिन उनकी वैवाहिक स्थिति ‘विवाहित’ है और उनके ‘3 बच्चे’ हैं। संपादक इस विसंगति को एक त्रुटि के रूप में चिह्नित करेगा और इसे ठीक करने या इसे एक लापता मान के रूप में कोडित करने के लिए स्थापित नियमों का पालन करेगा।
Q6. निम्नलिखित में से किन्हीं दो पर संक्षिप्त नोट्स लिखिए: (a) कॉपी रीडिंग (b) कम्युनैलिटी (c) कोटा सैम्पलिंग (d) गटमैन स्केल
Ans.
(a) कॉपी रीडिंग (Copy Reading): कॉपी रीडिंग, जिसे अक्सर प्रूफरीडिंग या संपादन के रूप में जाना जाता है, एक शोध रिपोर्ट या किसी लिखित दस्तावेज़ के अंतिम मसौदे की सावधानीपूर्वक समीक्षा करने की प्रक्रिया है। इसका मुख्य उद्देश्य प्रकाशन या प्रस्तुत करने से पहले किसी भी त्रुटि को ठीक करना है। इस प्रक्रिया में व्याकरण, वर्तनी, विराम चिह्न, और वाक्यविन्यास की जाँच शामिल है। कॉपी रीडर यह भी सुनिश्चित करता है कि दस्तावेज़ एक विशिष्ट शैली गाइड (जैसे APA, MLA) के अनुरूप है, जिसमें उद्धरण, शीर्षकों और संख्याओं का स्वरूपण शामिल है। कॉपी रीडिंग का लक्ष्य केवल त्रुटियों को ठीक करना नहीं है, बल्कि पाठ की स्पष्टता, पठनीयता और व्यावसायिकता में सुधार करना भी है। अनुसंधान में, यह एक महत्वपूर्ण अंतिम चरण है जो यह सुनिश्चित करता है कि अनुसंधान के निष्कर्षों को स्पष्ट और प्रभावी ढंग से संप्रेषित किया जाए, जिससे रिपोर्ट की विश्वसनीयता बढ़ती है।
(b) कम्युनैलिटी (Communality): कम्युनैलिटी (h²) कारक विश्लेषण (Factor Analysis) के संदर्भ में उपयोग किया जाने वाला एक सांख्यिकीय शब्द है। किसी दिए गए चर के लिए कम्युनैलिटी उस चर के प्रसरण (variance) का वह अनुपात है जो निकाले गए सभी कारकों द्वारा समझाया जा सकता है। दूसरे शब्दों में, यह साझा प्रसरण (shared variance) का माप है। इसका मान 0 और 1 के बीच होता है।
- एक उच्च कम्युनैलिटी मान (1.0 के करीब) इंगित करता है कि कारक उस चर के प्रसरण को बहुत अच्छी तरह से समझा रहे हैं, और वह चर कारक समाधान का एक महत्वपूर्ण हिस्सा है।
- एक कम कम्युनैलिटी मान (0.0 के करीब) इंगित करता है कि कारक उस चर के प्रसरण को अच्छी तरह से नहीं समझा रहे हैं। इसका मतलब है कि उस चर में बहुत अधिक अद्वितीय प्रसरण है जिसे कारकों द्वारा कैप्चर नहीं किया गया है, और इसे विश्लेषण से हटाने पर विचार किया जा सकता है।
संक्षेप में, कम्युनैलिटी हमें बताती है कि हमारा कारक मॉडल किसी एक चर को कितनी अच्छी तरह से पुन: प्रस्तुत करता है। (c) कोटा सैम्पलिंग (Quota Sampling): कोटा सैम्पलिंग एक गैर-संभाव्यता नमूनाकरण तकनीक है जिसमें शोधकर्ता एक ऐसा नमूना बनाता है जिसमें जनसंख्या के समान अनुपात में उपसमूह होते हैं। इस तकनीक में, जनसंख्या को पहले विशिष्ट विशेषताओं (जैसे आयु, लिंग, आय स्तर, धर्म) के आधार पर पारस्परिक रूप से अनन्य उपसमूहों में विभाजित किया जाता है। फिर, शोधकर्ता प्रत्येक उपसमूह के लिए एक कोटा (अर्थात, नमूने में शामिल किए जाने वाले व्यक्तियों की एक निश्चित संख्या) निर्धारित करता है। अंत में, साक्षात्कारकर्ता इन कोटा को भरने के लिए सुविधा के आधार पर या अपने निर्णय का उपयोग करके उत्तरदाताओं का चयन करता है।
उदाहरण के लिए, यदि एक शोधकर्ता 100 लोगों का सर्वेक्षण करना चाहता है और जानता है कि जनसंख्या 60% महिला और 40% पुरुष है, तो वह 60 महिलाओं और 40 पुरुषों का सर्वेक्षण करने का कोटा निर्धारित करेगा। हालांकि यह स्तरीकृत नमूनाकरण (stratified sampling) के समान दिखता है, मुख्य अंतर यह है कि कोटा के भीतर चयन यादृच्छिक नहीं होता है, जिससे चयन पूर्वाग्रह की संभावना बढ़ जाती है। यह संभाव्यता नमूनाकरण की तुलना में तेज और कम खर्चीला है। (d) गटमैन स्केल (The Guttman Scale): गटमैन स्केल, जिसे संचयी पैमाने (cumulative scale) या स्केलोग्राम विश्लेषण (scalogram analysis) के रूप में भी जाना जाता है, एक-आयामी (unidimensional) दृष्टिकोण को मापने के लिए एक पैमाना है। इसमें बयानों की एक श्रृंखला होती है जिन्हें तीव्रता या स्वीकार करने में “कठिनाई” के बढ़ते क्रम में व्यवस्थित किया जाता है। इस पैमाने का मूल विचार यह है कि जो व्यक्ति किसी विशेष कथन से सहमत होता है, वह उससे पहले के सभी कम चरम कथनों से भी सहमत होगा।
उदाहरण के लिए, गणित के प्रति दृष्टिकोण को मापने वाले कथन हो सकते हैं:
1. मुझे गणित कक्षा में रहना पसंद है।
2. मुझे गणित का गृहकार्य करना पसंद है।
3. मैं अपने खाली समय में गणित की पहेलियाँ हल करता हूँ।
सिद्धांत रूप में, जो व्यक्ति कथन 3 से सहमत है, उसे कथन 1 और 2 से भी सहमत होना चाहिए। एक आदर्श गटमैन स्केल एक व्यक्ति के कुल स्कोर से उसके पूरे प्रतिक्रिया पैटर्न को पुन: प्रस्तुत करने की अनुमति देता है। व्यवहार में, पूरी तरह से संचयी पैमाने बनाना बहुत मुश्किल है, लेकिन यह दृष्टिकोण की संरचना को समझने के लिए एक शक्तिशाली उपकरण है।
Q7. एक कंपनी द्वारा बनाए गए 200 बल्बों का एक नमूना 42 घंटे के मानक विचलन के साथ 540 घंटे का औसत जीवनकाल देता है। क्या यह संभावना है कि नमूना 1500 घंटे के औसत जीवनकाल वाली जनसंख्या से लिया गया है? आप 5 प्रतिशत सार्थकता स्तर का उपयोग कर सकते हैं। (परीक्षण सांख्यिकी का आवश्यक सारणीबद्ध मान 1.96 है।)
Ans. इस समस्या को हल करने के लिए, हम परिकल्पना परीक्षण (hypothesis testing) का उपयोग करेंगे। चूंकि नमूना आकार (n = 200) बड़ा है (n > 30), हम Z-परीक्षण का उपयोग करेंगे।
दिए गए आंकड़े:
नमूना आकार (n) = 200
नमूना माध्य (x̄) = 540 घंटे
नमूना मानक विचलन (s) = 42 घंटे
जनसंख्या माध्य (μ) = 1500 घंटे (प्रश्न में ‘]’ को ‘1’ का टंकण त्रुटि मानते हुए)
सार्थकता का स्तर (α) = 0.05
चरण 1: परिकल्पनाओं को स्थापित करना
- शून्य परिकल्पना (H₀): नमूना उस जनसंख्या से लिया गया है जिसका माध्य जीवनकाल 1500 घंटे है। (अर्थात, μ = 1500)
- वैकल्पिक परिकल्पना (H₁): नमूना उस जनसंख्या से नहीं लिया गया है जिसका माध्य जीवनकाल 1500 घंटे है। (अर्थात, μ ≠ 1500)
यह एक दो-पूंछ वाला परीक्षण (two-tailed test) है।
चरण 2: परीक्षण सांख्यिकी का चयन करना
चूंकि n > 30 है, हम Z-परीक्षण का उपयोग करते हैं। Z-सांख्यिकी की गणना के लिए सूत्र है:
Z = (x̄ – μ) / (s / √n)
चरण 3: सार्थकता का स्तर और क्रांतिक मान (Critical Value)
सार्थकता का स्तर α = 0.05 है।
एक दो-पूंछ वाले परीक्षण के लिए 5% सार्थकता स्तर पर, Z का क्रांतिक मान ±1.96 है। (जैसा कि प्रश्न में दिया गया है)।
इसका अर्थ है कि यदि परिकलित Z मान -1.96 से कम या +1.96 से अधिक है, तो हम शून्य परिकल्पना को अस्वीकार कर देंगे।
चरण 4: Z-सांख्यिकी की गणना करना
सबसे पहले, हम मानक त्रुटि (Standard Error, SE) की गणना करते हैं:
SE = s / √n = 42 / √200 = 42 / 14.142 ≈ 2.97
अब, हम Z-मान की गणना करते हैं:
Z = (540 – 1500) / 2.97
Z = -960 / 2.97
Z ≈ -323.23
चरण 5: निर्णय लेना
हम परिकलित Z-मान की तुलना क्रांतिक Z-मान से करते हैं।
परिकलित Z का निरपेक्ष मान |Z| = |-323.23| = 323.23
क्रांतिक Z का निरपेक्ष मान = 1.96
चूंकि 323.23 > 1.96 है, हमारा परिकलित Z-मान अस्वीकृति क्षेत्र (rejection region) में आता है।
चरण 6: निष्कर्ष
चूंकि परिकलित Z-मान क्रांतिक मान से बहुत अधिक है, हम शून्य परिकल्पना (H₀) को अस्वीकार करते हैं। इसका मतलब है कि हमारे पास यह निष्कर्ष निकालने के लिए अत्यंत मजबूत सांख्यिकीय प्रमाण हैं कि नमूना उस जनसंख्या से नहीं लिया गया है जिसका माध्य जीवनकाल 1500 घंटे है। नमूना माध्य (540 घंटे) और परिकल्पित जनसंख्या माध्य (1500 घंटे) के बीच का अंतर सांख्यिकीय रूप से महत्वपूर्ण है और केवल संयोग के कारण होने की संभावना नहीं है।
IGNOU MS-95 Previous Year Solved Question Paper in English
Q1. Examine the merits and limitations of the observation method in collecting data. Illustrate your answer with suitable examples.
Ans. The observation method is a fundamental technique in research for collecting data, where the researcher systematically watches and records the behaviours of individuals, groups, or events in their natural setting. It does not involve asking direct questions to the respondents. Merits of the Observation Method:
- Directness and Realism: This method provides a direct account of behaviour as it occurs. It captures actual behaviour rather than the reported information from respondents, which can be biased. For example, a store manager can observe customers to see how they actually navigate the store, rather than asking them how they do it.
- Natural Setting: Since observation often occurs in a natural setting, the data can be more realistic and externally valid. It can be done covertly to minimize the Hawthorne effect (subjects altering their behaviour because they know they are being watched).
- Non-Verbal Behaviour: The method is excellent for capturing non-verbal cues, such as body language, interactions, and other subtle behaviours that cannot be easily measured through surveys.
- Suitable for Subjects Unable to Communicate: It is useful for studying subjects who cannot provide verbal information, such as young children, animals, or individuals with severe mental impairments.
Limitations of the Observation Method:
- Observer Bias: The researcher’s own beliefs and expectations can influence their interpretations, leading to subjective and biased data. Two different observers might record the same event differently.
- Expensive and Time-Consuming: Observation, especially longitudinal studies, can be very time-consuming and resource-intensive. It may require trained observers and extended periods of data collection.
- Ethical Concerns: Covert observation, where subjects are unaware they are being watched, raises serious ethical questions about privacy and informed consent.
- Inability to Measure Feelings and Attitudes: Observation can only capture external behaviour. It cannot explain the “why” behind people’s feelings, beliefs, attitudes, or intentions. For example, you can observe a customer buying a product, but you cannot know if they are loyal to the brand or just bought it because it was on sale.
Q2. What is a Likert-type rating scale ? Why is it called a scale of summated rating ? Mention its advantages and limitations.
Ans. A Likert-type rating scale is a psychometric scale commonly used in questionnaire research. It is used to measure a respondent’s level of agreement, opinion, or attitude towards a particular topic, object, or statement. The scale typically consists of a series of statements, and respondents are asked to indicate their level of agreement for each statement. The most common format is a five-point scale: 1. Strongly Disagree 2. Disagree 3. Neither Agree nor Disagree (Neutral) 4. Agree 5. Strongly Agree Scale of Summated Rating: A Likert scale is called a scale of summated rating because an individual’s overall attitude score is determined by the sum (or average) of their ratings for all the different items (statements) on the scale. Each response option is assigned a numerical value (e.g., 1 to 5). For a respondent, all these values are added up to create a composite score. This “summated” or aggregate score is taken to represent the construct or attitude being measured. For instance, if there are 10 statements measuring job satisfaction, an individual’s total score would be the sum of their ratings on all 10 statements. Advantages of the Likert scale:
- Ease of Construction: It is relatively simple to construct and administer.
- Quantitative Data: It converts qualitative attitudes into quantitative data, making statistical analysis possible.
- High Reliability: When well-constructed, Likert scales can produce consistent results over time and across different populations.
- More Nuanced Information: It provides more detailed and nuanced responses than simple yes/no or agree/disagree questions.
Limitations of the Likert scale:
- Lack of Equal Intervals: Technically, it is an ordinal scale , which means we cannot assume that the psychological distance between “Agree” and “Strongly Agree” is the same as the distance between “Disagree” and “Neutral”.
- Central Tendency Bias: Respondents may avoid extreme options (Strongly Agree/Disagree) and opt for the middle or neutral responses.
- Social Desirability Bias: Respondents may choose answers that they feel are socially acceptable, rather than ones that reflect their true beliefs.
- Assumption of Unidimensionality: The summated score relies on the assumption that all the items are measuring the same underlying attitude, which may not always be true.
Q3. What do you know about sampling design ? What points should be considered when developing a sampling design ? Discuss.
Ans. A sampling design is a definite plan or blueprint for obtaining a sample from a given population. It refers to the technique or the procedure the researcher would adopt in selecting items for the sample. A good sampling design ensures that the sample chosen is representative of the entire population, allowing the researcher to generalize their findings. The choice of sampling design depends on the research objectives, the resources available, and the nature of the population. The following critical points should be considered when developing an effective sampling design:
- Defining the Target Population: The first and most crucial step is to clearly define the group you want to draw conclusions about. The population must be defined precisely in terms of elements, extent, and time (e.g., all male consumers aged 18-25 in Delhi). A vaguely defined population will lead to a flawed sample.
- Determining the Sampling Frame: The sampling frame is the list of all the individuals or units from which the sample will be drawn. Examples include a telephone directory, a list of registered voters, or a list of a company’s employees. An ideal sampling frame should be complete, accurate, and up-to-date. An incomplete or inaccurate frame can lead to coverage errors.
- Selecting the Sampling Method: There are two main types of sampling methods:
- Probability Sampling: Every member of the population has a known, non-zero chance of being selected. Methods like simple random sampling , stratified sampling , and cluster sampling fall into this category. It is best for statistical inference.
- Non-probability Sampling: The selection is not random. Methods include convenience sampling , quota sampling , and judgmental sampling . It is faster and less expensive but has a higher risk of bias.
The choice of method depends on the need for accuracy, time, and budget.
- Determining the Sample Size: The number of elements to be included in the sample is a critical decision. The sample size depends on the desired level of precision, the confidence level, the variability in the population, and the cost and time constraints of the research. A larger sample generally reduces sampling error but increases cost.
- Cost and Time: The sampling design must be realistic within the budgetary and time constraints available for the research. Probability sampling is often more expensive and time-consuming than non-probability sampling.
- Data Collection Procedure: The sampling design must also consider how the data will be collected from the selected sample units, whether through surveys, interviews, or observation.
Q4. What is discriminant analysis ? Explain the various steps in carrying out a discriminant analysis exercise.
Ans. Discriminant Analysis is a multivariate statistical technique used to predict a categorical dependent variable (the group membership) by one or more continuous or binary independent variables (the predictors). Its primary objective is to classify observations into predefined groups. For instance, a bank might use discriminant analysis to predict whether a loan applicant is a ‘good credit risk’ or a ‘bad credit risk’ based on variables like their income, age, and existing debt. It also helps in identifying the predictor variables that are most effective in discriminating between the groups. The steps involved in carrying out a discriminant analysis exercise are as follows:
- Problem Formulation:
- Clearly define the research objectives.
- Identify the categorical dependent variable (the group) and the independent variables (the predictors). The dependent variable must be nominal (e.g., Buyer/Non-buyer), while the independent variables are typically on an interval or ratio scale.
- Sample Division:
- Split the total data sample into two parts: an analysis or training sample and a validation or holdout sample .
- The analysis sample is used to estimate the discriminant function, while the validation sample is used to assess its predictive accuracy.
- Estimation of the Discriminant Function:
- Using the analysis sample, one or more discriminant functions are derived. A discriminant function is a linear combination of the predictor variables: D = b₀ + b₁X₁ + b₂X₂ + … + bₙXₙ Where D is the discriminant score, X’s are the predictor variables, and b’s are the discriminant coefficients or weights.
- The goal is to find the coefficients that maximize the differences between the groups.
- Determination of Significance:
- Conduct statistical tests (e.g., Wilks’ Lambda) to determine if the estimated discriminant function(s) are statistically significant. This tests whether there are significant differences between the groups based on the predictor variables.
- Interpretation:
- If the function is significant, interpret it by examining the coefficients (weights). Variables with larger coefficients are more important in discriminating between the groups. The Structure Matrix, which shows the correlation between each predictor and the discriminant function, can also be examined.
- Validation:
- Use the validation (holdout) sample to assess the accuracy of the model. Create a classification matrix or confusion matrix .
- This matrix shows how many cases were correctly and incorrectly classified. The ‘hit rate’ (the percentage of correctly classified cases) provides a measure of the predictive power of the model.
Q5. What do you understand by data editing ? Discuss the two stages at which editing can be done.
Ans. Data editing is the process of reviewing, inspecting, and correcting raw data collected from surveys or other sources. Its primary goal is to detect and correct errors, omissions, and inconsistencies in the data. Editing ensures that the final dataset is accurate , consistent , complete , and uniformly arranged for analysis. It is a critical step in the data preparation process, as poor-quality data can lead to flawed analysis and unreliable conclusions. Errors can include illegible handwriting, incomplete responses, typing mistakes, or logically inconsistent answers. Editing can be done at two main stages:
- Field Editing: This is a preliminary editing that is done soon after the data has been collected, often while still in the field. It is typically carried out by the investigator or a field supervisor.
- Purpose: The main objective is to catch blatant errors, omissions, or illegible handwriting immediately while the interviewer’s memory is still fresh.
- Process: The supervisor reviews each completed questionnaire to check if all questions were asked, the responses are legible, and there are no obvious inconsistencies.
- Advantage: This stage is crucial because it may still be possible to re-contact the respondent to fill in missing information or clarify ambiguous answers. It also provides feedback to investigators, improving the quality of data collection in subsequent interviews.
- Example: A supervisor notices that an interviewer has left the income section of a questionnaire blank. He can immediately ask the interviewer about it and, if possible, contact the respondent to get the information.
- Central Editing: This is a more thorough and systematic editing that takes place at a central office after all the data has been collected. It is often performed by a single editor or a small, trained team to ensure consistency in the editing process.
- Purpose: The objective is to thoroughly scrutinize the entire dataset to detect errors and inconsistencies that might have been missed during field editing.
- Process: The editor carefully examines all questionnaires or data files. They check for logical inconsistencies between answers (e.g., a respondent claims to be ‘unemployed’ but provides an ‘office address’). They ensure the data is ready for coding, and handle illegitimate codes if necessary.
- Advantage: It ensures a high degree of accuracy and consistency across the dataset. Since it is done in a centralized location, there is uniformity in the rules and procedures followed by different editors, which reduces bias.
- Example: An office editor finds that a respondent’s age is entered as ’15’, but their marital status is ‘Married’ with ‘3 children’. The editor would flag this inconsistency as an error and follow established rules to either correct it or code it as a missing value.
Q6. Write short notes on any two of the following : (a) Copy reading (b) Communality (c) Quota Sampling (d) The Guttman scale
Ans. (a) Copy Reading: Copy reading, also known as proofreading or editing, is the process of carefully reviewing the final draft of a research report or any written document. Its main purpose is to correct any errors before publication or submission. This process includes checking for grammar, spelling, punctuation, and syntax. The copy reader also ensures that the document conforms to a specific style guide (e.g., APA, MLA), which includes the formatting of citations, headings, and numbers. The goal of copy reading is not just to fix mistakes but also to improve the clarity, readability, and professionalism of the text. In research, this is a critical final step that ensures the findings of the study are communicated clearly and effectively, thereby enhancing the credibility of the report.
(b) Communality: Communality (h²) is a statistical term used in the context of Factor Analysis. The communality for a given variable is the proportion of that variable’s variance that can be explained by all the factors extracted. In other words, it is a measure of the shared variance. Its value ranges between 0 and 1.
- A high communality value (close to 1.0) indicates that the factors explain the variable’s variance very well, and that variable is a significant part of the factor solution.
- A low communality value (close to 0.0) indicates that the factors do not explain the variance in that variable well. This means the variable has a lot of unique variance not captured by the factors, and it might be considered for removal from the analysis.
In short, communality tells us how well our factor model reproduces any single variable.
(c) Quota Sampling: Quota sampling is a non-probability sampling technique where the researcher creates a sample that has the same proportions of subgroups as the population. In this technique, the population is first segmented into mutually exclusive subgroups based on specific characteristics (e.g., age, gender, income level, religion). Then, the researcher sets a quota (i.e., a fixed number of individuals to be included) for each subgroup. Finally, the interviewer selects respondents based on convenience or judgment until these quotas are filled. For example, if a researcher wants to survey 100 people and knows the population is 60% female and 40% male, he will set a quota to survey 60 females and 40 males. While it looks similar to stratified sampling, the key difference is that the selection within the quotas is non-random, which increases the potential for selection bias. It is quicker and less expensive than probability sampling.
(d) The Guttman Scale: The Guttman scale, also known as a cumulative scale or scalogram analysis, is a unidimensional scale for measuring an attitude. It consists of a series of statements that are arranged in an order of increasing intensity or “difficulty” of acceptance. The underlying idea is that an individual who agrees with a particular statement will also agree with all previous, less extreme statements. For example, statements measuring attitude towards mathematics might be: 1. I enjoy being in a math class. 2. I enjoy doing math homework. 3. I solve math puzzles in my spare time. In theory, someone who agrees with statement 3 should also agree with statements 1 and 2. A perfect Guttman scale allows one to reproduce a person’s entire response pattern from their total score. In practice, creating a perfectly cumulative scale is very difficult, but it is a powerful tool for understanding the structure of an attitude.
Q7. A sample of 200 bulbs made by a company gives a lifetime mean of 540 hours with a standard deviation of 42 hours. Is it likely that the sample has been drawn from a population with a mean lifetime of ]500 hours ? You may use a 5 per cent level of significance. (Required tabulated value of test statistic is 1.96.)
Ans. To solve this problem, we will use hypothesis testing. Since the sample size (n = 200) is large (n > 30), we will use the Z-test. Given data: Sample size (n) = 200 Sample mean (x̄) = 540 hours Sample standard deviation (s) = 42 hours Population mean (μ) = 1500 hours (Assuming ‘]’ is a typo for ‘1’ in the question) Level of significance (α) = 0.05 Step 1: State the Hypotheses
- Null Hypothesis (H₀): The sample has been drawn from a population with a mean lifetime of 1500 hours. (i.e., μ = 1500)
- Alternative Hypothesis (H₁): The sample has not been drawn from a population with a mean lifetime of 1500 hours. (i.e., μ ≠ 1500)
This is a two-tailed test.
Step 2: Choose the Test Statistic Since n > 30, we use the Z-test. The formula for the Z-statistic is: Z = (x̄ – μ) / (s / √n)
Step 3: Level of Significance and Critical Value The level of significance is α = 0.05. For a two-tailed test at a 5% level of significance, the critical value of Z is ±1.96. (As given in the question). This means if the calculated Z value is less than -1.96 or greater than +1.96, we will reject the null hypothesis.
Step 4: Calculate the Z-statistic First, we calculate the standard error (SE) of the mean: SE = s / √n = 42 / √200 = 42 / 14.142 ≈ 2.97 Now, we calculate the Z-value: Z = (540 – 1500) / 2.97 Z = -960 / 2.97 Z ≈ -323.23
Step 5: Make the Decision We compare the calculated Z-value with the critical Z-value. The absolute value of the calculated Z is |Z| = |-323.23| = 323.23 The absolute value of the critical Z is 1.96 Since 323.23 > 1.96 , our calculated Z-value falls in the rejection region.
Step 6: Conclusion Since the calculated Z-value is far greater than the critical value, we reject the null hypothesis (H₀). This means we have extremely strong statistical evidence to conclude that it is highly unlikely that the sample was drawn from a population with a mean lifetime of 1500 hours. The difference between the sample mean (540 hours) and the hypothesized population mean (1500 hours) is statistically significant and not likely due to random chance.
Download IGNOU previous Year Question paper download PDFs for MS-95 to improve your preparation. These ignou solved question paper IGNOU Previous Year Question paper solved PDF in Hindi and English help you understand the exam pattern and score better.
Thanks!
Leave a Reply