The IGNOU MLIE-105 Solved Question Paper PDF Download page is designed to help students access high-quality exam resources in one place. Here, you can find ignou solved question paper IGNOU Previous Year Question paper solved PDF that covers all important questions with detailed answers. This page provides IGNOU all Previous year Question Papers in one PDF format, making it easier for students to prepare effectively.
- IGNOU MLIE-105 Solved Question Paper in Hindi
- IGNOU MLIE-105 Solved Question Paper in English
- IGNOU Previous Year Solved Question Papers (All Courses)
Whether you are looking for IGNOU Previous Year Question paper solved in English or ignou previous year question paper solved in hindi, this page offers both options to suit your learning needs. These solved papers help you understand exam patterns, improve answer writing skills, and boost confidence for upcoming exams.
IGNOU MLIE-105 Solved Question Paper PDF

This section provides IGNOU MLIE-105 Solved Question Paper PDF in both Hindi and English. These ignou solved question paper IGNOU Previous Year Question paper solved PDF include detailed answers to help you understand exam patterns and improve your preparation. You can also access IGNOU all Previous year Question Papers in one PDF for quick and effective revision before exams.
IGNOU MLIE-105 Previous Year Solved Question Paper in Hindi
Q1. विज्ञान के समाजशास्त्र को परिभाषित कीजिए। विज्ञान के समाजशास्त्र के विभिन्न उपागमों की व्याख्या कीजिए।
Ans.
परिभाषा:
विज्ञान का समाजशास्त्र (Sociology of Science) एक अकादमिक क्षेत्र है जो विज्ञान को एक सामाजिक गतिविधि के रूप में अध्ययन करता है। यह जांच करता है कि सामाजिक, सांस्कृतिक, राजनीतिक और आर्थिक कारक वैज्ञानिक अनुसंधान और तकनीकी नवाचार को कैसे प्रभावित करते हैं, और इसके बदले में, विज्ञान और प्रौद्योगिकी समाज को कैसे आकार देते हैं। यह वैज्ञानिक ज्ञान, प्रथाओं, संस्थानों और वैज्ञानिकों के समुदाय की सामाजिक संरचना का विश्लेषण करता है। रॉबर्ट के. मर्टन को इस क्षेत्र के संस्थापकों में से एक माना जाता है। इसका मुख्य उद्देश्य यह समझना है कि विज्ञान कैसे “काम करता है” – न केवल एक तार्किक प्रणाली के रूप में, बल्कि एक मानवीय और सामाजिक उद्यम के रूप में।
विज्ञान के समाजशास्त्र के विभिन्न उपागम: विज्ञान के समाजशास्त्रीय अध्ययन के लिए कई प्रमुख उपागम हैं, जिनमें से प्रत्येक विज्ञान के विभिन्न पहलुओं पर प्रकाश डालता है:
1. मर्टोनियन उपागम (मानकीय संरचना): रॉबर्ट के. मर्टन द्वारा विकसित यह उपागम विज्ञान के लोकाचार (ethos) पर ध्यान केंद्रित करता है। मर्टन ने चार मानदंडों का एक सेट प्रस्तावित किया, जिसे CUDOS के रूप में जाना जाता है, जो उनके अनुसार वैज्ञानिक समुदाय को नियंत्रित करता है:
- साम्यवाद (Communism): वैज्ञानिक निष्कर्ष सभी के लिए उपलब्ध होने चाहिए, वे किसी व्यक्ति या समूह की निजी संपत्ति नहीं हैं।
- सार्वभौमिकता (Universalism): वैज्ञानिक दावों का मूल्यांकन निष्पक्ष मानदंडों के आधार पर किया जाना चाहिए, न कि वैज्ञानिक की जाति, राष्ट्रीयता या अन्य व्यक्तिगत विशेषताओं के आधार पर।
- निर्वैयक्तिकता (Disinterestedness): वैज्ञानिकों से अपेक्षा की जाती है कि वे व्यक्तिगत लाभ के बजाय ज्ञान की उन्नति के लिए काम करें।
- संगठित संशयवाद (Organized Skepticism): सभी वैज्ञानिक दावों को अंतिम स्वीकृति से पहले गहन जांच और आलोचना का सामना करना पड़ता है।
2. कुहनियन उपागम (प्रतिमान विस्थापन): थॉमस कुहन ने अपनी पुस्तक “द स्ट्रक्चर ऑफ साइंटिफिक रिवोल्यूशन” में यह तर्क दिया कि विज्ञान केवल ज्ञान के संचय के माध्यम से प्रगति नहीं करता है। इसके बजाय, यह “प्रतिमान विस्थापन” (paradigm shifts) की एक श्रृंखला के माध्यम से विकसित होता है। एक ‘प्रतिमान’ एक विशेष समय में एक वैज्ञानिक समुदाय द्वारा साझा किए गए सिद्धांतों, विधियों और मानकों का समूह है। कुहन के अनुसार, वैज्ञानिक क्रांतियाँ तब होती हैं जब मौजूदा प्रतिमान विसंगतियों को हल करने में विफल हो जाता है, जिससे एक नए प्रतिमान का उदय होता है। यह उपागम वैज्ञानिक परिवर्तन में सामाजिक और मनोवैज्ञानिक कारकों के महत्व पर जोर देता है।
3. स्ट्रॉन्ग प्रोग्राम (वैज्ञानिक ज्ञान का समाजशास्त्र – SSK): एडिनबर्ग स्कूल में विकसित, यह उपागम तर्क देता है कि सभी वैज्ञानिक विश्वासों, चाहे वे ‘सत्य’ हों या ‘असत्य’, को समान प्रकार के सामाजिक कारणों का उपयोग करके समझाया जाना चाहिए। इसके चार सिद्धांत हैं:
- कारणता (Causality): यह विश्वासों या ज्ञान की स्थितियों को उत्पन्न करने वाली स्थितियों की जांच करता है।
- निष्पक्षता (Impartiality): यह सत्य और असत्य, तर्कसंगत और अतार्किक विश्वासों के संबंध में निष्पक्ष रहता है।
- समरूपता (Symmetry): सत्य और असत्य विश्वासों को एक ही प्रकार के कारणों से समझाया जाना चाहिए।
- परावर्तन (Reflexivity): समाजशास्त्र के सिद्धांतों को स्वयं समाजशास्त्र पर भी लागू किया जाना चाहिए।
4. एक्टर-नेटवर्क थ्योरी (ANT): ब्रूनो लातूर और मिशेल कॉलन जैसे विचारकों द्वारा विकसित, ANT मानव (वैज्ञानिक, तकनीशियन) और गैर-मानव (उपकरण, जीव, लेख) ‘एक्टर’ दोनों को समान रूप से मानता है। इस दृष्टिकोण के अनुसार, वैज्ञानिक तथ्य केवल खोजे नहीं जाते हैं, बल्कि इन विभिन्न एक्टरों के बीच गठजोड़ और नेटवर्क के निर्माण के माध्यम से “निर्मित” होते हैं। यह विज्ञान की निर्माण प्रक्रिया पर ध्यान केंद्रित करता है।
अथवा
सूचनात्मकता की संकल्पना को परिभाषित कीजिए। उन गुणधर्मों या स्थितियों को लिखिए जिन पर किसी पाठ की सूचनात्मक मूल्य निर्भर करती है।
Ans.
‘सूचनात्मकता’ की संकल्पना:
सूचनात्मकता (Informativeness) किसी पाठ, संदेश या डेटा की उस मात्रा का माप है जो किसी प्राप्तकर्ता को नई, प्रासंगिक और उपयोगी जानकारी प्रदान करती है। यह केवल पाठ की एक आंतरिक संपत्ति नहीं है, बल्कि यह प्राप्तकर्ता के पूर्व ज्ञान, संदर्भ और आवश्यकताओं पर बहुत अधिक निर्भर करती है। सरल शब्दों में, कोई संदेश तब सूचनात्मक होता है जब वह प्राप्तकर्ता की अनिश्चितता को कम करता है या उसके ज्ञान की स्थिति को बदलता है। यदि कोई पाठ आपको कुछ ऐसा बताता है जो आप पहले से नहीं जानते हैं और जो आपके लिए महत्वपूर्ण है, तो वह आपके लिए सूचनात्मक है। क्लाउड शैनन के सूचना सिद्धांत के अनुसार, सूचना वह है जो अनिश्चितता को कम करती है।
सूचनात्मक मूल्य को प्रभावित करने वाले गुणधर्म या स्थितियाँ: किसी पाठ का सूचनात्मक मूल्य कई कारकों पर निर्भर करता है। ये प्रमुख गुणधर्म या स्थितियाँ निम्नलिखित हैं:
1. नवीनता (Novelty): सूचना प्राप्तकर्ता के लिए नई होनी चाहिए। यदि कोई पाठ ऐसी बातें दोहराता है जो प्राप्तकर्ता पहले से ही जानता है, तो उसकी सूचनात्मकता का मूल्य बहुत कम या शून्य होगा। सूचनात्मकता का सीधा संबंध आश्चर्य या अप्रत्याशितता के तत्व से है।
2. प्रासंगिकता (Relevance): जानकारी को प्राप्तकर्ता की वर्तमान जरूरतों, रुचियों या कार्य के लिए प्रासंगिक होना चाहिए। अप्रासंगिक जानकारी, भले ही वह कितनी भी नई क्यों न हो, प्राप्तकर्ता के लिए कोई मूल्य नहीं रखती है और इसलिए उसे सूचनात्मक नहीं माना जाता है।
3. अनिश्चितता में कमी (Uncertainty Reduction): एक सूचनात्मक पाठ प्राप्तकर्ता के मन में मौजूद किसी प्रश्न, संदेह या अनिश्चितता को हल करता है। जितनी अधिक अनिश्चितता कम होती है, संदेश उतना ही अधिक सूचनात्मक होता है। उदाहरण के लिए, चुनाव परिणाम की घोषणा अनिश्चितता को समाप्त करती है और इसलिए यह अत्यधिक सूचनात्मक है।
4. प्राप्तकर्ता का पूर्व ज्ञान (Recipient’s Prior Knowledge): यह सबसे महत्वपूर्ण कारकों में से एक है। एक ही पाठ एक नौसिखिए के लिए अत्यधिक सूचनात्मक हो सकता है लेकिन एक विशेषज्ञ के लिए बिल्कुल भी नहीं। सूचनात्मकता पाठ और प्राप्तकर्ता के ज्ञान के बीच की खाई को पाटने का काम करती है।
5. संदर्भ (Context): जिस स्थिति या संदर्भ में जानकारी प्राप्त होती है, वह उसके सूचनात्मक मूल्य को बहुत प्रभावित करता है। उदाहरण के लिए, “आग!” की चेतावनी एक थिएटर में अत्यधिक सूचनात्मक है, लेकिन एक नाटक के संवाद के रूप में नहीं।
6. स्पष्टता और बोधगम्यता (Clarity and Comprehensibility): जानकारी को ऐसे तरीके से प्रस्तुत किया जाना चाहिए जिसे प्राप्तकर्ता समझ सके। यदि पाठ बहुत जटिल, अस्पष्ट या खराब तरीके से संरचित है, तो प्राप्तकर्ता उससे जानकारी नहीं निकाल पाएगा, जिससे उसकी सूचनात्मकता कम हो जाएगी।
7. विश्वसनीयता और सत्यता (Reliability and Veracity): सूचना के स्रोत की विश्वसनीयता और जानकारी की सत्यता पर प्राप्तकर्ता का विश्वास भी सूचनात्मक मूल्य को प्रभावित करता है। गलत या अविश्वसनीय जानकारी को ‘गलत सूचना’ (misinformation) माना जा सकता है और इसका सूचनात्मक मूल्य नकारात्मक या शून्य हो सकता है।
Q2. “शास्त्रीय सम्भावनात्मक संचार प्रतिरूप’ पर प्रकाश डालिए। शैनन सूचना के विविध गुणधर्मों की भी परिगणना कीजिए ।
Ans.
शास्त्रीय सम्भावनात्मक संचार प्रतिरूप (Shannon-Weaver Model): क्लाउड शैनन और वॉरेन वीवर द्वारा 1948-49 में विकसित “शास्त्रीय सम्भावनात्मक संचार प्रतिरूप,” जिसे संचार का गणितीय सिद्धांत भी कहा जाता है, संचार प्रक्रिया का एक रैखिक और तकनीकी मॉडल है। इसका मूल उद्देश्य एक चैनल के माध्यम से सूचना के कुशल और सटीक प्रसारण का विश्लेषण करना था। यह मॉडल संभाव्यता पर आधारित है क्योंकि यह विभिन्न संदेशों के उत्पन्न और प्रेषित होने की संभावना से संबंधित है।
इस प्रतिरूप के मुख्य घटक निम्नलिखित हैं:
1. सूचना स्रोत (Information Source): यह संदेश या सूचना का निर्माता है। यह एक व्यक्ति, मशीन या कोई अन्य इकाई हो सकती है जो डेटा उत्पन्न करती है। 2. प्रेषक (Transmitter/Encoder): यह सूचना स्रोत से संदेश लेता है और इसे एक सिग्नल में परिवर्तित (एन्कोड) करता है जिसे चैनल के माध्यम से भेजा जा सकता है। उदाहरण के लिए, आवाज को विद्युत सिग्नल में बदलना। 3. चैनल (Channel): यह वह माध्यम है जिससे सिग्नल प्रेषक से प्राप्तकर्ता तक जाता है। यह एक तार, रेडियो तरंगें, या हवा हो सकती है। 4. शोर स्रोत (Noise Source): चैनल में कोई भी अवांछित हस्तक्षेप जो सिग्नल को विकृत या परिवर्तित कर सकता है, शोर कहलाता है। यह सिग्नल की गुणवत्ता को कम करता है। 5. प्राप्तकर्ता (Receiver/Decoder): यह चैनल से सिग्नल प्राप्त करता है और इसे वापस एक संदेश में परिवर्तित (डिकोड) करता है जिसे गंतव्य समझ सकता है। 6. गंतव्य (Destination): यह वह व्यक्ति या मशीन है जिसके लिए संदेश था।
इस मॉडल का केंद्रीय विचार ‘एन्ट्रॉपी’ (Entropy) है, जो स्रोत पर अनिश्चितता की मात्रा या औसत सूचना सामग्री को मापता है। मॉडल का लक्ष्य शोर की उपस्थिति में भी अधिकतम सूचना दर पर विश्वसनीय संचार प्राप्त करना है।
शैनन सूचना (एन्ट्रॉपी) के गुणधर्म: शैनन द्वारा परिभाषित सूचना, जिसे एन्ट्रॉपी (H) द्वारा मापा जाता है, में कई महत्वपूर्ण गुणधर्म होते हैं:
1. गैर-नकारात्मकता (Non-negativity): एन्ट्रॉपी का मान हमेशा शून्य या उससे अधिक होता है (H ≥ 0)। यह केवल तभी शून्य होता है जब परिणाम निश्चित हो (संभावना 1 हो), यानी कोई अनिश्चितता न हो। 2. योज्यता (Additivity): स्वतंत्र घटनाओं के लिए, संयुक्त घटना की एन्ट्रॉपी उनकी व्यक्तिगत एन्ट्रॉपी का योग होती है। यदि X और Y स्वतंत्र हैं, तो H(X,Y) = H(X) + H(Y)। 3. समरूपता (Symmetry): यदि परिणामों के क्रम को बदल दिया जाए तो एन्ट्रॉपी का मान अपरिवर्तित रहता है। H(p₁, p₂, …, pₙ) = H(p₂, p₁, …, pₙ)। 4. अधिकतम एन्ट्रॉपी (Maximum Entropy): एन्ट्रॉपी तब अधिकतम होती है जब सभी संभावित परिणाम समान रूप से संभावित होते हैं। यह अनिश्चितता के उच्चतम स्तर का प्रतिनिधित्व करता है। उदाहरण के लिए, एक निष्पक्ष सिक्के को उछालने पर (चित और पट की समान संभावना) एन्ट्रॉपी अधिकतम होती है। 5. निरंतरता (Continuity): एन्ट्रॉपी फलन अपने संभाव्यता वितरण का एक सतत फलन है। इसका मतलब है कि संभाव्यता में छोटे बदलाव से एन्ट्रॉपी में भी छोटे बदलाव होते हैं।
अथवा
‘fuzzy मापन’ क्या है ? सूचना के संभावनात्मक मापनों (जैसे-शैनन मापन एवं fuzzy मापन) के मध्य अन्तर की व्याख्या कीजिए।
Ans.
फज़ी मापन (Fuzzy Measure): एक फज़ी मापन , जिसे गैर-योगात्मक माप (non-additive measure) भी कहा जाता है, एक दिए गए ब्रह्मांड के उपसमूहों के एक सेट पर परिभाषित एक फ़ंक्शन है, जो किसी उपसमूह के “विश्वास की डिग्री” या “महत्व” को मापता है। यह शास्त्रीय संभाव्यता मापों का एक सामान्यीकरण है।
शास्त्रीय संभाव्यता के विपरीत, जहां असंयुक्त सेटों के संघ का माप उनके व्यक्तिगत मापों का योग होना चाहिए, फज़ी मापन में यह योगात्मकता की शर्त आवश्यक नहीं है। इसका मुख्य गुण एकदिष्टता (monotonicity) है: यदि A, B का एक उपसमुच्चय है, तो A का फज़ी माप B के फज़ी माप से कम या उसके बराबर होना चाहिए। यह गैर-योगात्मकता इसे तत्वों के बीच अंतःक्रियाओं (जैसे तालमेल या अतिरेक) को मॉडल करने की अनुमति देती है, जो संभाव्यता माप नहीं कर सकता है। इसका उपयोग अक्सर निर्णय लेने, पैटर्न पहचान और विशेषज्ञ प्रणालियों में किया जाता है जहां अस्पष्ट और अनिश्चित जानकारी से निपटना होता है।
सूचना के संभाव्यतात्मक (शैनन) और फज़ी मापनों के बीच अंतर: सूचना के संभाव्यतात्मक मापन (जैसे शैनन एन्ट्रॉपी) और फज़ी मापन (जैसे फज़ी एन्ट्रॉपी) के बीच मुख्य अंतर उनके सैद्धांतिक आधार, वे जिस प्रकार की अनिश्चितता को मापते हैं, और उनके अनुप्रयोगों में निहित हैं।
मानदंड शैनन मापन (संभाव्यतात्मक) फज़ी मापन सैद्धांतिक आधार शास्त्रीय संभाव्यता सिद्धांत पर आधारित है। घटनाएं या तो घटित होती हैं या नहीं होती हैं। फज़ी सेट सिद्धांत पर आधारित है। तत्व आंशिक रूप से एक सेट से संबंधित हो सकते हैं (सदस्यता की डिग्री 0 और 1 के बीच होती है)। अनिश्चितता का प्रकार यह यादृच्छिकता (randomness) या सांख्यिकीय अनिश्चितता से संबंधित है। यह किसी घटना के घटित होने की संभावना से संबंधित है। यह अस्पष्टता (vagueness) या द्विअर्थकता (ambiguity) से संबंधित है। यह श्रेणियों की सीमाओं की अस्पष्टता से संबंधित है (जैसे, “युवा” या “लंबा”)। माप की प्रकृति योगात्मक (Additive) । असंयुक्त घटनाओं A और B के लिए, P(A ∪ B) = P(A) + P(B)। गैर-योगात्मक (Non-additive) । असंयुक्त सेटों के संघ का माप उनके व्यक्तिगत मापों का योग होना आवश्यक नहीं है। यह अंतःक्रियाओं को मॉडल कर सकता है। सूचना की संकल्पना सूचना को अनिश्चितता में कमी (एन्ट्रॉपी) के रूप में मापा जाता है। यह एक सांख्यिकीय अवधारणा है। सूचना अस्पष्टता में कमी से संबंधित है। यह किसी प्रणाली की “फज़ीनेस” को मापता है। उदाहरण एक सिक्के को उछालने में अनिश्चितता। एन्ट्रॉपी तब अधिकतम होती है जब चित और पट की संभावना 50/50 हो। यह तय करने में अस्पष्टता कि कोई व्यक्ति “लंबा” है या नहीं। फज़ी एन्ट्रॉपी तब अधिकतम होती है जब सदस्यता की डिग्री 0.5 के करीब होती है। अनुप्रयोग संचार सिद्धांत, डेटा संपीड़न, कोडिंग सिद्धांत। पैटर्न पहचान, नियंत्रण प्रणाली, निर्णय लेना, विशेषज्ञ प्रणाली, प्राकृतिक भाषा प्रसंस्करण। संक्षेप में, शैनन सूचना “क्या होगा?” की अनिश्चितता से संबंधित है, जबकि फज़ी सूचना “यह क्या है?” की अस्पष्टता से संबंधित है। दोनों मॉडल अनिश्चितता को मापने के लिए मूल्यवान उपकरण हैं, लेकिन वे विभिन्न प्रकार की अनिश्चितता को संबोधित करते हैं और विभिन्न डोमेन में लागू होते हैं।
Q3. ब्रेडफोर्ड के नियम को परिभाषित कीजिए। ब्रेडफोर्ड के नियम को ग्राफीय रूप से निरूपित करते हुए ग्रास एवं डूप परिघटना के कारण की विवेचना कीजिए |
Ans.
ब्रेडफोर्ड का नियम (Bradford’s Law): एस. सी. ब्रेडफोर्ड द्वारा 1934 में प्रस्तावित ब्रेडफोर्ड का प्रकीर्णन नियम (Bradford’s Law of Scattering) एक ग्रंथमितीय (bibliometric) नियम है जो यह बताता है कि किसी विशेष विषय पर लेख विभिन्न वैज्ञानिक पत्रिकाओं में कैसे वितरित या “प्रकीर्णित” होते हैं।
नियम के अनुसार, यदि किसी विषय पर लेख प्रकाशित करने वाली पत्रिकाओं को उनकी उत्पादकता (उनमें प्रकाशित लेखों की संख्या) के अनुसार क्रमबद्ध किया जाए, तो उन्हें तीन क्षेत्रों (zones) में विभाजित किया जा सकता है, जिनमें से प्रत्येक में लगभग समान संख्या में लेख होते हैं: 1. एक कोर (Core) या नाभिक: इसमें बहुत कम संख्या में अत्यधिक उत्पादक पत्रिकाएं होती हैं जो विषय के लिए सबसे अधिक समर्पित होती हैं। 2. क्षेत्र 2 (Zone 2): इसमें क्षेत्र 1 की तुलना में अधिक संख्या में पत्रिकाएं होती हैं, जिनकी उत्पादकता मध्यम होती है। 3. क्षेत्र 3 (Zone 3): इसमें बहुत बड़ी संख्या में पत्रिकाएं होती हैं, जिनमें से प्रत्येक में केवल कुछ ही प्रासंगिक लेख होते हैं।
ब्रेडफोर्ड ने पाया कि इन क्षेत्रों में पत्रिकाओं की संख्या एक ज्यामितीय अनुपात का पालन करती है, जिसे इस प्रकार व्यक्त किया जा सकता है: 1 : n : n² जहाँ 1, n, और n² क्रमशः कोर, क्षेत्र 2 और क्षेत्र 3 में पत्रिकाओं की संख्या का आनुपातिक प्रतिनिधित्व करते हैं। इसका अर्थ है कि एक विषय पर साहित्य कुछ मुख्य पत्रिकाओं में केंद्रित होता है, जबकि बड़ी संख्या में लेख कई अन्य पत्रिकाओं में बिखरे होते हैं।
ब्रेडफोर्ड के नियम का ग्राफीय निरूपण: ब्रेडफोर्ड के नियम को ग्राफिक रूप से एक ‘S’ आकार के वक्र के रूप में दर्शाया जाता है, जिसे ‘ब्रेडफोर्ड-जिपफ’ प्लॉट भी कहा जाता है।
- X-अक्ष: पत्रिकाओं की रैंक का लघुगणक (log R)। पत्रिकाओं को उनकी उत्पादकता के अनुसार रैंक किया जाता है।
- Y-अक्ष: लेखों की संचयी संख्या (Cumulative number of articles)।
जब इन मूल्यों को प्लॉट किया जाता है, तो ग्राफ में आमतौर पर तीन भाग होते हैं: 1. एक प्रारंभिक घुमावदार भाग (The initial curve)। 2. एक सीधा रैखिक भाग (A straight line portion)। 3. एक अंतिम नीचे की ओर झुकता हुआ भाग (A final downward curve)।
ग्रॉस एवं डूप परिघटना (Groos and Droop Phenomenon): ब्रेडफोर्ड के आदर्श रैखिक ग्राफ से विचलन को ग्रॉस डूप और डूप (या पूर्णता डूप) के रूप में जाना जाता है।
1. ग्रॉस डूप (Groos Droop): यह ग्राफ के प्रारंभिक भाग में नीचे की ओर वक्रता है (जैसा कि ऊपर चित्र में दिखाया गया है)। यह आदर्श सीधी रेखा से नीचे की ओर “झुकता” है।
- कारण: ओले ग्रॉस ने इस घटना को देखा और इसका मुख्य कारण ग्रंथ सूची (bibliography) की अपूर्णता को बताया, विशेष रूप से विषय के लिए सबसे महत्वपूर्ण ‘कोर’ पत्रिकाओं की पहचान करने में विफलता। जब एक शोधकर्ता साहित्य की खोज करता है, तो वह सबसे अधिक उत्पादक कोर पत्रिकाओं में से कुछ को याद कर सकता है या गलती से कुछ कम प्रासंगिक पत्रिकाओं को शामिल कर सकता है। इस वजह से, उच्चतम रैंक वाली पत्रिकाओं में लेखों की संचयी संख्या अपेक्षित से कम होती है, जिससे ग्राफ का प्रारंभिक भाग नीचे की ओर झुक जाता है। यह कोर की अपूर्ण पहचान का प्रतिनिधित्व करता है।
2. डूप (पूर्णता डूप – Completeness Droop): यह ग्राफ के अंतिम भाग में नीचे की ओर वक्रता है।
- कारण: यह विचलन भी ग्रंथ सूची की अपूर्णता के कारण होता है, लेकिन यह खोज के दूसरे छोर पर होता है। जैसे-जैसे खोज कम उत्पादक और अधिक परिधीय पत्रिकाओं तक फैलती है, सभी प्रासंगिक लेखों को खोजना तेजी से मुश्किल हो जाता है। कोई भी साहित्य खोज कभी भी पूरी तरह से संपूर्ण नहीं हो सकती है। इस वजह से, सबसे कम रैंक वाली (यानी, सबसे कम उत्पादक) पत्रिकाओं के लिए लेखों की संचयी गिनती अपेक्षित रैखिक मूल्य से कम हो जाती है, जिससे ग्राफ का अंतिम भाग नीचे की ओर झुक जाता है। यह दर्शाता है कि विषय पर लेखों का संग्रह संपूर्ण नहीं है।
अथवा
ग्रंथमिति के विस्तार-क्षेत्र को परिभाषित कीजिए। तीन शास्त्रीय ग्रंथमितीय नियमों की मुख्य विशेषताओं की संक्षेप में विवेचना कीजिए।
Ans.
ग्रंथमिति का विस्तार-क्षेत्र (Scope of Bibliometrics):
ग्रंथमिति (Bibliometrics) पुस्तकों, लेखों और अन्य प्रकाशनों जैसे लिखित संचार का सांख्यिकीय विश्लेषण है। यह मात्रात्मक तरीकों का उपयोग करके अकादमिक साहित्य की संरचना और गतिशीलता का अध्ययन करता है। इसे ‘वैज्ञानिक संचार प्रक्रिया का मात्रात्मक अध्ययन’ के रूप में भी परिभाषित किया जा सकता है।
ग्रंथमिति का विस्तार-क्षेत्र बहुत व्यापक है और इसमें निम्नलिखित शामिल हैं:
1. मूल्यांकन अध्ययन (Evaluation Studies): व्यक्तियों (वैज्ञानिकों), संस्थानों (विश्वविद्यालयों, अनुसंधान प्रयोगशालाओं), देशों और पत्रिकाओं के अनुसंधान प्रदर्शन और प्रभाव का मूल्यांकन करना। इसके लिए प्रकाशन गणना, उद्धरण विश्लेषण और एच-इंडेक्स जैसे संकेतकों का उपयोग किया जाता है। 2. सूचना प्रबंधन और पुनर्प्राप्ति (Information Management and Retrieval): पुस्तकालय संग्रह विकास के लिए कोर पत्रिकाओं की पहचान करना, साहित्य के अप्रचलन का अध्ययन करना और सूचना पुनर्प्राप्ति प्रणालियों के डिजाइन में सुधार करना। 3. विज्ञान का समाजशास्त्र (Sociology of Science): वैज्ञानिक क्षेत्रों की संरचना और विकास का मानचित्रण करना, अनुसंधान के उभरते क्षेत्रों की पहचान करना, सहयोग पैटर्न (सह-लेखक विश्लेषण) और ज्ञान के प्रसार का अध्ययन करना। 4. विज्ञान और प्रौद्योगिकी नीति (Science and Technology Policy): विज्ञान नीति निर्माताओं और अनुसंधान निधि एजेंसियों को निर्णय लेने के लिए मात्रात्मक संकेतक प्रदान करना। यह राष्ट्रीय और अंतर्राष्ट्रीय स्तर पर अनुसंधान प्राथमिकताओं को निर्धारित करने में मदद करता है।
तीन शास्त्रीय ग्रंथमितीय नियम: ग्रंथमिति के क्षेत्र में तीन मौलिक नियम हैं जो लेखक, पत्रिका और शब्द उत्पादकता के पैटर्न का वर्णन करते हैं।
1. लोटका का नियम (Lotka’s Law – लेखक उत्पादकता): अल्फ्रेड जे. लोटका द्वारा 1926 में प्रस्तावित यह नियम किसी दिए गए क्षेत्र में लेखकों द्वारा प्रकाशन की आवृत्ति का वर्णन करता है।
- मुख्य विशेषता: यह बताता है कि ‘n’ योगदान करने वाले लेखकों की संख्या, एक योगदान करने वाले लेखकों की संख्या का लगभग 1/n² है। इसका मतलब है कि अधिकांश लेखक (लगभग 60%) केवल एक ही पेपर प्रकाशित करते हैं, जबकि बहुत कम संख्या में विपुल लेखक बड़ी संख्या में पेपर प्रकाशित करते हैं। इसे “विपरीत वर्ग नियम” (inverse square law) के रूप में भी जाना जाता है।
- महत्व: यह वैज्ञानिक उत्पादकता के एक पैटर्न को उजागर करता है जहां कुछ ही शोधकर्ता अपने क्षेत्र में अधिकांश आउटपुट के लिए जिम्मेदार होते हैं।
2. ब्रैडफोर्ड का नियम (Bradford’s Law – पत्रिका उत्पादकता/प्रकीर्णन): एस. सी. ब्रैडफोर्ड द्वारा 1934 में दिया गया यह नियम बताता है कि किसी विशिष्ट विषय पर लेख विभिन्न पत्रिकाओं में कैसे बिखरे होते हैं।
- मुख्य विशेषता: यह नियम पत्रिकाओं को लगभग समान संख्या में लेखों वाले तीन क्षेत्रों (कोर, जोन 2, जोन 3) में विभाजित करता है। इन क्षेत्रों में पत्रिकाओं की संख्या ज्यामितीय रूप से बढ़ती है (1 : n : n²)। इसका मतलब है कि एक विषय पर आधे से अधिक लेख बहुत कम संख्या में ‘कोर’ पत्रिकाओं में पाए जाते हैं, जबकि शेष लेख बड़ी संख्या में अन्य पत्रिकाओं में बिखरे होते हैं।
- महत्व: यह पुस्तकालयाध्यक्षों को संग्रह विकास के लिए सबसे महत्वपूर्ण पत्रिकाओं (कोर पत्रिकाओं) की पहचान करने में मदद करता है।
3. जिपफ का नियम (Zipf’s Law – शब्द आवृत्ति): जॉर्ज किंग्सले जिपफ द्वारा लोकप्रिय बनाया गया यह नियम, किसी पाठ के एक बड़े कॉर्पस में शब्दों की आवृत्ति वितरण का वर्णन करता है।
- मुख्य विशेषता: यह बताता है कि किसी भी शब्द की आवृत्ति उसकी आवृत्ति तालिका में उसकी रैंक के व्युत्क्रमानुपाती होती है। यानी, सबसे लगातार शब्द दूसरे सबसे लगातार शब्द की तुलना में लगभग दोगुनी बार, तीसरे सबसे लगातार शब्द की तुलना में तीन गुना बार, और इसी तरह घटित होगा। (सूत्र: f × r ≈ C, जहाँ f आवृत्ति है, r रैंक है, और C एक स्थिरांक है)।
- महत्व: यह नियम सूचना पुनर्प्राप्ति, अनुक्रमणिका (indexing) और प्राकृतिक भाषा प्रसंस्करण के लिए मौलिक है, क्योंकि यह शब्दों के महत्व का अनुमान लगाने में मदद करता है।
Q4. वैज्ञानिक पत्र-पत्रिकाओं के वरीयताकरण की सीमाओं की संक्षेप में विवेचना कीजिए। विश्व युद्ध के पश्चात् की पत्र-पत्रिकाओं के उद्धरण को सही करने के लिए सेनगुप्ता के ऑफ-सेटिंग वेटेज फार्मूला की व्याख्या कीजिए।
Ans.
वैज्ञानिक पत्र-पत्रिकाओं के वरीयताकरण की सीमाएँ: वैज्ञानिक पत्र-पत्रिकाओं को उद्धरण-आधारित मैट्रिक्स, जैसे जर्नल इम्पैक्ट फैक्टर (JIF), का उपयोग करके रैंक करना एक आम प्रथा है, लेकिन इस दृष्टिकोण की कई महत्वपूर्ण सीमाएँ हैं:
1. क्षेत्र भिन्नता (Field Variations): विभिन्न अकादमिक क्षेत्रों में उद्धरण व्यवहार बहुत अलग होता है। चिकित्सा और जीव विज्ञान जैसे क्षेत्रों में उच्च उद्धरण दर होती है, जबकि गणित या मानविकी में यह बहुत कम होती है। इसलिए, विभिन्न क्षेत्रों की पत्रिकाओं की सीधे तुलना करना भ्रामक है। 2. समीक्षा लेखों का प्रभाव (Impact of Review Articles): समीक्षा लेख (Review articles) मूल शोध लेखों की तुलना में बहुत अधिक उद्धृत किए जाते हैं। जो पत्रिकाएँ अधिक समीक्षा लेख प्रकाशित करती हैं, उनका JIF कृत्रिम रूप से बढ़ जाता है। 3. पत्रिका का आकार और प्रकाशन आवृत्ति (Journal Size and Frequency): बड़ी पत्रिकाएँ या जो अधिक बार प्रकाशित होती हैं, उनमें अधिक उद्धृत करने योग्य आइटम होते हैं, जिससे उनके उद्धरण गणना और इम्पैक्ट फैक्टर बढ़ने की संभावना होती है। 4. उद्धरण समयावधि (Citation Window): JIF की गणना केवल 2 साल की छोटी समयावधि पर आधारित होती है। यह उन क्षेत्रों के लिए अनुचित है जहां ज्ञान का प्रसार धीमा होता है और उद्धरणों को जमा होने में अधिक समय लगता है (धीमी गति से विकसित होने वाले क्षेत्र)। 5. स्व-उद्धरण (Self-Citation): पत्रिकाएँ और लेखक अपने स्वयं के प्रकाशनों को उद्धृत करके अपने उद्धरण मैट्रिक्स को बढ़ा सकते हैं, जिससे रैंकिंग में हेरफेर हो सकता है। 6. भाषा पूर्वाग्रह (Language Bias): रैंकिंग सिस्टम में अंग्रेजी भाषा की पत्रिकाओं का भारी प्रभुत्व है, जो गैर-अंग्रेजी भाषी देशों के अनुसंधान को हाशिए पर डालता है। 7. “मैथ्यू प्रभाव” (“Matthew Effect”): प्रसिद्ध, उच्च-प्रभाव वाली पत्रिकाएँ बेहतर पांडुलिपियों और अधिक उद्धरणों को आकर्षित करती हैं, जिससे उनकी उच्च रैंक और मजबूत होती है, भले ही व्यक्तिगत लेखों की गुणवत्ता कुछ भी हो।
सेनगुप्ता का ऑफ-सेटिंग वेटेज फॉर्मूला: आई.एन. सेनगुप्ता ने 1970 के दशक में देखा कि पत्रिका रैंकिंग में उम्र के कारण एक महत्वपूर्ण पूर्वाग्रह था, खासकर द्वितीय विश्व युद्ध के बाद के संदर्भ में। उन्होंने पाया कि विश्व युद्ध के बाद एंटीबायोटिक दवाओं की खोज और अन्य वैज्ञानिक सफलताओं के कारण बायोमेडिकल साहित्य में विस्फोट हुआ। कई नई पत्रिकाएँ स्थापित की गईं।
समस्या: जब केवल कुल उद्धरणों के आधार पर पत्रिकाओं की तुलना की जाती है, तो पुरानी, युद्ध-पूर्व की पत्रिकाओं को एक अनुचित लाभ होता है क्योंकि उनके पास दशकों से उद्धरण जमा करने का समय होता है। नई, युद्ध-पश्चात की पत्रिकाएँ, भले ही वे कितनी भी महत्वपूर्ण क्यों न हों, कम समय में उतने उद्धरण जमा नहीं कर सकती थीं।
सेनगुप्ता का समाधान (ऑफ-सेटिंग वेटेज की अवधारणा): इस आयु-पूर्वाग्रह को ठीक करने के लिए, सेनगुप्ता ने एक “ऑफ-सेटिंग वेटेज” (off-setting weightage) या “सुधारात्मक भार” की अवधारणा का प्रस्ताव रखा। हालांकि उन्होंने एक सार्वभौमिक रूप से स्वीकृत एकल ‘फॉर्मूला’ नहीं बनाया, लेकिन उनका तरीका और तर्क प्रभावशाली था। उनकी पद्धति का सार नई पत्रिकाओं को मिले उद्धरणों को अधिक महत्व देना था ताकि पुरानी पत्रिकाओं के संचयी लाभ को संतुलित किया जा सके।
अवधारणा इस प्रकार काम करती है:
- सेनगुप्ता ने किसी दिए गए विषय (जैसे, पोषण विज्ञान) पर पत्रिकाओं को उनकी प्रासंगिकता के आधार पर रैंक किया।
- उन्होंने पारंपरिक उद्धरण गणना के बजाय एक “सुधारित प्रभाव कारक” (corrected impact factor) की गणना करने पर जोर दिया।
- इस सुधार का मुख्य विचार पत्रिका की आयु और साहित्य की घातीय वृद्धि को ध्यान में रखना था। उदाहरण के लिए, एक नई पत्रिका द्वारा हाल के वर्षों में प्राप्त उद्धरणों को एक पुरानी पत्रिका द्वारा कई दशक पहले प्राप्त उद्धरणों की तुलना में अधिक भार दिया जाना चाहिए।
- एक सरलीकृत वैचारिक सूत्र हो सकता है: सुधारित प्रभाव = (उद्धरणों की संख्या / पत्रिका की आयु) । यह सूत्र नई पत्रिकाओं को लाभान्वित करेगा। सेनगुप्ता का दृष्टिकोण इससे अधिक सूक्ष्म था, जिसमें किसी विशिष्ट अवधि में प्रकाशित महत्वपूर्ण लेखों की संख्या को भी शामिल किया गया था।
संक्षेप में, सेनगुप्ता का योगदान यह उजागर करना था कि सार्थक पत्रिका रैंकिंग के लिए केवल उद्धरणों की गिनती करना अपर्याप्त है; उन्हें पत्रिका की आयु और क्षेत्र के ऐतिहासिक विकास के संदर्भ में समायोजित किया जाना चाहिए।
अथवा
विकासशील देशों के लिए विज्ञान एवं प्रौद्योगिकी संकेतों की संकल्पना एवं महत्ता की व्याख्या कीजिए। विभिन्न प्रकार के विज्ञान एवं प्रौद्योगिकी संकेतकों की संक्षिप्त विवेचना कीजिए।
Ans.
विकासशील देशों के लिए विज्ञान एवं प्रौद्योगिकी (S&T) संकेतकों की संकल्पना और महत्ता:
संकल्पना:
विज्ञान और प्रौद्योगिकी (S&T) संकेतक मात्रात्मक उपाय हैं जो किसी देश की वैज्ञानिक और तकनीकी प्रणाली का वर्णन और विश्लेषण करते हैं। वे S&T गतिविधियों के लिए समर्पित संसाधनों (इनपुट), उन गतिविधियों के प्रदर्शन और परिणामों (आउटपुट), और अर्थव्यवस्था और समाज पर उनके प्रभाव (प्रभाव) पर सांख्यिकीय डेटा प्रदान करते हैं। ये संकेतक एक देश की नवाचार क्षमता और प्रदर्शन का एक स्नैपशॉट प्रदान करते हैं।
विकासशील देशों के लिए महत्ता: S&T संकेतक विकासशील देशों के लिए विशेष रूप से महत्वपूर्ण हैं क्योंकि वे सतत आर्थिक विकास और सामाजिक प्रगति के लिए एक रोडमैप प्रदान कर सकते हैं:
1. नीति निर्माण और प्राथमिकता निर्धारण (Policy Making and Priority Setting): संकेतक सरकारों को साक्ष्य-आधारित S&T नीतियां बनाने, सीमित संसाधनों को प्रभावी ढंग से आवंटित करने और राष्ट्रीय महत्व के प्राथमिकता वाले क्षेत्रों (जैसे स्वास्थ्य, कृषि, ऊर्जा) की पहचान करने में मदद करते हैं। 2. बेंचमार्किंग और तुलना (Benchmarking and Comparison): ये संकेतक विकासशील देशों को अपने S&T प्रदर्शन की तुलना अन्य देशों (क्षेत्रीय और वैश्विक दोनों) से करने की अनुमति देते हैं। इससे उन्हें अपनी ताकत और कमजोरियों को पहचानने में मदद मिलती है। 3. निगरानी और मूल्यांकन (Monitoring and Evaluation): सरकारें S&T संकेतकों का उपयोग करके राष्ट्रीय लक्ष्यों की दिशा में प्रगति को ट्रैक कर सकती हैं और अपनी नीतियों और कार्यक्रमों की प्रभावशीलता का मूल्यांकन कर सकती हैं। 4. निवेश और सहयोग को आकर्षित करना (Attracting Investment and Collaboration): मजबूत S&T संकेतक, जैसे कि अनुसंधान एवं विकास पर बढ़ता खर्च या कुशल शोधकर्ताओं की संख्या, विदेशी प्रत्यक्ष निवेश (FDI) और अंतर्राष्ट्रीय अनुसंधान सहयोग के लिए एक अनुकूल वातावरण का संकेत दे सकते हैं। 5. क्षमता निर्माण (Capacity Building): संकेतक राष्ट्रीय नवाचार प्रणाली में अंतराल (जैसे, कुशल मानव संसाधन की कमी, अपर्याप्त बुनियादी ढांचा) को उजागर कर सकते हैं, जिससे सरकार को लक्षित हस्तक्षेपों के माध्यम से इन कमियों को दूर करने में मदद मिलती है।
विज्ञान एवं प्रौद्योगिकी संकेतकों के प्रकार: S&T संकेतकों को आमतौर पर OECD के फ्रस्कैटी मैनुअल (Frascati Manual) द्वारा प्रदान किए गए ढांचे के आधार पर वर्गीकृत किया जाता है:
1. इनपुट संकेतक (Input Indicators): ये S&T गतिविधियों के लिए समर्पित वित्तीय और मानव संसाधनों को मापते हैं।
- उदाहरण:
- अनुसंधान और विकास पर सकल घरेलू व्यय (GERD)।
- जीडीपी के प्रतिशत के रूप में GERD।
- शोधकर्ताओं, इंजीनियरों और तकनीशियनों की कुल संख्या (प्रति मिलियन जनसंख्या)।
- S&T शिक्षा पर व्यय।
2. आउटपुट संकेतक (Output Indicators): ये S&T गतिविधियों के प्रत्यक्ष और तत्काल परिणामों को मापते हैं।
- उदाहरण:
- वैज्ञानिक प्रकाशनों की संख्या (ग्रंथमिति)।
- दाखिल और प्रदान किए गए पेटेंट की संख्या (पेटेंटोमेट्रिक्स)।
- नए प्रोटोटाइप, सॉफ्टवेयर या उत्पाद डिजाइन।
3. प्रभाव/परिणाम संकेतक (Impact/Outcome Indicators): ये S&T गतिविधियों के व्यापक आर्थिक और सामाजिक प्रभावों को मापने का प्रयास करते हैं। इन्हें मापना सबसे कठिन होता है।
- उदाहरण:
- जीडीपी में उच्च-तकनीकी उद्योगों का योगदान।
- उच्च-तकनीकी उत्पादों के व्यापार का संतुलन।
- नवाचार सर्वेक्षणों से नवाचार के उपाय।
- S&T से जुड़े सार्वजनिक स्वास्थ्य या पर्यावरण की गुणवत्ता में सुधार।
4. प्रक्रिया/लिंकेज संकेतक (Process/Linkage Indicators): ये राष्ट्रीय नवाचार प्रणाली के भीतर विभिन्न घटकों (जैसे विश्वविद्यालय, उद्योग, सरकार) के बीच बातचीत और प्रवाह को मापते हैं।
- उदाहरण:
- विश्वविद्यालय-उद्योग सहयोग की संख्या।
- प्रौद्योगिकी हस्तांतरण समझौते।
- अंतर्राष्ट्रीय अनुसंधान सह-लेखक।
Q5. निम्नलिखित में से किन्हीं तीन पर लगभग 300 शब्दों (प्रत्येक) में संक्षिप्त टिप्पणियाँ लिखिए : (क) मानक विचलन एवं विचरण (ख) सामान्य संभाव्यता वितरण (ग) कोल्मोगोरोव-स्मिरनोव टेस्ट (घ) साहित्य का अप्रचलन (ङ) मापन पैमानों के प्रकार
Ans.
(क) मानक विचलन एवं विचरण (Standard Deviation and Variance)
विचरण (Variance, σ²): विचरण एक सांख्यिकीय माप है जो यह बताता है कि डेटा सेट में मान अपने माध्य (average) से कितने फैले हुए हैं। यह माध्य से प्रत्येक डेटा बिंदु के वर्गित अंतरों का औसत है। इसकी गणना के लिए, प्रत्येक डेटा बिंदु और माध्य के बीच के अंतर का वर्ग किया जाता है, और फिर इन वर्गित अंतरों का औसत निकाला जाता है।
- सूत्र (जनसंख्या के लिए): σ² = Σ(xi – μ)² / N
- सूत्र (नमूने के लिए): s² = Σ(xi – x̄)² / (n-1)
एक छोटा विचरण इंगित करता है कि डेटा बिंदु माध्य के बहुत करीब हैं, जबकि एक बड़ा विचरण इंगित करता है कि डेटा बिंदु व्यापक रूप से फैले हुए हैं। विचरण का एक दोष यह है कि इसकी इकाई मूल डेटा की इकाई का वर्ग होती है (जैसे, यदि डेटा मीटर में है, तो विचरण वर्ग मीटर में होगा), जिससे इसकी सीधी व्याख्या करना मुश्किल हो जाता है।
मानक विचलन (Standard Deviation, σ): मानक विचलन विचरण का वर्गमूल होता है। यह प्रसरण (dispersion) का सबसे अधिक उपयोग किया जाने वाला माप है। चूँकि यह विचरण का वर्गमूल है, इसकी इकाई मूल डेटा के समान होती है, जिससे यह विचरण की तुलना में अधिक सहज और व्याख्या करने में आसान हो जाता है।
- सूत्र: σ = √विचरण
मानक विचलन यह मापता है कि डेटा के मान औसतन अपने माध्य से कितनी दूर हैं। एक कम मानक विचलन का मतलब है कि डेटा बिंदु माध्य के आसपास केंद्रित हैं, जबकि एक उच्च मानक विचलन का मतलब है कि वे व्यापक सीमा में फैले हुए हैं। सांख्यिकीय विश्लेषण में, विशेष रूप से परिकल्पना परीक्षण और विश्वास अंतराल की गणना में इसका व्यापक रूप से उपयोग किया जाता है।
(ख) सामान्य संभाव्यता वितरण (Normal Probability Distribution)
सामान्य संभाव्यता वितरण, जिसे गौसियन वितरण (Gaussian distribution) या “घंटी वक्र” (bell curve) के रूप में भी जाना जाता है, एक सतत संभाव्यता वितरण है जो कई प्राकृतिक और सामाजिक घटनाओं का वर्णन करता है। यह सांख्यिकी में सबसे महत्वपूर्ण वितरणों में से एक है।
मुख्य विशेषताएँ:
- समरूपता: यह वक्र अपने केंद्र, यानी माध्य (mean) के चारों ओर पूरी तरह से सममित होता है।
- घंटी का आकार: वक्र का आकार एक घंटी जैसा होता है, जिसका उच्चतम बिंदु माध्य पर होता है और दोनों तरफ घटता जाता है।
- माध्य, माध्यिका और बहुलक: एक सामान्य वितरण में, माध्य, माध्यिका (median) और बहुलक (mode) सभी बराबर होते हैं और वक्र के केंद्र में स्थित होते हैं।
- दो पैरामीटर: वितरण को केवल दो मापदंडों द्वारा पूरी तरह से परिभाषित किया गया है: माध्य (μ), जो केंद्र को निर्धारित करता है, और मानक विचलन (σ), जो वक्र के फैलाव को निर्धारित करता है।
- अनुभवजन्य नियम (68-95-99.7 नियम):
- लगभग 68% डेटा माध्य के ±1 मानक विचलन के भीतर आता है।
- लगभग 95% डेटा माध्य के ±2 मानक विचलन के भीतर आता है।
- लगभग 99.7% डेटा माध्य के ±3 मानक विचलन के भीतर आता है।
इसका महत्व इस तथ्य में निहित है कि कई चर, जैसे कि मनुष्यों की ऊंचाई, रक्तचाप, माप में त्रुटियां, और कई अन्य, लगभग सामान्य रूप से वितरित होते हैं। केंद्रीय सीमा प्रमेय (Central Limit Theorem) के कारण भी यह महत्वपूर्ण है, जो बताता है कि पर्याप्त रूप से बड़े नमूनों के माध्य का वितरण लगभग सामान्य होगा, भले ही मूल जनसंख्या का वितरण सामान्य न हो।
(ग) कोल्मोगोरोव-स्मिरनोव टेस्ट (Kolmogorov-Smirnov Test)
कोल्मोगोरोव-स्मिरनोव टेस्ट (K-S टेस्ट) एक गैर-पैरामीट्रिक सांख्यिकीय परीक्षण है जिसका उपयोग यह निर्धारित करने के लिए किया जाता है कि कोई नमूना किसी विशिष्ट वितरण से आता है या नहीं (एक-नमूना K-S टेस्ट) या दो नमूने एक ही वितरण से आते हैं या नहीं (दो-नमूना K-S टेस्ट)। ‘गैर-पैरामीट्रिक’ का अर्थ है कि यह डेटा के वितरण के बारे में कोई धारणा नहीं बनाता है (जैसे कि यह सामान्य रूप से वितरित है)।
यह कैसे काम करता है: K-S टेस्ट नमूना डेटा के अनुभवजन्य संचयी वितरण फलन (Empirical Cumulative Distribution Function – ECDF) की तुलना एक संदर्भ वितरण के संचयी वितरण फलन (Cumulative Distribution Function – CDF) से करता है। 1. ECDF: यह नमूने में प्रत्येक डेटा बिंदु के लिए, उस बिंदु से कम या उसके बराबर मानों के अनुपात को दर्शाता है। 2. CDF: यह एक सैद्धांतिक वितरण (जैसे, सामान्य वितरण) के लिए संभाव्यता है कि एक यादृच्छिक चर एक निश्चित मान से कम या उसके बराबर होगा।
टेस्ट स्टैटिस्टिक, जिसे D कहा जाता है, ECDF और CDF के बीच की अधिकतम ऊर्ध्वाधर दूरी (maximum vertical distance) होती है। D = max|F(x) – S(x)| जहाँ F(x) सैद्धांतिक CDF है और S(x) नमूने का ECDF है।
व्याख्या: D का एक छोटा मान बताता है कि नमूना वितरण संदर्भ वितरण के समान है। D का एक बड़ा मान बताता है कि वे भिन्न हैं। परिकल्पना का परीक्षण करने के लिए, गणना किए गए D मान की तुलना K-S तालिका से एक महत्वपूर्ण मान से की जाती है। यदि D महत्वपूर्ण मान से अधिक है, तो शून्य परिकल्पना (कि वितरण समान हैं) को अस्वीकार कर दिया जाता है। इसका मुख्य लाभ यह है कि यह वितरण-मुक्त है और वितरण के स्थान और आकार दोनों में अंतर के प्रति संवेदनशील है।
(घ) साहित्य का अप्रचलन (Obsolescence of Literature)
साहित्य का अप्रचलन वह प्रक्रिया है जिसके द्वारा समय के साथ सूचना या साहित्य के उपयोग और प्रासंगिकता में गिरावट आती है। यह ग्रंथमिति और पुस्तकालय विज्ञान में एक महत्वपूर्ण अवधारणा है, जो दर्शाती है कि कैसे जानकारी पुरानी, प्रतिस्थापित या कम महत्वपूर्ण हो जाती है। यह एक प्राकृतिक प्रक्रिया है, विशेष रूप से उन क्षेत्रों में जहां ज्ञान तेजी से विकसित होता है।
माप: अप्रचलन को अक्सर उद्धरण विश्लेषण के माध्यम से मापा जाता है। इसका सबसे आम मीट्रिक “अर्ध-जीवन” (half-life) है।
- साहित्य का अर्ध-जीवन: यह वह समयावधि है जिसके दौरान किसी विषय या पत्रिका में आधे उद्धरण प्राप्त होते हैं। उदाहरण के लिए, यदि किसी पत्रिका का उद्धरण अर्ध-जीवन 5 वर्ष है, तो इसका मतलब है कि उसके वर्तमान अंक में दिए गए सभी उद्धरणों में से आधे पिछले 5 वर्षों में प्रकाशित लेखों के हैं।
अप्रचलन के प्रकार:
- तुल्यकालिक (Synchronous): इसमें किसी एक समय बिंदु पर साहित्य के एक समूह के उद्धरण पैटर्न का अध्ययन किया जाता है (जैसे, 2023 में प्रकाशित सभी लेखों में उद्धरणों का विश्लेषण)।
- डायक्रोनस (Diachronous): इसमें समय के साथ दस्तावेजों के एक विशिष्ट सेट का अनुसरण किया जाता है ताकि यह देखा जा सके कि उनका उपयोग कैसे घटता है।
अप्रचलन को प्रभावित करने वाले कारक:
- विषय क्षेत्र: भौतिकी और जैव चिकित्सा जैसे तेजी से विकसित होने वाले क्षेत्रों में साहित्य का अर्ध-जीवन छोटा (तेजी से अप्रचलन) होता है, जबकि इतिहास या गणित जैसे क्षेत्रों में यह लंबा होता है।
- प्रकाशन का प्रकार: पत्रिका के लेख आमतौर पर पुस्तकों की तुलना में अधिक तेजी से अप्रचलित होते हैं।
- “क्लासिक” पेपर: कुछ दस्तावेज़ अप्रचलन को धता बताते हैं और दशकों तक प्रासंगिक और उद्धृत बने रहते हैं।
पुस्तकालयाध्यक्षों के लिए, अप्रचलन की अवधारणा संग्रह विकास, पुराने दस्तावेजों को हटाने (weeding) और भंडारण नीतियों के लिए महत्वपूर्ण है।
(ङ) मापन पैमानों के प्रकार (Types of Scales of Measurement)
मनोवैज्ञानिक स्टेनली स्मिथ स्टीवंस द्वारा प्रस्तावित, मापन के चार पदानुक्रमित पैमाने हैं जो डेटा के गुणों और उन पर की जा सकने वाली सांख्यिकीय गणनाओं को परिभाषित करते हैं। ये पैमाने हैं:
1. नाममात्र पैमाना (Nominal Scale): यह मापन का सबसे निचला स्तर है। यहां, संख्याओं या प्रतीकों का उपयोग केवल वस्तुओं या विशेषताओं को वर्गीकृत करने या पहचानने के लिए किया जाता है। इन श्रेणियों में कोई अंतर्निहित क्रम या रैंक नहीं होता है।
- गुण: पहचान (प्रत्येक मान अलग है)।
- संचालन: आवृत्ति गणना, बहुलक।
- उदाहरण: लिंग (पुरुष, महिला), राष्ट्रीयता, पुस्तकालयों के प्रकार (सार्वजनिक, अकादमिक), रक्त समूह।
2. क्रमसूचक पैमाना (Ordinal Scale): यह पैमाना डेटा को एक क्रम या रैंक में रखने की अनुमति देता है, लेकिन रैंकों के बीच का अंतर सार्थक या समान नहीं होता है। यह बताता है कि एक मान दूसरे से अधिक या कम है, लेकिन “कितना अधिक” यह नहीं बताता है।
- गुण: पहचान, परिमाण (रैंक क्रम)।
- संचालन: रैंक, माध्यिका, प्रतिशतक।
- उदाहरण: संतुष्टि स्तर (बहुत संतुष्ट, संतुष्ट, तटस्थ), लाइकेर्ट स्केल, शैक्षिक स्तर (हाई स्कूल, स्नातक, मास्टर)।
3. अंतराल पैमाना (Interval Scale): इस पैमाने में क्रमसूचक पैमाने के गुण होते हैं, साथ ही पैमानों के बीच के अंतराल बराबर और सार्थक होते हैं। हालांकि, इसमें कोई वास्तविक या पूर्ण शून्य बिंदु नहीं होता है। शून्य केवल पैमाने पर एक और बिंदु है।
- गुण: पहचान, परिमाण, समान अंतराल।
- संचालan: जोड़, घटाव, माध्य, मानक विचलन।
- उदाहरण: सेल्सियस या फारेनहाइट में तापमान (0°C का मतलब तापमान का अभाव नहीं है), IQ स्कोर, कैलेंडर वर्ष।
4. अनुपात पैमाना (Ratio Scale): यह मापन का उच्चतम स्तर है। इसमें अंतराल पैमाने के सभी गुण होते हैं, और साथ ही इसमें एक सार्थक, पूर्ण शून्य बिंदु भी होता है। शून्य का अर्थ उस विशेषता का पूर्ण अभाव है।
- गुण: पहचान, परिमाण, समान अंतराल, पूर्ण शून्य।
- संचालन: सभी अंकगणितीय संचालन (जोड़, घटाव, गुणा, भाग)।
- उदाहरण: ऊंचाई, वजन, आयु, प्रकाशनों की संख्या, आय। शून्य आय का मतलब कोई आय नहीं है।
IGNOU MLIE-105 Previous Year Solved Question Paper in English
Q1. Define Sociology of Science. Explain different approaches to the Sociology of Science.
Ans. Definition: The Sociology of Science is an academic field that studies science as a social activity. It examines how social, cultural, political, and economic factors influence scientific research and technological innovation, and in turn, how science and technology shape society. It analyzes the social structure of the scientific community, as well as the social context of scientific knowledge, practices, and institutions. Robert K. Merton is considered one of the founders of this field. Its primary goal is to understand how science “works”—not just as a logical system, but as a human and social enterprise. Different Approaches to the Sociology of Science: There are several major approaches to the sociological study of science, each highlighting different aspects of the scientific endeavor: 1. Mertonian Approach (Normative Structure): Developed by Robert K. Merton, this approach focuses on the ethos of science. Merton proposed a set of four norms, collectively known as CUDOS , which he argued govern the scientific community:
- Communism: Scientific findings are common property and should be available to all. They are not the private property of an individual or group.
- Universalism: Scientific claims should be evaluated based on impersonal criteria, not on the scientist’s race, nationality, or other personal attributes.
- Disinterestedness: Scientists are expected to work for the advancement of knowledge rather than for personal gain.
- Organized Skepticism: All scientific claims are subject to intense scrutiny and criticism before they are finally accepted.
2. Kuhnian Approach (Paradigm Shifts):
Thomas Kuhn, in his book
The Structure of Scientific Revolutions
, argued that science does not progress simply through the accumulation of knowledge. Instead, it develops through a series of “paradigm shifts.” A ‘paradigm’ is the set of theories, methods, and standards shared by a scientific community at a particular time. According to Kuhn, scientific revolutions occur when the existing paradigm fails to resolve anomalies, leading to the emergence of a new one. This approach emphasizes the importance of social and psychological factors in scientific change.
3. The Strong Programme (Sociology of Scientific Knowledge – SSK):
Developed at the University of Edinburgh, this approach argues that all scientific beliefs, whether ‘true’ or ‘false’, should be explained using the same types of social causes. It has four tenets:
- Causality: It examines the conditions that bring about states of belief or knowledge.
- Impartiality: It is impartial with respect to truth and falsity, rationality and irrationality.
- Symmetry: The same types of causes should be used to explain both true and false beliefs.
- Reflexivity: The principles of sociology should be applicable to sociology itself.
4. Actor-Network Theory (ANT):
Developed by thinkers like Bruno Latour and Michel Callon, ANT treats both human (scientists, technicians) and non-human (instruments, organisms, articles) ‘actors’ symmetrically. According to this view, scientific facts are not just discovered but are “constructed” through the building of alliances and networks among these diverse actors. It focuses on the process of science in the making.
Or
Define the concept of ‘informativeness’. Write the properties or condition on which the informativeness value of a text depends.
Ans. Concept of ‘Informativeness’: Informativeness is a measure of the amount of new, relevant, and useful information a text, message, or data provides to a recipient. It is not an intrinsic property of the text alone but is highly dependent on the recipient’s prior knowledge, context, and needs. In simple terms, a message is informative if it reduces the recipient’s uncertainty or changes their state of knowledge. If a text tells you something you did not already know and which is significant to you, it is informative for you. As per Claude Shannon’s information theory, information is that which reduces uncertainty. Properties or Conditions on which Informativeness Value Depends: The informativeness value of a text depends on several factors. The key properties or conditions are as follows: 1. Novelty/Newness: The information must be new to the recipient. A text that repeats facts already known to the recipient has very low or zero informativeness. Informativeness is directly related to the element of surprise or unexpectedness. 2. Relevance: The information must be pertinent to the recipient’s current needs, interests, or the task at hand. Irrelevant information, no matter how new, holds no value for the recipient and is therefore not considered informative. 3. Uncertainty Reduction: An informative text resolves a question, doubt, or uncertainty in the mind of the recipient. The more uncertainty is reduced, the more informative the message. For example, the announcement of an election result ends uncertainty and is therefore highly informative. 4. Recipient’s Prior Knowledge: This is one of the most crucial factors. The same text can be highly informative to a novice but completely uninformative to an expert. Informativeness works to bridge the gap between the text and the recipient’s knowledge. 5. Context: The situation or context in which the information is received greatly affects its informative value. For example, the warning “Fire!” is highly informative in a theater but not as a line of dialogue in a play. 6. Clarity and Comprehensibility: The information must be presented in a way that the recipient can understand. If the text is too complex, ambiguous, or poorly structured, the recipient will not be able to extract information from it, thus reducing its informativeness. 7. Reliability and Veracity: The recipient’s belief in the credibility of the source and the truthfulness of the information also affects the informative value. False or unreliable information can be considered ‘misinformation’ and may have negative or zero informative value.
Q2. Throw light on the ‘Classical Probabilistic Communication Model’. Also enumerate the various properties of Shanon information.
Ans. The Classical Probabilistic Communication Model (Shannon-Weaver Model): The “Classical Probabilistic Communication Model,” developed by Claude Shannon and Warren Weaver in 1948-49, also known as the mathematical theory of communication, is a linear and technical model of the communication process. Its original purpose was to analyze the efficient and accurate transmission of information through a channel. The model is probabilistic because it deals with the probability of different messages being generated and transmitted. The main components of this model are: 1. Information Source: The originator of the message or information. This could be a person, a machine, or any entity that generates data. 2. Transmitter (Encoder): This takes the message from the source and converts (encodes) it into a signal that can be sent through the channel. For instance, converting voice into an electrical signal. 3. Channel: The medium through which the signal travels from the transmitter to the receiver. This could be a wire, radio waves, or air. 4. Noise Source: Any unwanted interference in the channel that can distort or alter the signal is called noise. It degrades the quality of the signal. 5. Receiver (Decoder): This receives the signal from the channel and converts (decodes) it back into a message that the destination can understand. 6. Destination: The person or machine for whom the message was intended. A central idea in this model is ‘Entropy’ , which measures the amount of uncertainty or average information content at the source. The goal of the model is to achieve reliable communication at the maximum possible information rate, even in the presence of noise.

Properties of Shannon Information (Entropy):
The information defined by Shannon, measured by Entropy (H), has several key properties:
1.
Non-negativity:
The value of entropy is always zero or greater (H ≥ 0). It is zero only when the outcome is certain (probability is 1), meaning there is no uncertainty.
2.
Additivity:
For independent events, the entropy of the joint event is the sum of their individual entropies. If X and Y are independent, then H(X,Y) = H(X) + H(Y).
3.
Symmetry:
The value of entropy remains unchanged if the order of outcomes is changed. H(p₁, p₂, …, pₙ) = H(p₂, p₁, …, pₙ).
4.
Maximum Entropy:
Entropy is at its maximum when all possible outcomes are equally likely. This represents the highest level of uncertainty. For example, flipping a fair coin (equal probability for heads and tails) has maximum entropy.
5.
Continuity:
The entropy function is a continuous function of its probability distribution. This means that small changes in probabilities result in small changes in entropy.
Or
What is ‘fuzzy measure’ ? Explain the difference between a probabilistic measure of information (such as Shaanon) and probabilistic measure of information (such as fuzzy).
Ans. What is ‘Fuzzy Measure’? A fuzzy measure , also known as a non-additive measure, is a function defined on a set of subsets of a given universe, which quantifies the “degree of belief” or “importance” of a subset. It is a generalization of classical probability measures. Unlike classical probability, where the measure of a union of disjoint sets must be the sum of their individual measures, a fuzzy measure does not require this additivity condition. Its key property is monotonicity : if A is a subset of B, then the fuzzy measure of A must be less than or equal to the fuzzy measure of B. This non-additivity allows it to model interactions (like synergy or redundancy) between elements, which a probability measure cannot. It is often used in decision-making, pattern recognition, and expert systems where dealing with vague and uncertain information is necessary. Difference between Probabilistic (Shannon) and Fuzzy Measures of Information: The primary differences between a probabilistic measure of information (like Shannon entropy) and a fuzzy measure (like fuzzy entropy) lie in their theoretical foundations, the type of uncertainty they measure, and their applications.
Criterion |
Shannon Measure (Probabilistic) |
Fuzzy Measure |
Theoretical Basis |
Based on classical probability theory . Events either happen or they don’t. |
Based on fuzzy set theory . An element can partially belong to a set (degree of membership between 0 and 1). |
Type of Uncertainty |
Deals with randomness or statistical uncertainty. It is about the probability of an event’s occurrence. |
Deals with vagueness or ambiguity. It is about the fuzziness of the boundaries of categories (e.g., “young” or “tall”). |
Nature of Measure |
Additive . For disjoint events A and B, P(A ∪ B) = P(A) + P(B). |
Non-additive . The measure of the union of disjoint sets is not necessarily the sum of their measures. It can model interactions. |
Concept of Information |
Information is measured as the reduction of uncertainty (entropy). It is a statistical concept. |
Information is related to the reduction of vagueness . It measures the “fuzziness” of a system. |
Example |
Uncertainty in a coin toss. Entropy is maximum when the probability of heads/tails is 50/50. | Ambiguity in deciding if a person is “tall”. Fuzzy entropy is maximum when the degree of membership is close to 0.5. |
Application |
Communication theory, data compression, coding theory. | Pattern recognition, control systems, decision-making, expert systems, natural language processing. |
In essence, Shannon information deals with the uncertainty of “what will happen?”, whereas fuzzy information deals with the ambiguity of “what is it?”. Both models are valuable tools for quantifying uncertainty, but they address different types of uncertainty and apply to different domains.
Q3. Define Bradford’s law. Provide a graphical representation of Bradford’s law and discuss the reason behind the gross and droop phenomenon.
Ans. Bradford’s Law: Proposed by S. C. Bradford in 1934, Bradford’s Law of Scattering is a bibliometric law that describes how articles on a particular subject are distributed or “scattered” among various scientific journals. The law states that if journals publishing articles on a subject are ranked by their productivity (the number of articles they publish on that subject), they can be divided into three zones, each containing approximately the same number of articles: 1. A Core or nucleus: Containing a very small number of highly productive journals most devoted to the subject. 2. Zone 2: Containing a larger number of journals with medium productivity. 3. Zone 3: Containing a very large number of journals, each of which contributes only a few relevant articles. Bradford found that the number of journals in these zones follows a geometric proportion, which can be expressed as: 1 : n : n² Where 1, n, and n² represent the proportionate number of journals in the Core, Zone 2, and Zone 3, respectively. This means that literature on a subject is concentrated in a few core journals, while a large number of articles are scattered across many other journals. Graphical Representation of Bradford’s Law: Bradford’s law is graphically represented as an S-shaped curve, also known as a ‘Bradford-Zipf’ plot.
- X-axis: The logarithm of the rank of journals (log R). Journals are ranked according to their productivity.
- Y-axis: The cumulative number of articles.
When these values are plotted, the graph typically has three parts:
1. An initial curved portion.
2. A straight linear portion.
3. A final downward-curving portion.

The Groos and Droop Phenomenon:
Deviations from the ideal linear Bradford graph are known as the Groos droop and the droop (or completeness droop).
1. The Groos Droop:
This is the downward curvature at the
beginning
of the graph (as shown in the figure above). It “droops” below the ideal straight line.
- Reason: Olle Groos observed this phenomenon and attributed it mainly to the incompleteness of the bibliography, specifically a failure to identify the most crucial ‘core’ journals for the subject. When a researcher conducts a literature search, they may miss some of the most productive core journals or mistakenly include less relevant ones. Because of this, the cumulative number of articles in the highest-ranked journals is lower than expected, causing the initial part of the graph to bend downwards. It represents an incomplete identification of the core.
2. The Droop (Completeness Droop):
This is the downward curvature at the
end
of the graph.
- Reason: This deviation is also due to the incompleteness of the bibliography, but at the other end of the search. As the search extends to less productive and more peripheral journals, it becomes increasingly difficult to find all relevant articles. No literature search can ever be perfectly complete. Because of this, the cumulative count of articles for the lowest-ranked (i.e., least productive) journals falls short of the expected linear value, causing the final part of the graph to droop. It indicates that the collection of articles on the topic is not exhaustive.
Or
Define the scope of bibliometrics. Briefly discuss the main features of three classical bibliometric laws.
Ans. Scope of Bibliometrics: Bibliometrics is the statistical analysis of written communication, such as books, articles, and other publications. It uses quantitative methods to study the structure and dynamics of scholarly literature. It can also be defined as ‘the quantitative study of the scientific communication process’. The scope of bibliometrics is very broad and includes: 1. Evaluation Studies: Assessing the research performance and impact of individuals (scientists), institutions (universities, research labs), countries, and journals. This involves using indicators like publication counts, citation analysis, and the h-index. 2. Information Management and Retrieval: Identifying core journals for library collection development, studying the obsolescence of literature, and improving the design of information retrieval systems. 3. Sociology of Science: Mapping the structure and development of scientific fields, identifying emerging areas of research, studying collaboration patterns (co-authorship analysis), and the diffusion of knowledge. 4. Science and Technology Policy: Providing quantitative indicators for decision-making by science policymakers and research funding agencies. It helps in setting research priorities at national and international levels. Three Classical Bibliometric Laws: There are three fundamental laws in bibliometrics that describe patterns of author, journal, and word productivity. 1. Lotka’s Law (Author Productivity): Proposed by Alfred J. Lotka in 1926, this law describes the frequency of publication by authors in a given field.
- Main Feature: It states that the number of authors making ‘n’ contributions is about 1/n² of those making a single contribution. This means that a large majority of authors (around 60%) publish only one paper, while a very small number of prolific authors publish a large number of papers. It is also known as the “inverse square law” of scientific productivity.
- Significance: It highlights a pattern in scientific productivity where a few researchers are responsible for the majority of the output in their field.
2. Bradford’s Law (Journal Productivity/Scattering):
Given by S. C. Bradford in 1934, this law describes how articles on a specific subject are scattered across different journals.
- Main Feature: The law divides journals into three zones (core, zone 2, zone 3) with a roughly equal number of articles. The number of journals in these zones increases geometrically (1 : n : n²). This implies that more than half the articles on a subject are found in a very small number of ‘core’ journals, while the rest are scattered over a large number of other journals.
- Significance: It helps librarians to identify the most important journals (core journals) for collection development.
3. Zipf’s Law (Word Frequency):
Popularized by George Kingsley Zipf, this law describes the frequency distribution of words in a large corpus of text.
- Main Feature: It states that the frequency of any word is inversely proportional to its rank in the frequency table. That is, the most frequent word will occur approximately twice as often as the second most frequent word, three times as often as the third most frequent word, and so on. (Formula: f × r ≈ C, where f is frequency, r is rank, and C is a constant).
- Significance: This law is fundamental to information retrieval, indexing, and natural language processing, as it helps in predicting the importance of words.
*
Q4. Briefly discuss the limitations of ranking scientific periodicals. Explain Sengupta’s off-setting weightage formula to correct citation of Post-World War periodicals.
Ans. Limitations of Ranking Scientific Periodicals: Ranking scientific periodicals using citation-based metrics, such as the Journal Impact Factor (JIF), is a common practice, but this approach has several significant limitations: 1. Field Variations: Citation behavior differs vastly across academic disciplines. Fields like medicine and biology have high citation rates, while it is much lower in mathematics or the humanities. Therefore, directly comparing journals from different fields is misleading. 2. Impact of Review Articles: Review articles tend to be cited much more heavily than original research articles. Journals that publish more review articles have their JIFs artificially inflated. 3. Journal Size and Publication Frequency: Larger journals or those that publish more frequently have more citable items, which can potentially boost their citation counts and impact factor. 4. Citation Window: The JIF is calculated based on a short 2-year window. This is unfair to fields where knowledge dissemination is slower and citations take longer to accumulate (slow-moving fields). 5. Self-Citation: Journals and authors can inflate their citation metrics by citing their own publications, leading to manipulation of rankings. 6. Language Bias: English-language journals are overwhelmingly dominant in ranking systems, which marginalizes research from non-English speaking countries. 7. “Matthew Effect”: Famous, high-impact journals attract better manuscripts and more citations, reinforcing their high rank, regardless of the quality of individual articles. Sengupta’s Off-setting Weightage Concept: I.N. Sengupta observed in the 1970s that there was a significant age bias in journal rankings, especially in the post-World War II context. He noted that the discovery of antibiotics and other scientific breakthroughs after WWII led to an explosion in biomedical literature. Many new journals were established. The Problem: When journals were compared based on total citations alone, older, pre-war journals had an unfair advantage because they had decades to accumulate citations. Newer, post-war journals, no matter how important, could not accumulate as many citations in a shorter time span. Sengupta’s Solution (The Concept of Off-setting Weightage): To correct for this age-bias, Sengupta proposed the concept of an “off-setting weightage” or corrective weight. While he did not create a single, universally adopted ‘formula’, his method and reasoning were influential. The essence of his method was to give more importance to citations received by newer journals to balance the cumulative advantage of older ones. The concept works as follows:
- Sengupta ranked journals based on their relevance to a given topic (e.g., nutrition science).
- He insisted on calculating a “corrected impact factor” rather than relying on raw citation counts.
- The key idea of this correction was to account for the age of the journal and the exponential growth of literature. For example, a citation received in recent years by a new journal should be given more weight than a citation received decades ago by an old journal.
- A simplified conceptual formula could be: Corrected Impact = (Number of Citations / Age of Journal) . This formula would benefit newer journals. Sengupta’s approach was more nuanced, also incorporating the number of significant articles published in a specific period.
In short, Sengupta’s contribution was to highlight that merely counting citations is inadequate for meaningful journal ranking; they must be contextualized and adjusted for the journal’s age and the historical development of the field.
Or
Explain the concept and significance of Science and Technology indicators for developing countries. Briefly discuss the different types of Science and Technology indicators.
Ans. Concept and Significance of S&T Indicators for Developing Countries: Concept: Science and Technology (S&T) indicators are quantitative measures that describe and analyze a country’s scientific and technological system. They provide statistical data on the resources devoted to S&T (inputs), the performance and results of S&T activities (outputs), and their effect on the economy and society (impact). These indicators provide a snapshot of a country’s innovation capacity and performance. Significance for Developing Countries: S&T indicators are particularly crucial for developing countries as they can provide a roadmap for sustainable economic growth and social progress: 1. Policy Making and Priority Setting: Indicators help governments to formulate evidence-based S&T policies, allocate limited resources effectively, and identify priority areas of national importance (e.g., health, agriculture, energy). 2. Benchmarking and Comparison: These indicators allow developing countries to compare their S&T performance with other nations (both regional and global). This helps them identify their strengths and weaknesses. 3. Monitoring and Evaluation: Governments can use S&T indicators to track progress towards national goals and evaluate the effectiveness of their policies and programs. 4. Attracting Investment and Collaboration: Strong S&T indicators, such as rising R&D expenditure or a skilled pool of researchers, can signal a favorable environment for Foreign Direct Investment (FDI) and international research collaborations. 5. Capacity Building: Indicators can highlight gaps in the national innovation system (e.g., lack of skilled human resources, inadequate infrastructure), helping the government to address these shortcomings through targeted interventions. Different Types of Science and Technology Indicators: S&T indicators are commonly classified based on the framework provided by the OECD’s Frascati Manual: 1. Input Indicators: These measure the financial and human resources dedicated to S&T activities.
- Examples:
- Gross Domestic Expenditure on R&D (GERD).
- GERD as a percentage of GDP.
- Total number of researchers, engineers, and technicians (per million population).
- Expenditure on S&T education.
2. Output Indicators:
These measure the direct and immediate results of S&T activities.
- Examples:
- Number of scientific publications (bibliometrics).
- Number of patents filed and granted (patentometrics).
- New prototypes, software, or product designs.
3. Impact/Outcome Indicators:
These attempt to measure the broader economic and social effects of S&T activities. These are often the most difficult to measure.
- Examples:
- Contribution of high-tech industries to GDP.
- Balance of trade in high-tech products.
- Measures of innovation from community innovation surveys.
- Improvements in public health or environmental quality linked to S&T.
4. Process/Linkage Indicators:
These measure the interactions and flows between different actors (e.g., universities, industry, government) within the national innovation system.
- Examples:
- Number of university-industry collaborations.
- Technology transfer agreements.
- International research co-authorship.
Q5. Write short notes on any three of the following (in about 300 words each) : (a) Standard Deviation and Variance (b) Normal probability distribution (c) Kolmogorov-Smirnov test (d) Obsolescence of literature (e) Types of scales of measurement
Ans. (a) Standard Deviation and Variance Variance (σ²): Variance is a statistical measure that quantifies how spread out the values in a data set are from their mean (average). It is the average of the squared differences from the Mean. To calculate it, the difference between each data point and the mean is squared, and then the average of these squared differences is taken.
- Formula (for a population): σ² = Σ(xi – μ)² / N
- Formula (for a sample): s² = Σ(xi – x̄)² / (n-1)
A small variance indicates that the data points tend to be very close to the mean, while a large variance indicates that the data points are widely spread out. A drawback of variance is that its unit is the square of the original data’s unit (e.g., if data is in meters, variance is in meters squared), making it difficult to interpret directly.
Standard Deviation (σ):
The standard deviation is the square root of the variance. It is the most commonly used measure of dispersion. Because it is the square root of the variance, its unit is the same as the original data, making it more intuitive and easier to interpret than the variance.
- Formula: σ = √Variance
The standard deviation measures, on average, how far the data values are from their mean. A low standard deviation means the data points are clustered around the mean, while a high standard deviation means they are spread over a wider range. It is widely used in statistical analysis, particularly in hypothesis testing and calculating confidence intervals.
(b) Normal Probability Distribution
The normal probability distribution, also known as the
Gaussian distribution
or the
“bell curve”
, is a continuous probability distribution that describes many natural and social phenomena. It is one of the most important distributions in statistics.
Key Characteristics:
- Symmetry: The curve is perfectly symmetric around its center, the mean.
- Bell Shape: The curve has the shape of a bell, with the highest point at the mean and tapering off on both sides.
- Mean, Median, and Mode: In a normal distribution, the mean, median, and mode are all equal and located at the center of the curve.
- Two Parameters: The distribution is completely defined by just two parameters: its mean (μ), which determines the center, and its standard deviation (σ), which determines the spread of the curve.
- The Empirical Rule (68-95-99.7 Rule):
- Approximately 68% of the data falls within ±1 standard deviation of the mean.
- Approximately 95% of the data falls within ±2 standard deviations of the mean.
- Approximately 99.7% of the data falls within ±3 standard deviations of the mean.
Its importance lies in the fact that many variables, such as human height, blood pressure, errors in measurement, and many others, are approximately normally distributed. It is also crucial because of the Central Limit Theorem, which states that the distribution of the means of sufficiently large samples will be approximately normal, regardless of the original population’s distribution.
(c) Kolmogorov-Smirnov Test
The Kolmogorov-Smirnov test (K-S test) is a
non-parametric
statistical test used to determine if a sample comes from a specific distribution (one-sample K-S test) or if two samples come from the same distribution (two-sample K-S test). ‘Non-parametric’ means it does not make any assumptions about the distribution of the data (such as it being normally distributed).
How it works:
The K-S test compares the
Empirical Cumulative Distribution Function (ECDF)
of the sample data with the
Cumulative Distribution Function (CDF)
of a reference distribution.
1.
ECDF:
For each data point in the sample, this shows the proportion of values less than or equal to that point.
2.
CDF:
For a theoretical distribution (e.g., normal distribution), this is the probability that a random variable will be less than or equal to a certain value.
The test statistic, called
D
, is the maximum vertical distance between the ECDF and the CDF.
D = max|F(x) – S(x)|
Where F(x) is the theoretical CDF and S(x) is the sample’s ECDF.
Interpretation:
A small value of D suggests that the sample distribution is similar to the reference distribution. A large value of D suggests they are different. To test the hypothesis, the calculated D value is compared to a critical value from a K-S table. If D is greater than the critical value, the null hypothesis (that the distributions are the same) is rejected. Its main advantage is that it is distribution-free and is sensitive to differences in both location and shape of the distributions.
(d) Obsolescence of Literature
Obsolescence of literature is the process by which information or literature declines in use and relevance over time. It is a key concept in bibliometrics and library science, reflecting how information becomes outdated, superseded, or less important. It is a natural process, especially in fields where knowledge evolves rapidly.
Measurement:
Obsolescence is often measured through citation analysis. The most common metric is the
“half-life”
.
- Half-life of Literature: This is the time period during which half of all the citations to a subject or journal are received. For example, if a journal’s citation half-life is 5 years, it means that half of all the citations in its current issue are to articles published within the last 5 years.
Types of Obsolescence Study:
- Synchronous: Studying the citation patterns of a body of literature at a single point in time (e.g., analyzing citations in all articles published in 2023).
- Diachronous: Following a specific set of documents over time to see how their usage declines.
Factors Influencing Obsolescence:
- Subject Field: Rapidly developing fields like physics and biomedicine have shorter half-lives (faster obsolescence) than fields like history or mathematics.
- Publication Type: Journal articles typically become obsolete faster than books.
- “Classic” Papers: Some documents defy obsolescence and remain relevant and cited for decades.
For librarians, the concept of obsolescence is crucial for collection development, weeding of old documents, and storage policies.
(e) Types of Scales of Measurement
Proposed by psychologist Stanley Smith Stevens, there are four hierarchical levels of measurement that define the properties of data and the statistical calculations that can be performed on them. These scales are:
1. Nominal Scale:
This is the lowest level of measurement. Here, numbers or symbols are used only to classify or identify objects or attributes. There is no inherent order or rank among the categories.
- Properties: Identity (each value is distinct).
- Operations: Frequency count, mode.
- Examples: Gender (Male, Female), Nationality, Types of libraries (Public, Academic), Blood type.
2. Ordinal Scale:
This scale allows data to be put in an order or rank, but the difference between the ranks is not meaningful or equal. It tells us that one value is more or less than another, but not “by how much.”
- Properties: Identity, Magnitude (rank order).
- Operations: Rank, median, percentiles.
- Examples: Satisfaction level (Very Satisfied, Satisfied, Neutral), Likert scales, Educational level (High School, Bachelor’s, Master’s).
3. Interval Scale:
This scale has the properties of an ordinal scale, plus the intervals between the values are equal and meaningful. However, there is no true or absolute zero point. Zero is just another point on the scale.
- Properties: Identity, Magnitude, Equal intervals.
- Operations: Addition, subtraction, mean, standard deviation.
- Examples: Temperature in Celsius or Fahrenheit (0°C does not mean no temperature), IQ scores, Calendar years.
4. Ratio Scale:
This is the highest level of measurement. It has all the properties of an interval scale, plus a meaningful, absolute zero point. Zero means the complete absence of the attribute.
- Properties: Identity, Magnitude, Equal intervals, Absolute zero.
- Operations: All arithmetic operations (addition, subtraction, multiplication, division).
- Examples: Height, Weight, Age, Number of publications, Income. Zero income means no income at all.
Download IGNOU previous Year Question paper download PDFs for MLIE-105 to improve your preparation. These ignou solved question paper IGNOU Previous Year Question paper solved PDF in Hindi and English help you understand the exam pattern and score better.
Thanks!
Leave a Reply