Simple and Multiple Linear Regression MCQ Quiz in हिन्दी - Objective Question with Answer for Simple and Multiple Linear Regression - मुफ्त [PDF] डाउनलोड करें

Last updated on Jul 1, 2025

पाईये Simple and Multiple Linear Regression उत्तर और विस्तृत समाधान के साथ MCQ प्रश्न। इन्हें मुफ्त में डाउनलोड करें Simple and Multiple Linear Regression MCQ क्विज़ Pdf और अपनी आगामी परीक्षाओं जैसे बैंकिंग, SSC, रेलवे, UPSC, State PSC की तैयारी करें।

Latest Simple and Multiple Linear Regression MCQ Objective Questions

Simple and Multiple Linear Regression Question 1:

एक मानक रैखिक समाश्रयण मॉडल में, R2 और R̅2 क्रमशः निर्धारण गुणांक और समायोजित निर्धारण गुणांक को दर्शाते हैं। निम्नलिखित में से कौन से कथन सत्य हैं?

  1. 2 < R2
  2. R2 स्वतंत्र चरों की संख्या बढ़ने पर बढ़ता है। 
  3. 2 स्वतंत्र चरों की संख्या बढ़ने पर घटता है। 
  4. 2 > 0

Answer (Detailed Solution Below)

Option :

Simple and Multiple Linear Regression Question 1 Detailed Solution

संप्रत्यय: R2 निर्धारण गुणांक को और R¯2 एक मानक रैखिक समाश्रयण मॉडल में समायोजित निर्धारण गुणांक को संदर्भित करता है।

व्याख्या:

विकल्प 1: यह सत्य है। समायोजित R2 मॉडल में स्वतंत्र चरों की संख्या को ध्यान में रखता है और आमतौर पर R2 से कम होता है जब तक कि चरों को जोड़ने से डेटा में भिन्नता बेहतर ढंग से स्पष्ट नहीं हो जाती। इसलिए, R¯2 आमतौर पर R2 से कम या उसके बराबर होता है।

विकल्प 2: यह सत्य है। जैसे-जैसे आप मॉडल में अधिक स्वतंत्र चर जोड़ते हैं, R2 कभी नहीं घटता है; यह या तो बढ़ता है या समान रहता है, क्योंकि R2 मॉडल द्वारा समझाई गई विचरण के अनुपात को मापता है, और अधिक चर जोड़ने से यह केवल बढ़ सकता है या अपरिवर्तित रह सकता है।

विकल्प 3: यह आवश्यक रूप से सत्य नहीं है। समायोजित R2 घट सकता है यदि अतिरिक्त स्वतंत्र चर अवलोकनों की संख्या के सापेक्ष पर्याप्त व्याख्यात्मक शक्ति का योगदान नहीं करते हैं। हालाँकि, यदि जोड़े गए चर मॉडल को महत्वपूर्ण रूप से बेहतर बनाते हैं, तो यह बढ़ भी सकता है।

विकल्प 4: यह असत्य है। समायोजित R2 आमतौर पर धनात्मक या शून्य होता है, इसलिए इसका धनात्मक होना आवश्यक नहीं है।

सही विकल्प: 1) और 2) है। 

Simple and Multiple Linear Regression Question 2:

एक यादृच्छिक सदिश (X, Y ) के लिए पर्यवेक्षणों के दो समुच्चय हैं। एक सरल रैखिक समाश्रयण मॉडल पर विचार करें जहां Y के X पर समाश्रयण के लिए अंतःखड हो। ni पर्यवेक्षणों (n1, n2 > 2) वाले. i-th समुच्चय (i = 1, 2) से समाश्रयण गुणांक का न्यूनतम वर्ग आकलन β^i मानें। साईज़ n1 + n2 के संयोजित नमूनों का न्यूतम वर्ग आकलन β^0 मानें। यदि  β^1 > β^2 > 0, हो तो निम्न में क्या सत्य है? 

  1. β^2 < β^0 < β^1
  2. β^0 का मान (β^2, β^1), से बाहर हो सकता है, लेकिन β^1 + β^2 से अधिक नहीं हो सकता
  3. β^0 का मान (β^2, β^1), के बाहर हो सकता है मगर ऋणात्मक नहीं हो सकता
  4. β^0 ऋणात्मक हो सकता है

Answer (Detailed Solution Below)

Option 4 : β^0 ऋणात्मक हो सकता है

Simple and Multiple Linear Regression Question 2 Detailed Solution

Simple and Multiple Linear Regression Question 3:

एक रैखिक प्रतिगमन मॉडल Y = α + βx + ε पर विचार कीजिए, जहाँ α और β अज्ञात प्राचल हैं और ε एक यादृच्छिक त्रुटि है, जिसका माध्य 0 है। 10 स्वतंत्र अवलोकनों (xi, yi), i = 1, ..., 10 के आधार पर, OLS का उपयोग करके फिट किया गया मॉडल है:

y^i=1.5+0.8xi, i = 1, 2, ..., 10

मान लीजिए कि i=110(yi110j=110yj)2=5 और i=110(xi110j=110xj)2=6

तो समायोजित निर्धारण गुणांक (समायोजित R2) (दशमलव के दो स्थानों तक गोल करने के बाद) के बराबर है:

  1. 0.74
  2. 0.83
  3. 0.77
  4. 0.84

Answer (Detailed Solution Below)

Option 1 : 0.74

Simple and Multiple Linear Regression Question 3 Detailed Solution

सही उत्तर विकल्प 1 है। 

हम शीघ्र से शीघ्र समाधान अपडेट करेंगे।

Simple and Multiple Linear Regression Question 4:

बहु रैखिक समाश्रयण निदर्श Y = Xβ + ϵ पर विचार करें जहां Y एक n x 1 पर्यवेक्षित आकंडा सदिश है जिसके लिए n > 5 है; X ज्ञात नियतांको वाला n x 5 आव्यूह है जिसके लिए rank(X) = 5 है; β = (β0, β1, β2, β3, β4)T तथा ϵi = (ϵ1, …, ϵn)T, जहां i = 1, …, n के लिए ϵस्वतंत्रतः और सर्वथासम वितरित N(0,1) यादृच्छिक चर हैं। वैकल्पिक H1 ∶ H0 के सापेक्ष रैखिक परिकल्पना H0: β1 = β2 = β3 = β4 = c (एक ज्ञात स्थिरांक) के परीक्षण पर विचार करें जो सत्य नहीं है। निम्न कथनों में से कौन से कथन सत्य हैं?

  1. H0 के अन्तर्गत वर्ग अपशिष्टों का योग स्वतंत्रता की कोटि (n − 5) के साथ कैन्द्रीय χ2 वितरण का अनुसरण करता है।
  2. H0 के अन्तर्गत वर्ग अपशिष्टों का योग स्वतंत्रता की कोटि (n − 1) के साथ केन्द्रीय χ2 वितरण का अनुसरण करता है।
  3. परीक्षण सांख्यिकी स्वतंत्रता की कोटि (5, n − 1) के साथ केन्द्रीय F बंटन का अनुसरण करता है।
  4. परीक्षण सांख्यिकी स्वतंत्रता की कोटि (4, n − 5) के साथ केन्द्रीय F बंटन का अनुसरण करता है।

Answer (Detailed Solution Below)

Option :

Simple and Multiple Linear Regression Question 4 Detailed Solution

सही उत्तर विकल्प 4 है।

हम मुख्य रूप से शुद्ध और अनुप्रयुक्त गणित पर ध्यान केंद्रित करते हैं।

यदि संभव हो तो हम सांख्यिकी भाग के हल प्रदान करने का प्रयास करेंगे।

Simple and Multiple Linear Regression Question 5:

i = 1, …, n के लिए सरल रैखिक प्रतिगमन मॉडल Yi = βxi + ϵi पर विचार करें, जहां E(ϵi) = 0, Cov(ϵi, ϵk) = 0, यदि i ≠ k तथा Var(ϵi) = xi2σ2 हैं, तो β का सर्वश्रेष्ठ अनभिनत रैखिक आकलन है:

  1. i=1nYixii=1nxi2
  2. i=1nYii=1nxi
  3. 1ni=1nYixi
  4. 1ni=1nYixixi2

Answer (Detailed Solution Below)

Option 3 : 1ni=1nYixi

Simple and Multiple Linear Regression Question 5 Detailed Solution

संकल्पना:

मान लीजिए Y = β0 +β1x + ϵ एक रैखिक प्रतिगमन मॉडल है जहाँ ϵ ∼ N(0, σ2) तो अनुमानक

β1^=(xx¯)(yy¯)(xx¯)2 और β0^=y¯β1^x¯

निष्पक्ष अनुमानक: α को β का निष्पक्ष अनुमानक कहा जाता है यदि E(α) = β

व्याख्या:

दिया गया है Yi = βxi + ϵi और

E(ϵi) = 0, Cov(ϵi, ϵk) = 0 यदि i ≠ k और Var(ϵi) = xi2σ2....(i)

Yixi=β+ϵixi

var(Yixi) = var(β+ϵixi) = 1xi2var(ϵi) = σ2 (समीकरण (i) का उपयोग करके)

और E(Yixi) = β + 1xiE(ϵi) = β (चूँकि समीकरण (i) से E(ϵi) = 0)

इसलिए E(1ni=1nYixi) = E(1ni=1n(β+ϵixi)) = E(1n(βn+i=1nϵixi)) = E(β + 1ni=1nϵixi) = β + 0 = β (समीकरण (i) से)

इसलिए β का सबसे अच्छा रैखिक निष्पक्ष अनुमानक 1ni=1nYixi है

विकल्प (3) सही है।

Top Simple and Multiple Linear Regression MCQ Objective Questions

i = 1, …, n के लिए सरल रैखिक प्रतिगमन मॉडल Yi = βxi + ϵi पर विचार करें, जहां E(ϵi) = 0, Cov(ϵi, ϵk) = 0, यदि i ≠ k तथा Var(ϵi) = xi2σ2 हैं, तो β का सर्वश्रेष्ठ अनभिनत रैखिक आकलन है:

  1. i=1nYixii=1nxi2
  2. i=1nYii=1nxi
  3. 1ni=1nYixi
  4. 1ni=1nYixixi2

Answer (Detailed Solution Below)

Option 3 : 1ni=1nYixi

Simple and Multiple Linear Regression Question 6 Detailed Solution

Download Solution PDF

संकल्पना:

मान लीजिए Y = β0 +β1x + ϵ एक रैखिक प्रतिगमन मॉडल है जहाँ ϵ ∼ N(0, σ2) तो अनुमानक

β1^=(xx¯)(yy¯)(xx¯)2 और β0^=y¯β1^x¯

निष्पक्ष अनुमानक: α को β का निष्पक्ष अनुमानक कहा जाता है यदि E(α) = β

व्याख्या:

दिया गया है Yi = βxi + ϵi और

E(ϵi) = 0, Cov(ϵi, ϵk) = 0 यदि i ≠ k और Var(ϵi) = xi2σ2....(i)

Yixi=β+ϵixi

var(Yixi) = var(β+ϵixi) = 1xi2var(ϵi) = σ2 (समीकरण (i) का उपयोग करके)

और E(Yixi) = β + 1xiE(ϵi) = β (चूँकि समीकरण (i) से E(ϵi) = 0)

इसलिए E(1ni=1nYixi) = E(1ni=1n(β+ϵixi)) = E(1n(βn+i=1nϵixi)) = E(β + 1ni=1nϵixi) = β + 0 = β (समीकरण (i) से)

इसलिए β का सबसे अच्छा रैखिक निष्पक्ष अनुमानक 1ni=1nYixi है

विकल्प (3) सही है।

Simple and Multiple Linear Regression Question 7:

एक मानक रैखिक प्रतिगमन मॉडल में, R2 और R̅2 क्रमशः निर्धारण गुणांक और समायोजित निर्धारण गुणांक को दर्शाते हैं। निम्नलिखित में से कौन से कथन सत्य हैं?

  1. 2 < R2
  2. R2 स्वतंत्र चरों की संख्या बढ़ने पर बढ़ता है
  3. 2 स्वतंत्र चरों की संख्या बढ़ने पर घटता है
  4. 2 > 0

Answer (Detailed Solution Below)

Option :

Simple and Multiple Linear Regression Question 7 Detailed Solution

संप्रत्यय: R2 निर्धारण गुणांक को और R¯2 एक मानक रैखिक प्रतिगमन मॉडल में समायोजित निर्धारण गुणांक को संदर्भित करता है।

व्याख्या:

विकल्प 1: यह सत्य है। समायोजित R2 मॉडल में स्वतंत्र चरों की संख्या को ध्यान में रखता है और आमतौर पर R2 से कम होता है जब तक कि चरों को जोड़ने से डेटा में भिन्नता बेहतर ढंग से स्पष्ट नहीं हो जाती। इसलिए, R¯2 आमतौर पर R2 से कम या उसके बराबर होता है।

विकल्प 2: यह सत्य है। जैसे-जैसे आप मॉडल में अधिक स्वतंत्र चर जोड़ते हैं, R2 कभी नहीं घटता है; यह या तो बढ़ता है या समान रहता है, क्योंकि R2 मॉडल द्वारा समझाई गई विचरण के अनुपात को मापता है, और अधिक चर जोड़ने से यह केवल बढ़ सकता है या अपरिवर्तित रह सकता है।

विकल्प 3: यह आवश्यक रूप से सत्य नहीं है। समायोजित R2 घट सकता है यदि अतिरिक्त स्वतंत्र चर अवलोकनों की संख्या के सापेक्ष पर्याप्त व्याख्यात्मक शक्ति का योगदान नहीं करते हैं। हालाँकि, यदि जोड़े गए चर मॉडल को महत्वपूर्ण रूप से बेहतर बनाते हैं, तो यह बढ़ भी सकता है।

विकल्प 4: यह असत्य है। समायोजित R2 आमतौर पर धनात्मक या शून्य होता है, इसलिए इसका धनात्मक होना आवश्यक नहीं है।

सही विकल्प: 1) और 2)।

Simple and Multiple Linear Regression Question 8:

एक रैखिक प्रतिगमन मॉडल Y = α + βx + ε पर विचार कीजिए, जहाँ α और β अज्ञात प्राचल हैं और ε एक यादृच्छिक त्रुटि है, जिसका माध्य 0 है। 10 स्वतंत्र अवलोकनों (xi, yi), i = 1, ..., 10 के आधार पर, OLS का उपयोग करके फिट किया गया मॉडल है:

y^i=1.5+0.8xi, i = 1, 2, ..., 10

मान लीजिए कि i=110(yi110j=110yj)2=5 और i=110(xi110j=110xj)2=6

तो समायोजित निर्धारण गुणांक (समायोजित R2) (दशमलव के दो स्थानों तक गोल करने के बाद) के बराबर है:

  1. 0.74
  2. 0.83
  3. 0.77
  4. 0.84

Answer (Detailed Solution Below)

Option 1 : 0.74

Simple and Multiple Linear Regression Question 8 Detailed Solution

सही उत्तर विकल्प 1 है। 

हम शीघ्र से शीघ्र समाधान अपडेट करेंगे।

Simple and Multiple Linear Regression Question 9:

i = 1, …, n के लिए सरल रैखिक प्रतिगमन मॉडल Yi = βxi + ϵi पर विचार करें, जहां E(ϵi) = 0, Cov(ϵi, ϵk) = 0, यदि i ≠ k तथा Var(ϵi) = xi2σ2 हैं, तो β का सर्वश्रेष्ठ अनभिनत रैखिक आकलन है:

  1. i=1nYixii=1nxi2
  2. i=1nYii=1nxi
  3. 1ni=1nYixi
  4. 1ni=1nYixixi2

Answer (Detailed Solution Below)

Option 3 : 1ni=1nYixi

Simple and Multiple Linear Regression Question 9 Detailed Solution

संकल्पना:

मान लीजिए Y = β0 +β1x + ϵ एक रैखिक प्रतिगमन मॉडल है जहाँ ϵ ∼ N(0, σ2) तो अनुमानक

β1^=(xx¯)(yy¯)(xx¯)2 और β0^=y¯β1^x¯

निष्पक्ष अनुमानक: α को β का निष्पक्ष अनुमानक कहा जाता है यदि E(α) = β

व्याख्या:

दिया गया है Yi = βxi + ϵi और

E(ϵi) = 0, Cov(ϵi, ϵk) = 0 यदि i ≠ k और Var(ϵi) = xi2σ2....(i)

Yixi=β+ϵixi

var(Yixi) = var(β+ϵixi) = 1xi2var(ϵi) = σ2 (समीकरण (i) का उपयोग करके)

और E(Yixi) = β + 1xiE(ϵi) = β (चूँकि समीकरण (i) से E(ϵi) = 0)

इसलिए E(1ni=1nYixi) = E(1ni=1n(β+ϵixi)) = E(1n(βn+i=1nϵixi)) = E(β + 1ni=1nϵixi) = β + 0 = β (समीकरण (i) से)

इसलिए β का सबसे अच्छा रैखिक निष्पक्ष अनुमानक 1ni=1nYixi है

विकल्प (3) सही है।

Simple and Multiple Linear Regression Question 10:

एक यादृच्छिक सदिश (X, Y ) के लिए पर्यवेक्षणों के दो समुच्चय हैं। एक सरल रैखिक समाश्रयण मॉडल पर विचार करें जहां Y के X पर समाश्रयण के लिए अंतःखड हो। ni पर्यवेक्षणों (n1, n2 > 2) वाले. i-th समुच्चय (i = 1, 2) से समाश्रयण गुणांक का न्यूनतम वर्ग आकलन β^i मानें। साईज़ n1 + n2 के संयोजित नमूनों का न्यूतम वर्ग आकलन β^0 मानें। यदि  β^1 > β^2 > 0, हो तो निम्न में क्या सत्य है? 

  1. β^2 < β^0 < β^1
  2. β^0 का मान (β^2, β^1), से बाहर हो सकता है, लेकिन β^1 + β^2 से अधिक नहीं हो सकता
  3. β^0 का मान (β^2, β^1), के बाहर हो सकता है मगर ऋणात्मक नहीं हो सकता
  4. β^0 ऋणात्मक हो सकता है

Answer (Detailed Solution Below)

Option 4 : β^0 ऋणात्मक हो सकता है

Simple and Multiple Linear Regression Question 10 Detailed Solution

Simple and Multiple Linear Regression Question 11:

बहु रैखिक समाश्रयण निदर्श Y = Xβ + ϵ पर विचार करें जहां Y एक n x 1 पर्यवेक्षित आकंडा सदिश है जिसके लिए n > 5 है; X ज्ञात नियतांको वाला n x 5 आव्यूह है जिसके लिए rank(X) = 5 है; β = (β0, β1, β2, β3, β4)T तथा ϵi = (ϵ1, …, ϵn)T, जहां i = 1, …, n के लिए ϵस्वतंत्रतः और सर्वथासम वितरित N(0,1) यादृच्छिक चर हैं। वैकल्पिक H1 ∶ H0 के सापेक्ष रैखिक परिकल्पना H0: β1 = β2 = β3 = β4 = c (एक ज्ञात स्थिरांक) के परीक्षण पर विचार करें जो सत्य नहीं है। निम्न कथनों में से कौन से कथन सत्य हैं?

  1. H0 के अन्तर्गत वर्ग अपशिष्टों का योग स्वतंत्रता की कोटि (n − 5) के साथ कैन्द्रीय χ2 वितरण का अनुसरण करता है।
  2. H0 के अन्तर्गत वर्ग अपशिष्टों का योग स्वतंत्रता की कोटि (n − 1) के साथ केन्द्रीय χ2 वितरण का अनुसरण करता है।
  3. परीक्षण सांख्यिकी स्वतंत्रता की कोटि (5, n − 1) के साथ केन्द्रीय F बंटन का अनुसरण करता है।
  4. परीक्षण सांख्यिकी स्वतंत्रता की कोटि (4, n − 5) के साथ केन्द्रीय F बंटन का अनुसरण करता है।

Answer (Detailed Solution Below)

Option :

Simple and Multiple Linear Regression Question 11 Detailed Solution

सही उत्तर विकल्प 4 है।

हम मुख्य रूप से शुद्ध और अनुप्रयुक्त गणित पर ध्यान केंद्रित करते हैं।

यदि संभव हो तो हम सांख्यिकी भाग के हल प्रदान करने का प्रयास करेंगे।

Get Free Access Now
Hot Links: teen patti yas teen patti online game teen patti gold download teen patti star apk