सामग्री

पुस्तक: मैट्रिक्स विश्लेषण (कॉक्स)


संतुलन और रैखिक और रैखिक कम से कम वर्ग की समस्याओं का समाधान। जॉर्डन फॉर्म और लैपलेस के साथ डायनेमिक सिस्टम और आइजेनवैल्यू समस्या जटिल एकीकरण के माध्यम से बदल जाती है।


स्तरीकृत कॉक्स आनुपातिक खतरे प्रतिगमन मॉडल

कॉक्स आनुपातिक खतरों के मॉडल का उपयोग व्यक्तियों या 'चीजों' द्वारा अनुभव किए गए तात्कालिक खतरे पर विभिन्न मापदंडों के प्रभाव का अध्ययन करने के लिए किया जाता है।

कॉक्स मॉडल आपके डेटा सेट के बारे में निम्नलिखित धारणाएँ बनाता है:

  1. डेटा सेट में सभी व्यक्ति या चीज़ें समान आधारभूत जोखिम दर का अनुभव करती हैं।
  2. प्रतिगमन चर एक्स समय के साथ मत बदलो।
  3. प्रतिगमन गुणांक β समय के साथ मत बदलो।

मॉडल को डेटा सेट पर प्रशिक्षित करने के बाद, आपको इन मान्यताओं का परीक्षण और सत्यापन करना चाहिए प्रशिक्षित मॉडल का उपयोग करना मॉडल के परिणाम को स्वीकार करने से पहले। यदि इन मान्यताओं का उल्लंघन किया जाता है, तो आप कॉक्स मॉडल को निम्न में से एक या अधिक तरीकों से संशोधित करने के बाद भी उपयोग कर सकते हैं:

  1. स्तरीकरण: आधारभूत जोखिम दर केवल कुछ निश्चित श्रेणियों के भीतर या प्रतिगमन चर के कुछ मूल्यों के लिए स्थिर हो सकती है। उदाहरण के लिए यदि यह अनुमान लगाया जाता है कि 15-25 वर्ष के बच्चों के लिए, 26-55 वर्ष के बच्चों के लिए और 55 वर्ष से अधिक उम्र के लोगों के लिए एक बीमारी होने के लिए आधारभूत खतरे की दर समान है, तो हम आयु चर को अलग-अलग स्तरों में निम्नानुसार विभाजित करते हैं: ' 15–25', '26–55' और '>55'। इसी तरह, देश जैसे श्रेणीबद्ध चर स्तरीकरण के लिए प्राकृतिक उम्मीदवार बनाते हैं। हम मान सकते हैं कि जर्मनी में यातायात दुर्घटना में मरने वाले किसी व्यक्ति का आधारभूत जोखिम संयुक्त राज्य अमेरिका के लोगों की तुलना में अलग है। एक बार जब हम डेटा को स्तरीकृत कर लेते हैं, तो हम प्रत्येक स्तर के भीतर कॉक्स आनुपातिक खतरों के मॉडल को फिट कर देते हैं। कोई भी डेटा सेट को [आयु-सीमा, देश] जैसे स्तरों के संयोजन में विभाजित कर सकता है। इस दृष्टिकोण का दोष यह है कि जब तक आपका मूल डेटा सेट बहुत बड़ा और चुने हुए स्तर में अच्छी तरह से संतुलित नहीं होता है, तब तक प्रत्येक स्तर के भीतर मॉडल के लिए उपलब्ध डेटा बिंदुओं की संख्या स्तरीकरण में प्रत्येक चर को शामिल करने के साथ बहुत कम हो जाती है। यदि स्तर के प्रत्येक संयोजन के भीतर मॉडल को प्रशिक्षित करने के लिए पर्याप्त संख्या में डेटा बिंदु उपलब्ध नहीं हैं, तो स्तरीकृत मॉडल की सांख्यिकीय शक्ति कम होगी।
  2. प्रतिगमन चर के कार्यात्मक रूप को बदलना: यहां अवधारणा सरल है। उदाहरण के लिए आयु को प्रतिगमन चर के रूप में लें। आपका कॉक्स मॉडल मानता है कि दो व्यक्तियों के बीच जोखिम अनुपात का लॉग आयु के समानुपाती होता है। लेकिन वास्तव में लॉग (खतरा अनुपात) आयु के अलावा आयु², आयु³ आदि के समानुपाती हो सकता है। इस मामले में, आयु शब्द जोड़ने से आपका मॉडल "ठीक" हो सकता है। ध्यान दें कि आयु के गुणांक में आपका मॉडल अभी भी रैखिक है। जब तक कॉक्स मॉडल प्रतिगमन गुणांक में रैखिक है, हम चर के कार्यात्मक रूप को बदलकर कॉक्स मॉडल की रैखिकता धारणा को नहीं तोड़ रहे हैं।
  3. समय बातचीत की शर्तें जोड़ना: यहाँ, अवधारणा इतनी सरल नहीं है! हम इस उपाय में आगे नहीं जाएंगे।

हम देखेंगे कि गैर-आनुपातिकता को कैसे ठीक किया जाए स्तर-विन्यास.

डेटा सेट

एक स्तरीकृत कॉक्स आनुपातिक खतरों के मॉडल के निर्माण की प्रक्रिया का वर्णन करने के लिए हम जिस डेटा सेट का उपयोग करेंगे, वह है यूएस वेटरन्स एडमिनिस्ट्रेशन लंग कैंसर ट्रायल डेटा. इसमें उन्नत, निष्क्रिय फेफड़ों के कैंसर वाले 137 रोगियों के बारे में डेटा शामिल है, जिनका इलाज एक मानक और एक प्रयोगात्मक कीमोथेरेपी आहार के साथ किया गया था। अध्ययन के दौरान उनकी प्रगति को तब तक ट्रैक किया गया जब तक कि रोगी की मृत्यु नहीं हो गई या जीवित रहते हुए परीक्षण से बाहर नहीं हो गया, या जब तक परीक्षण समाप्त नहीं हो गया। बाद की दो स्थितियों में, डेटा को सही सेंसर किया गया माना जाता है।

यह डेटा सेट पुस्तक में प्रकट होता है: द स्टैटिस्टिकल एनालिसिस ऑफ फेल्योर टाइम डेटा, सेकेंड एडिशन, जॉन डी। कल्बफ्लिश और रॉस एल। प्रेंटिस द्वारा।

पायथन और पंडों का उपयोग करते हुए, डेटा सेट को डेटाफ़्रेम में लोड करें:

यहाँ आउटपुट हम देखते हैं:

वीए फेफड़े के कैंसर डेटा सेट की पहली कुछ पंक्तियाँ (लेखक द्वारा छवि)

हमारे प्रतिगमन चर, अर्थात् एक्स मैट्रिक्स, निम्नलिखित होने जा रहे हैं:

  • TREATMENT_TYPE: 1 = मानक। 2=प्रयोगात्मक
  • CELL_TYPE: १=स्क्वैमस, २=छोटा सेल, ३=एडेनो, ४=बड़ा
  • KARNOPSKY_SCORE: रोगी के सामान्य प्रदर्शन का एक उपाय। १००=सर्वश्रेष्ठ
  • MONTHS_FROM_DIAGNOSIS: फेफड़े के कैंसर के निदान के बाद के महीनों की संख्या जब रोगी ने परीक्षण में प्रवेश किया।
  • उम्र: रोगी के वर्षों में आयु जब उन्हें परीक्षण में शामिल किया गया था।
  • PRIOR_THERAPY: क्या परीक्षण में शामिल होने से पहले रोगी को फेफड़ों के कैंसर के लिए किसी प्रकार की पूर्व चिकित्सा प्राप्त हुई थी।

हमारा आश्रित चर आप होने जा रहा है:
SURVIVAL_IN_DAYS: यह दर्शाता है कि ट्रेल में शामिल किए जाने के बाद रोगी कितने दिनों तक जीवित रहा।

घटना चर है:
स्थिति: १ = मृत। 0=जीवित

पात्सी का उपयोग करते हुए, आइए श्रेणीबद्ध चर को तोड़ दें CELL_TYPE विभिन्न श्रेणी वार कॉलम चर में। इस तथ्य के बारे में चिंता न करें कि SURVIVAL_IN_DAYS मॉडल व्यंजक के दोनों ओर है, भले ही यह आश्रित चर है। यह सिर्फ पात्सी को खुश करने के लिए है।

प्रतिगमन मैट्रिक्स की पहली कुछ पंक्तियाँ (लेखक द्वारा छवि)

कॉक्स आनुपातिक खतरा मॉडल का प्रशिक्षण

अगला, आइए इस डेटा पर नियमित (गैर-स्तरीकृत) कॉक्स आनुपातिक खतरों मॉडल का निर्माण और प्रशिक्षण दें जीवन रेखा उत्तरजीविता विश्लेषण पुस्तकालय:

हम निम्नलिखित मॉडल सारांश देखते हैं:

कॉक्स मॉडल प्रशिक्षण सारांश (लेखक द्वारा छवि)

आनुपातिक खतरा परीक्षण करना

प्रशिक्षित मॉडल पर आनुपातिक खतरों की धारणाओं का परीक्षण करने के लिए, हम इसका उपयोग करेंगे आनुपातिक_खतरा_परीक्षण लाइफलाइन द्वारा आपूर्ति की गई विधि सीपीएचएफटर वर्ग:

आइए इस विधि के प्रत्येक पैरामीटर को देखें:

फिट_कॉक्स_मॉडल : यह पैरामीटर फिटेड कॉक्स मॉडल का संदर्भ देता है। हमारे उदाहरण में, फिट_कॉक्स_मॉडल=cph_model

ट्रेनिंग_डीएफ : यह प्रशिक्षण डेटा सेट का संदर्भ है। हमारे उदाहरण में, ट्रेनिंग_डीएफ=X

समय_रूपांतरण : यह चर स्ट्रिंग्स की एक सूची लेता है: <'सभी', 'किमी', 'रैंक', 'पहचान', 'लॉग'>। प्रत्येक स्ट्रिंग फ़ंक्शन को लागू करने के लिए इंगित करती है आप (अवधि) कॉक्स मॉडल का चर ताकि डेटा में बाहरी लोगों के लिए परीक्षण की संवेदनशीलता को कम किया जा सके यानी चरम अवधि मान। याद रखें कि वीए डेटा सेट में आपचर है SURVIVAL_IN_DAYS. 'किमी' परिवर्तन लागू करता है: (१-कपलानमीरफिटर.फिट(अवधि, Event_observed)। 'रैंक' ट्रांस्फ़ॉर्म अवधियों की क्रमबद्ध सूची को क्रमबद्ध प्राकृतिक संख्याओं [1, 2, 3, ...] के सेट पर मैप करेगा। 'पहचान' अवधियों को बरकरार रखेगी और 'लॉग' अवधि मानों को लॉग-ट्रांसफ़ॉर्म करेगा।

पूर्वगणना_अवशिष्ट : आपको निम्न प्रकारों से अपनी पसंद की अवशिष्ट त्रुटियों के प्रकार की आपूर्ति करने के लिए मिलता है: स्कोनफेल्ड, स्कोर, डेल्टा_बीटा, विचलन, मार्टिंगेल, और विचरण स्केल किए गए स्कोनफेल्ड।

आइए कॉक्स मॉडल के विचरण स्केल किए गए स्कोनफेल्ड अवशेषों की गणना करें जिन्हें हमने पहले प्रशिक्षित किया था। हम मॉडल इवैल्यूएशन और गुड ऑफ फिट पर बाद के सेक्शन में शोएनफेल्ड के अवशेषों के बारे में विस्तार से जानेंगे, लेकिन अगर आप चाहते हैं कि आप अभी उस सेक्शन में जाएं और उनके बारे में सब कुछ जानें। अभी के लिए, आइए रिग्रेशन मॉडल की स्कोनफेल्ड अवशिष्ट त्रुटियों की गणना करें:

आइए अब आनुपातिक खतरों का परीक्षण करें:

हमें निम्नलिखित आउटपुट मिलता है:

आनुपातिक_खतरा_टेस्ट का आउटपुट (लेखक द्वारा छवि)

परीक्षण आँकड़ा शून्य परिकल्पना के तहत एक ची-वर्ग (1) वितरण का पालन करता है कि चर आनुपातिक खतरों के परीक्षण का अनुसरण करता है। शून्य परिकल्पना के तहत, परीक्षण आंकड़े का अपेक्षित मूल्य शून्य है। शून्य से किसी भी विचलन को ब्याज के कुछ महत्वपूर्ण स्तर जैसे 0.01, 0.05 आदि पर सांख्यिकीय रूप से महत्वपूर्ण माना जा सकता है।

यह परीक्षण आँकड़ा कैसे बनाया जाता है यह अपने आप में अध्ययन करने के लिए एक आकर्षक विषय है। इच्छुक पाठक के लिए, निम्नलिखित पेपर एक अच्छा प्रारंभिक बिंदु प्रदान करता है:
पार्क, सुनही और हेंड्री, डेविड जे। (२०१५) राजनीतिक में आनुपातिक खतरों के स्कोनफेल्ड अवशिष्ट परीक्षणों का पुनर्मूल्यांकन ...eprints.lse.ac.uk

अपनी छोटी सी समस्या पर वापस आते हुए, मैंने लाल रंग में उन चरों पर प्रकाश डाला है जो ची-स्क्वायर (1) परीक्षण में 0.05 (95% आत्मविश्वास स्तर) के महत्व स्तर पर विफल रहे हैं।

आनुपातिक_खतरा_टेस्ट का आउटपुट (लेखक द्वारा छवि)

हम AGE, CELL_TYPE[T.4] और KARNOFSKY_SCORE को स्तरीकृत करके इन मुद्दों को हल करने का प्रयास करेंगे।

AGE, CELL_TYPE[T.4] और KARNOFSKY_SCORE . को स्तरीकृत करना

हम AGE और KARNOFSKY_SCORE को २५%, ५०%, ७५% और ९९% चतुर्थक के आधार पर ४ स्तरों में विभाजित करके स्तरीकृत करेंगे। CELL_TYPE[T.4] एक श्रेणीगत संकेतक (1/0) चर है, इसलिए यह पहले से ही दो स्तरों: 1 और 0 में स्तरीकृत है।

AGE और KARNAFSKY_SCORE को स्तरीकृत करने के लिए, हम पंडों की विधि का उपयोग करेंगे क्यूकट(एक्स, क्यू)। हम x को क्रमशः पंडों सीरीज ऑब्जेक्ट df['AGE'] और df['KARNOFSKY_SCORE'] पर सेट करेंगे। q मात्रात्मक बिंदुओं की एक सूची इस प्रकार है:

output का उत्पादन क्यूकट(x, q) भी एक पांडा श्रृंखला वस्तु है। हम आयु_स्तर और karnofsky_strata कॉलम को वापस अपने में जोड़ेंगे एक्स आव्यूह। याद रखें कि हमने नक्काशी की थी एक्स पात्सी का उपयोग करना:

आइए देखें कि स्तरीकृत AGE और KARNOFSKY_SCORE क्रमशः AGE और KARNOFSKY_SCORE के साथ प्रदर्शित होने पर कैसे दिखते हैं:

यह AGE और AGE_STRATA है:

AGE और स्तरीकृत AGE (लेखक द्वारा छवि)

और यहाँ स्तरीकृत है KARNAFSKY_SCORE:

KARNOPSKY_SCORE और इसका स्तरीकृत संस्करण (लेखक द्वारा छवि)

इसके बाद, AGE_STRATA श्रृंखला और KARNOFSKY_SCORE_STRATA श्रृंखला को हमारे साथ जोड़ते हैं एक्स आव्यूह:

हम AGE और KARNOFSKY_SCORE को छोड़ देंगे क्योंकि हमारा स्तरीकृत कॉक्स मॉडल गैर-स्तरीकृत AGE और KARNOFSKY_SCORE चर का उपयोग नहीं करेगा:

आइए अपडेट में कॉलम की समीक्षा करें एक्स आव्यूह:

आइए अब इसका एक उदाहरण बनाते हैं विभक्त हो गया कॉक्स आनुपातिक खतरा मॉडल इसे AGE_STRATA, KARNOFSKY_SCORE_STRATA और CELL_TYPE[T.4] पास करके:

आइए मॉडल को फिट करें एक्स. इस बार, मॉडल को सूची में प्रत्येक स्तर के भीतर फिट किया जाएगा: ['CELL_TYPE[T.4]', 'KARNOFSKY_SCORE_STRATA', 'AGE_STRATA']।

आइए एक बार फिर स्तरीकृत कॉक्स आनुपातिक खतरों के मॉडल पर आनुपातिक खतरों की धारणा का परीक्षण करें:

हमें निम्नलिखित आउटपुट मिलता है:

स्तरीकृत कॉक्स मॉडल पर आनुपातिक_खतरा_टेस्ट का आउटपुट (लेखक द्वारा छवि)

आइए इस आउटपुट के बारे में दो बातें नोट करें:

  1. परीक्षण-सांख्यिकी और पी-मान: जैसा कि पहले उल्लेख किया गया है, परीक्षण-सांख्यिकी ची-स्क्वायर (1) है जिसे शून्य परिकल्पना के तहत वितरित किया गया है एच0 कि चर आनुपातिक खतरों की धारणा का सम्मान करता है। अंतर्गत एच0, परीक्षण आँकड़ों का अपेक्षित मान शून्य है। शून्य से किसी भी विचलन को कुछ स्वीकार्य पी-वैल्यू पर सांख्यिकीय रूप से महत्वपूर्ण माना जा सकता है। हम देख सकते हैं कि सभी पी-वैल्यू आराम से 0.2 से ऊपर हैं। तो शून्य से कोई भी विचलन ८०% के आत्मविश्वास के स्तर पर सांख्यिकीय रूप से महत्वपूर्ण नहीं है। इसलिए हम वैकल्पिक परिकल्पना को दृढ़ता से अस्वीकार करते हैं और स्वीकार करते हैं एच0 कि सभी चर आनुपातिक खतरों की धारणा का पालन करते हैं।
  2. CELL_TYPE[T.4], AGE, KARNAFSKY_SCORE की अनुपस्थिति: चूंकि हम इन तीन चरों पर स्तरीकरण कर रहे हैं, वे अब मॉडल के प्रतिगमन चर का हिस्सा नहीं हैं।

हम वीए फेफड़े के कैंसर डेटा पर एक कॉक्स आनुपातिक खतरों के मॉडल के निर्माण में इस तरह से सफल हुए हैं कि मॉडल के प्रतिगमन चर (और इसलिए समग्र रूप से मॉडल) आनुपातिक खतरों की धारणाओं को पूरा करते हैं।

कॉक्स आनुपातिक खतरों मॉडल के आउटपुट की व्याख्या कैसे करें

आइए मॉडल प्रशिक्षण सारांश का प्रिंट आउट लें:

स्तरीकृत कॉक्स आनुपातिक खतरों मॉडल का प्रशिक्षण सारांश (लेखक द्वारा छवि)

हम देखते हैं कि मॉडल ने स्तरीकरण के लिए निम्नलिखित चरों पर विचार किया है:

स्तरीकृत कॉक्स मॉडल के स्तर चर

मॉडल की आंशिक लॉग-संभावना -137.76 है। यह संख्या उपयोगी होगी यदि हम मॉडल की अच्छाई-की-फिट की तुलना उसी मॉडल के दूसरे संस्करण के साथ करना चाहते हैं, उसी तरह से स्तरीकृत, लेकिन कम या अधिक संख्या में चर के साथ। बड़े आंशिक लॉग-एलएल वाले मॉडल में बेहतर अच्छाई-की-फिट होगी।

स्तरीकृत कॉक्स मॉडल का आंशिक लॉग-एलएल

अगला, आइए गुणांक देखें:

स्तरीकृत कॉक्स मॉडल के गुणांक

गुणांक और इसके घातांक दोनों को आउटपुट में दिखाया गया है।

CELL_TYPE[T.2] एक संकेतक चर (1 या 0) है और यह दर्शाता है कि रोगी की ट्यूमर कोशिकाएं "छोटी कोशिका" प्रकार की थीं या नहीं। गुणांक 0.92 की व्याख्या इस प्रकार की जाती है:

ट्यूमर वाले रोगियों के लिए आनुपातिक खतरे जो छोटे सेल प्रकार के हैं और नहीं हैं (लेखक द्वारा छवि)

यदि ट्यूमर "छोटी कोशिका" प्रकार का है, तो किसी भी समय मृत्यु का तात्कालिक खतरा (2.51-1)*100=151% बढ़ जाता है।

TREATMENT_TYPE एक अन्य संकेतक चर है जिसका मान 1=मानक उपचार और 2=प्रायोगिक उपचार है। हम TREATMENT_TYPE के गुणांक की व्याख्या इस प्रकार करते हैं:

प्रयोगात्मक बनाम मानक उपचार प्राप्त करने वाले मरीजों के लिए आनुपातिक खतरे (लेखक द्वारा छवि)

प्रायोगिक उपचार प्राप्त करने वाले रोगियों ने मानक उपचार की तुलना में मृत्यु के तात्कालिक खतरे में (1.34–1)*100=34% वृद्धि का अनुभव किया।

हम इसी तरह से अन्य गुणांकों के प्रभाव की व्याख्या कर सकते हैं।

अब आइए विभिन्न प्रतिगमन चरों के लिए पी-मानों और विश्वास अंतरालों पर एक नज़र डालें।

प्रतिगमन चर के पी-मान (लेखक द्वारा छवि)

p-मान हमें बताते हैं कि CELL_TYPE[T.2] और CELL_TYPE[T.3] अत्यधिक महत्वपूर्ण हैं। उनका पी-मान 0.005 से कम है, जिसका मतलब है कि सांख्यिकीय महत्व (100-0.005) = 99.995% या उच्च आत्मविश्वास स्तर पर है। इसी तरह, PRIOR_THERAPY > ९५% विश्वास स्तर पर सांख्यिकीय रूप से महत्वपूर्ण है। TREATMENT_TYPE और MONTH_FROM_DIAGNOSIS के p-मान > 0.25 हैं। इसलिए हम यह नहीं कह सकते कि गुणांक एक (1–0.25)*100 = 75% आत्मविश्वास के स्तर पर भी शून्य से सांख्यिकीय रूप से भिन्न हैं। इसलिए, हमें आनुपातिक जोखिम दर पर TREATMENT_TYPE और MONTHS_FROM_DIAGNOSIS के प्रभाव के बारे में बहुत अधिक नहीं पढ़ना चाहिए। यह निष्कर्ष तब भी निकलता है जब आप देखते हैं कि गुणांक के मूल्य के अनुपात के रूप में उनकी मानक त्रुटियां कितनी बड़ी हैं, और TREATMENT_TYPE और MONTH_FROM_DIAGNOSIS के संगत व्यापक आत्मविश्वास अंतराल।

मानक त्रुटि और विश्वास अंतराल (लेखक द्वारा छवि)

सारांश

  • कॉक्स आनुपातिक खतरों के मॉडल का उपयोग व्यक्तियों या 'चीजों' द्वारा अनुभव किए गए तात्कालिक खतरे पर विभिन्न मापदंडों के प्रभाव का अध्ययन करने के लिए किया जाता है।
  • कॉक्स मॉडल मानता है कि सभी अध्ययन प्रतिभागियों को समान आधारभूत जोखिम दर का अनुभव होता है, और प्रतिगमन चर और उनके गुणांक समय अपरिवर्तनीय हैं।
  • यदि आपका मॉडल इन मान्यताओं को विफल करता है, तो आप प्रतिगमन चर पर निम्नलिखित में से एक या अधिक तकनीकों का उपयोग करके स्थिति को "ठीक" कर सकते हैं जो आनुपातिक खतरों के परीक्षण में विफल रहे हैं: 1) प्रतिगमन चर का स्तरीकरण, 2) के कार्यात्मक रूप को बदलना प्रतिगमन चर और 3) प्रतिगमन चर के लिए समय अंतःक्रियात्मक शब्द जोड़ना।

संदर्भ, उद्धरण और कॉपीराइट

डेटा सेट

VA लंग कैंसर डेटा सेट निम्न स्रोत से लिया गया है:
http://www.stat.rice.edu/

कागज और पुस्तक लिंक:

कॉक्स, डी। आर। "रिग्रेशन मॉडल और लाइफ-टेबल्स।" रॉयल स्टैटिस्टिकल सोसाइटी का जर्नल। सीरीज बी (पद्धति संबंधी) 34, नहीं। २ (१९७२): १८७-२२०। 20 नवंबर, 2020 को एक्सेस किया गया। http://www.jstor.org/stable/2985181।

पार्क, सुनही और हेंड्री, डेविड जे। (२०१५) "राजनीति विज्ञान घटना इतिहास विश्लेषण में आनुपातिक खतरों के स्कोनफेल्ड अवशिष्ट परीक्षणों का पुनर्मूल्यांकन". अमेरिकन जर्नल ऑफ़ पोलिटिकल साइंस, 59 (4)। १०७२-१०८७। आईएसएसएन 0092-5853। http://eprints.lse.ac.uk/84988/

ग्रैम्ब्स्च, पेट्रीसिया एम।, और टेरी एम। थर्नौ। "आनुपातिक जोखिम परीक्षण और निदान भारित अवशेषों के आधार पर।" बायोमेट्रिक, वॉल्यूम। 81, नहीं। 3, 1994, पीपी. 515-526। JSTOR, www.jstor.org/stable/2337123. 5 दिसंबर 2020 को एक्सेस किया गया।

थेरन्यू, टेरी एम., और पेट्रीसिया एम. ग्रैम्बश। "मॉडलिंग उत्तरजीविता डेटा: कॉक्स मॉडल का विस्तार"। 2000. न्यूयॉर्क: कोंपल

जॉन डी. कल्बफ्लिश और रॉस एल. प्रेंटिस द्वारा विफलता समय डेटा का सांख्यिकीय विश्लेषण, दूसरा संस्करण।

मैक्कुलघ पी., नेल्डर जॉन ए., सामान्यीकृत रैखिक मॉडल, दूसरा संस्करण। सीआरसी प्रेस, १९८९, आईएसबीएन ०४१२३१७६०५, ९७८०४१२३१७६०६

इमेजिस

सीसी-बाय-एनसी-एसए के तहत सभी छवियां कॉपीराइट सचिन तिथि हैं, जब तक कि छवि के नीचे एक अलग स्रोत और कॉपीराइट का उल्लेख नहीं किया गया हो।

मैं समय श्रृंखला विश्लेषण, प्रतिगमन और पूर्वानुमान पर विशेष ध्यान देने के साथ डेटा विज्ञान में विषयों के बारे में लिखता हूं।

अगर आपको यह सामग्री पसंद आई है, तो कृपया अपने ईमेल में नई सामग्री प्राप्त करने के लिए सदस्यता लें:


एंड्रयू कॉक्स के "पोर्टफोलियो विश्लेषण की सोर्सिंग": और अधिक समान

खरीद के बदलते चेहरे और मूल्य निर्माण और सहयोग के महत्व पर कई नए लेखों और पुस्तकों के निर्माण के खिलाफ, एंड्रयू कॉक्स की नई पुस्तक "सोर्सिंग पोर्टफोलियो विश्लेषण" इस साल की शुरुआत में सामने आई। यह पुस्तक अनिवार्य रूप से निर्देशात्मक 2 X 2 और 8 X 8 मैट्रिसेस की एक श्रृंखला है जो आपूर्तिकर्ता विभाजन के लिए अलग-अलग टाइपोलॉजी स्थापित करती है, जो कि बेहतर सोर्सिंग परिणामों को जन्म दे सकती है। यह काम माइकल पोर्टर के फाइव फोर्सेज विश्लेषण द्वारा अपनी पुस्तक कॉम्पिटिटिव स्ट्रैटेजी (1980) में पेश किए गए पूर्व रणनीतिक पदों की अवधारणाओं के साथ-साथ हार्वर्ड बिजनेस रिव्यू (1983) में प्रकाशित पीटर क्रालजिक के "सेगमेंटेशन मैट्रिक्स" के साथ-साथ प्रोफेसर पर भी आधारित है। कॉक्स के अपने लेख, वर्किंग पेपर और पुस्तक अध्याय (जो पुस्तक के संदर्भ खंड के 3 पृष्ठों का उपभोग करते हैं)। दुर्भाग्य से, अपने स्वयं के अलावा सबसे अद्यतित संदर्भ 2008 से हैं, और यह स्पष्ट है कि कॉक्स के अधिक आधुनिक अनुसंधान प्रतिमानों के उपयोग में एक बड़ा अंतर है जो संबंधपरक अनुबंध और बातचीत से संबंधित हैं। वास्तव में, पुस्तक का उपशीर्षक, "श्रेणी प्रबंधन और सामरिक सोर्सिंग के लिए पावर पोजिशनिंग टूल्स" यह सब दूर देता है। यह पुस्तक अनिवार्य रूप से अनुबंधों पर बातचीत करने में आपूर्तिकर्ताओं पर अधिक शक्ति प्राप्त करने के तरीके के बारे में है। कॉक्स ने पोर्टर और क्रालजिक के उपकरण ले लिए हैं, और उन्हें स्टेरॉयड पर डाल दिया है। लेखक विभिन्न प्रकार के सोर्सिंग वातावरण को परिभाषित करने के लिए सेगमेंटेशन मैट्रिसेस के भीतर और भी अधिक विस्तृत सेगमेंटेशन मैट्रिस बनाने पर केंद्रित पूरी पुस्तक खर्च करता है। इसका परिणाम कई नए शब्दों में होता है कि वह संबंध प्रकारों में विभाजित करने का प्रयास करने में सक्षम होता है। इसका परिणाम विभिन्न प्रकार के विभिन्न प्रकार के होते हैं जो न केवल पूरी तरह से भ्रमित करने वाले होते हैं, बल्कि वास्तव में अर्थहीन भी होते हैं! उदाहरण के लिए, इसे लें:

पारस्परिक - आपूर्तिकर्ता विकास + आपूर्ति श्रृंखला सोर्सिंग: आपूर्ति श्रृंखला के भीतर से पहले टियर + आर्म-लेंथ सोर्सिंग पर पूर्ण दुबला / चुस्त / चुस्त आपूर्तिकर्ता सहयोग, जिसमें कोई भी पक्ष मूल्य के अपने हिस्से को अधिकतम नहीं करता है।

खरीदार प्रमुख - आपूर्तिकर्ता विकास + आंशिक आपूर्ति श्रृंखला प्रबंधन: पहले स्तर पर पूर्ण दुबला / चुस्त / चुस्त आपूर्तिकर्ता सहयोग + केवल आपूर्ति श्रृंखला के भीतर सूचना-आधारित सहयोग, जिसमें खरीदार श्रृंखला में सभी आपूर्तिकर्ताओं से मूल्य के अपने हिस्से को अधिकतम करता है।

इस प्रकार के संबंध का एक अच्छा उदाहरण होगा……. यह मम्बो-जंबो का प्रकार है जिसे आप एक नवनिर्मित आपूर्ति श्रृंखला सलाहकार से सुन सकते हैं, जिसने नाश्ते में बहुत अधिक कॉफी पी है!

इस पुस्तक के बारे में जो बात मुझे परेशान करती है वह यह है कि यह पूरी तरह से शक्ति पर केंद्रित है, और कैसे एक खरीदार आपूर्तिकर्ताओं पर अपनी निर्भरता को कम कर सकता है, और इसलिए "पैसे के सौदों के लिए बेहतर मूल्य प्राप्त करता है"। यह धारणा कि निर्भरता एक बुरी चीज नहीं हो सकती है, जब तक कि यह प्रभावी संविदात्मक तंत्र, प्रदर्शन माप, सूचनाओं के खुले आदान-प्रदान और पारस्परिक लाभों के माध्यम से नियंत्रित होती है, कॉक्स द्वारा विकसित संबंधों के संदर्भ में पूरी तरह से कमी है। जबकि मैं इस बात से सहमत हूं कि किसी भी प्रकार की आपूर्ति श्रृंखला संबंधों में प्रतिस्पर्धा को बढ़ावा देना एक अच्छी बात है, इसमें दीर्घकालिक पारस्परिक रूप से लाभकारी संबंधों के माध्यम से बढ़ती निर्भरता शामिल हो सकती है। उदाहरण के लिए, होंडा के साथ मेरा अनुभव यह है कि वे अक्सर "जीवन के लिए आपूर्तिकर्ता" संबंध बनाने की कोशिश करते हैं, जो कि मजबूत लागत वाले मॉडल, लक्ष्य लागत, आपूर्तिकर्ता विकास और आपूर्तिकर्ताओं के सहयोग से निरंतर सुधार रणनीतियों पर केंद्रित होते हैं। एक अन्य उद्योग, तेल और गैस में, मैंने दस साल या उससे अधिक अवधि के आपूर्तिकर्ता संबंधों को देखा है जो पूर्ण खुली किताबों की लागत और रणनीतियों पर आधारित हैं जो मांग प्रबंधन और सुधार रणनीतियों को चलाने की कोशिश करते हैं। कॉक्स टू टू टू सोर्सिंग पोर्टफोलियो मैट्रिसेस की दुनिया में इस प्रकार के रिश्ते मौजूद नहीं हैं।

दुर्भाग्य से, यहां पहचाने गए टाइपोलॉजी व्यावहारिक उदाहरणों या मामलों का एक भी सेट प्रदान करने में विफल रहते हैं जो वास्तव में परिभाषित करते हैं कि क्या मतलब है। और यह इस पुस्तक के साथ एक महत्वपूर्ण समस्या है - ये सैद्धांतिक मॉडल हैं जिन्होंने अच्छी तरह से काम किया है, लेकिन व्यवहार में आसानी से पहचाना नहीं जा सकता है। शायद यह इस तथ्य के कारण हो सकता है कि प्रोफेसर कॉक्स का मुख्य रूप से उन संगठनों के साथ जुड़ाव रहा है जो पहले से ही सत्ता की स्थिति में हैं। उनके काम का उपयोग आईबीएम, एक बड़े खरीदार के भीतर लंबे समय तक किया गया था, और जो मुख्य रूप से खर्च का लाभ उठाने और स्पर्श रहित खरीद प्रौद्योगिकियों को चलाने की क्षमता के लिए जाना जाता था। खरीद पर बहुत अधिक ध्यान और लेखन एक बड़े और शक्तिशाली खरीद संगठन के अपेक्षाकृत सरल संदर्भ पर रहा है, जो एक परिचित आपूर्तिकर्ता से एक सरल उत्पाद या सेवा की खरीद करता है। लेकिन दुनिया आईबीएम और 2 बाय 2 कैटिगरी तक सीमित नहीं है।


सोर्सिंग पोर्टफोलियो विश्लेषण पर एंड्रयू कॉक्स – अंतर्दृष्टिपूर्ण और महत्वपूर्ण सोच

आज की पुस्तक समीक्षा, बैकलॉग पर पकड़, एक और है जहां हमें इसे पूर्ण न्याय देने के लिए वापस आने की आवश्यकता हो सकती है। वास्तव में, इस मामले में, आने वाले कुछ वर्षों के लिए इसका अध्ययन करना आवश्यक हो सकता है यदि हम इसकी सामग्री से पूर्ण मूल्य प्राप्त करना चाहते हैं।

विचाराधीन पुस्तक एंड्रयू कॉक्स द्वारा सोर्सिंग पोर्टफोलियो विश्लेषण है। हमें संदेह है कि अधिकांश पाठकों को कॉक्स के बारे में कुछ पता होगा - बर्मिंघम विश्वविद्यालय आपूर्ति श्रृंखला एमबीए पाठ्यक्रम के अग्रणी संस्थापक और खरीद प्रबंधकों और नेताओं की एक पूरी पीढ़ी के लिए प्रेरणा का स्रोत। वह इंटरनेशनल इंस्टीट्यूट फॉर एडवांस्ड परचेजिंग एंड सप्लाई (IIAPS) के संस्थापक और हमारे पेशे में एक उत्पादक लेखक, सलाहकार, शिक्षक और कभी-कभी संकटमोचक (सर्वोत्तम संभव अर्थों में) भी हैं।

इस काम में, कॉक्स का लक्ष्य सोर्सिंग के लिए एक पूरी नई सेगमेंटेशन और पोजिशनिंग पद्धति विकसित करना है। इसमें, उन्होंने क्रालजिक (क्रय पोर्टफोलियो विश्लेषण और प्रसिद्ध क्रालजिक मैट्रिक्स) द्वारा सामने रखे गए कई विचारों और माइकल पोर्टर के "पांच बलों" विश्लेषण के पहलुओं को बहुत अच्छी तरह से ध्वस्त कर दिया, जो कि खरीद और आपूर्ति श्रृंखला मामलों के लिए प्रासंगिक हैं।

उदाहरण के लिए, वह बताते हैं कि बहुत प्रभावशाली सोच यह है कि आपूर्ति संबंधों को प्रबंधित करने का सबसे अच्छा तरीका सहयोगी संबंधों की तलाश करना है। उनके अपने सिद्धांत शक्ति, मूल्य के प्रवाह और उस आपूर्ति श्रृंखला में महत्वपूर्ण संपत्ति के आसपास बहुत अधिक हैं। इसलिए वह क्रालजिक (और इसके विकल्प) में गहराई से उतरता है - उदाहरण के लिए, यह इंगित करते हुए कि "सामरिक" और साथ ही "लीवरेज" क्वाड्रंट दोनों में सहयोग का उपयोग किया जा सकता है, हालांकि मूल्य के अलग-अलग बंटवारे के साथ।

फिर वह रणनीतिक सोर्सिंग विकल्पों की अपनी खुद की टाइपोलॉजी देता है, और विशिष्ट श्रेणियों और विशेष शक्ति स्थितियों के लिए उपयोग करने के लिए सबसे उपयुक्त सोर्सिंग रणनीतियों और सामरिक लीवर की पहचान करने के लिए एक पद्धति देता है। ये बाद के अध्याय शायद अभ्यासियों के लिए सबसे अधिक उपयोगी होंगे, और श्रेणी रणनीति विकसित करने वाले किसी भी व्यक्ति को इस सोच को पढ़ने और समझने से लाभ होगा।

शैली के संदर्भ में, कॉक्स अपने घूंसे नहीं खींचता है, वह ऐसा व्यक्ति नहीं है जो बहुत सारे आत्म-संदेहों को झेलता है। एक विशिष्ट खंड कुछ इस तरह से शुरू होगा। "क्रालजिक यह समझने में विफल रहा कि" आपूर्ति बाजार "का विश्लेषण खरीदार और उन्हें आपूर्ति करने में सक्षम प्रत्येक संभावित आपूर्तिकर्ताओं के बीच शक्ति संबंधों के विश्लेषण के साथ शुरू होना चाहिए"।

हालांकि, कॉक्स इससे दूर हो सकता है क्योंकि वह हमारी राय में लगभग हमेशा सही है, क्योंकि वह अपने पूरे करियर में रहा है। (मैं "लगभग" कहता हूं क्योंकि मुझे एक ऐसी टिप्पणी मिली है जिसे मैं अपवाद मान सकता हूं, लेकिन मैं इसे एक और दिन के लिए सहेज कर रखूंगा!)

यह इस पुस्तक को किसी भी व्यक्ति के लिए एक महत्वपूर्ण संसाधन बनाता है जो वास्तव में खरीदार/विक्रेता संबंधों और सोर्सिंग वर्गीकरण को समझने के बारे में गंभीर है। हालांकि, यह सबसे आसान पढ़ा नहीं है - इसमें बहुत सारी सामग्री है और इसे हमेशा उपयोग में आसानी के लिए निर्धारित नहीं किया जाता है (बहुत अधिक इटैलिक मेरी पसंद के लिए!) लेकिन अगर हम कलात्मक प्रभाव (आइस-डांसिंग मार्किंग योजनाओं को याद रखने वालों के लिए) के बजाय सामग्री पर आकलन करते हैं, तो यह एक महत्वपूर्ण और आवश्यक पुस्तक है। और यह केवल £20 है - व्यावसायिक पुस्तकों की दुनिया में इन दिनों एक वास्तविक सौदा है।


इसी तरह की किताबें

मैट्रिक्स बीजगणित का परिचय
द्वारा औतार के काव - दक्षिण फ्लोरिडा विश्वविद्यालय
यह पुस्तक मुख्य रूप से उन छात्रों के लिए लिखी गई है जो नए स्तर पर हैं या रैखिक/मैट्रिक्स बीजगणित में पूर्ण पाठ्यक्रम नहीं लेते हैं, या मैट्रिक्स बीजगणित के लिए एक समकालीन और व्यावहारिक दृष्टिकोण चाहते हैं। पुस्तक के आठ अध्याय निःशुल्क उपलब्ध हैं।
(16525 विचार) Toeplitz और परिसंचारी मैट्रिसेस: एक समीक्षा
द्वारा रॉबर्ट एम. ग्रे - अब प्रकाशक इंक
यह पुस्तक पूरी तरह से योग करने योग्य तत्वों के साथ बैंडेड टोप्लिट्ज़ मैट्रिसेस और टोप्लिट्ज़ मैट्रिसेस के आइजनवैल्यू, व्युत्क्रम और उत्पादों के स्पर्शोन्मुख व्यवहार पर मौलिक प्रमेयों को प्राप्त करती है। छात्रों और अभ्यास करने वाले इंजीनियरों के लिए लिखा गया है।
(12651 विचार) रैखिक बीजगणित उदाहरण C-3: आइजनवैल्यू समस्या और यूक्लिडियन वेक्टर स्पेस Vector
द्वारा लीफ मेज्लब्रो - बुकबून
पुस्तक रैखिक बीजगणित में हल की गई समस्याओं का एक संग्रह है, इस तीसरे खंड में आइजनवैल्यू समस्या और यूक्लिडियन वेक्टर स्पेस शामिल हैं। सभी उदाहरण हल किए जाते हैं, और समाधान में आमतौर पर चरण-दर-चरण निर्देश होते हैं।
(11113 विचार) परिसंचारी
द्वारा अलुन व्यान-जोन्स
इस पुस्तक का लक्ष्य सर्कुलेटर्स को बीजीय संदर्भ में वर्णित करना है। यह एक कम्यूटेटिव बीजगणित के रूप में सर्कुलेटर्स के दृष्टिकोण और उनके निर्धारकों पर जोर देने के साथ मैट्रिसेस के रूप में सर्कुलेटर्स के ठोस दृष्टिकोण के बीच दोलन करता है।
(11731 विचार)

इसी तरह की किताबें

मैट्रिसेस
द्वारा शमूएल फ्रीडलैंड - शिकागो में इलिनोइस विश्वविद्यालय
सामग्री की तालिका से: डोमेन, मॉड्यूल और मैट्रिक्स मैट्रिक्स और विश्लेषणात्मक समानता के समानता कार्यों के लिए कैननिकल फॉर्म आंतरिक उत्पाद रिक्त स्थान मल्टीलाइनियर बीजगणित के तत्व गैर-ऋणात्मक मैट्रिक्स उत्तलता।
(10937 विचार) मैट्रिक्स का सिद्धांत
द्वारा सी.सी. मैकडफी - चेल्सी
मैट्रिक्स बीजगणित के कई अनुप्रयोगों का संक्षिप्त अवलोकन, मैट्रिसेस, सरणी और निर्धारकों की समीक्षा जैसे विषयों पर चर्चा करना, विशेषता समीकरण से जुड़े अभिन्न मैट्रिक्स समकक्ष, अनुरूपता, और समानता इत्यादि।
(10967 विचार) मैट्रिक्स पर प्राकृतिक उत्पाद Xn
द्वारा डब्ल्यू बी वसंत कंडासामी, फ्लोरेंटिन स्मरांडाचे - arXiv
लेखक मैट्रिक्स पर एक नए प्रकार के उत्पाद का परिचय देते हैं जिसे प्राकृतिक उत्पाद Xn कहा जाता है - एक ही क्रम के मामले या पंक्ति मैट्रिक्स में उत्पाद का विस्तार। जब एक ही क्रम के दो आव्यूह जोड़े जा सकते हैं, तो कोई भी उन्हें गुणा करने से नहीं रोकता है।
(7688 विचार) परिसंचारी
द्वारा अलुन व्यान-जोन्स
इस पुस्तक का लक्ष्य सर्कुलेटर्स को बीजीय संदर्भ में वर्णित करना है। यह एक कम्यूटेटिव बीजगणित के रूप में सर्कुलेटर्स के दृष्टिकोण और उनके निर्धारकों पर जोर देने के साथ मैट्रिसेस के रूप में सर्कुलेटर्स के ठोस दृष्टिकोण के बीच दोलन करता है।
(11731 विचार)

बहुभिन्नरूपी सांख्यिकीय मॉडलिंग की आवश्यकता

नैदानिक ​​जांच में, ऐसी कई स्थितियां होती हैं, जहां कई ज्ञात मात्राएं (जिन्हें सहसंयोजक), संभावित रूप से रोगी के पूर्वानुमान को प्रभावित करते हैं।

उदाहरण के लिए, मान लीजिए कि रोगियों के दो समूहों की तुलना की जाती है: वे जो विशिष्ट जीनोटाइप वाले और बिना विशिष्ट जीनोटाइप वाले हैं। यदि समूहों में से एक में वृद्ध व्यक्ति भी शामिल हैं, तो जीवित रहने में कोई अंतर जीनोटाइप या उम्र या वास्तव में दोनों के कारण हो सकता है। इसलिए, किसी एक कारक के संबंध में उत्तरजीविता की जांच करते समय, दूसरों के प्रभाव के लिए समायोजन करना अक्सर वांछनीय होता है।

सांख्यिकीय मॉडल अक्सर इस्तेमाल किया जाने वाला उपकरण है जो एक साथ कई कारकों के संबंध में अस्तित्व का विश्लेषण करने की अनुमति देता है। इसके अतिरिक्त, सांख्यिकीय मॉडल प्रत्येक कारक के लिए प्रभाव आकार प्रदान करता है।

कॉक्स आनुपातिक-खतरे मॉडल अस्तित्व विश्लेषण डेटा मॉडलिंग के लिए उपयोग किए जाने वाले सबसे महत्वपूर्ण तरीकों में से एक है। अगला खंड कॉक्स रिग्रेशन मॉडल की मूल बातें प्रस्तुत करता है।


कॉक्स कम्युनिकेशंस इंक के लिए एसडब्ल्यूओटी विश्लेषण के लाभ और सीमाएं

विस्तृत SWOT विश्लेषण कॉक्स कम्युनिकेशंस इंक को प्रतियोगियों की तुलना में आंतरिक शक्तियों का तेजी से लाभ उठाकर अवसरों का फायदा उठाने में मदद कर सकता है। SWOT विश्लेषण कॉक्स कम्युनिकेशंस इंक को विभिन्न लाभ प्रदान करता है जैसा कि नीचे बताया गया है:

  • यह बुद्धिमान व्यावसायिक रणनीतियों को विकसित करने के लिए उपयोगी जानकारी प्रदान कर सकता है।
  • यह कॉक्स कम्युनिकेशंस इंक को अपनी ताकत को अधिकतम करने, कमजोरियों को दूर करने, खतरों को कम करने और अवसरों का फायदा उठाने में सक्षम बनाता है।
  • कॉक्स कम्युनिकेशंस इंक मुख्य दक्षताओं की पहचान कर सकता है, बाजार अनुमान लगा सकता है और भविष्य की योजना बना सकता है।

हालाँकि, कॉक्स कम्युनिकेशंस इंक के SWOT विश्लेषण की कुछ सीमाएँ हैं जिन पर कंपनी को अपने रणनीतिक उद्देश्यों को प्राप्त करने के लिए विचार करना चाहिए।

  • कभी-कभी, अवसरों और खतरों के बीच अंतर को पहचानना मुश्किल होता है क्योंकि एक ही अवसर एक बड़े खतरे के रूप में कार्य कर सकता है यदि फर्म समय पर इसका फायदा उठाने में असमर्थ है।
  • यह ताकत, कमजोरियों, अवसरों और खतरों की पहचान करने की प्रक्रिया की देखरेख करता है। पहचाने गए कारकों को उनके महत्व और तात्कालिकता के अनुसार रैंक नहीं किया जाता है, जिसके कारण SWOT केवल सीमित जानकारी प्रदान करता है।
  • आंतरिक (ताकत/कमजोरियों) और बाहरी (अवसरों/खतरों) पर्यावरणीय कारकों के बीच जटिल अन्योन्याश्रयता विश्लेषण को और अधिक कठिन बना देती है।
  • SWOT विश्लेषण तेजी से बदलते परिवेश की गतिशील प्रकृति पर विचार नहीं करता है।
  • SWOT विश्लेषण समाधान प्रदान नहीं करता है या वैकल्पिक रणनीति प्रदान नहीं करता है।
  • ताकत, कमजोरियों, अवसरों और खतरों की पहचान बड़ी मात्रा में जानकारी उत्पन्न करती है जो केवल सीमित सीमा तक ही उपयोगी हो सकती है।

कॉक्स कम्युनिकेशंस इंक के लिए एसडब्ल्यूओटी विश्लेषण की उपर्युक्त सीमाएं समग्र दृष्टिकोण अपनाने की आवश्यकता को इंगित करती हैं। इन सीमाओं को पहचानने और समझने से रणनीतिक निर्णय लेने की प्रक्रिया में और सुधार हो सकता है।


प्रारंभिक विकास प्रयोग

लक्ष्य एंटीबॉडी का निर्धारण करके एक बुनियादी कार्य पद्धति विकसित करना है जो कैप्चर एंटीबॉडी होना चाहिए और कौन सा एंटीबॉडी डिटेक्शन एंटीबॉडी होना चाहिए। कैप्चर और डिटेक्शन एंटीबॉडी दोनों के लिए इष्टतम एंटीबॉडी सांद्रता निर्धारित करें। कैप्चर बनाम डिटेक्शन के लिए इष्टतम एंटीबॉडी केवल अनुभवजन्य रूप से निर्धारित किया जा सकता है। यदि विश्लेषण के लिए कई एंटीबॉडी मौजूद हैं, तो एंटीबॉडी के सभी संभावित जोड़े की जांच करना सबसे अच्छा है।

प्रयोग

सैंडविच परख के हिस्से के रूप में इस्तेमाल किए जाने वाले प्रत्येक एंटीबॉडी के कई कमजोर पड़ने के साथ एलिसा प्लेट को कोट करें। एक उच्च, निम्न और शून्य एकाग्रता पर मापा जाने वाला विश्लेषण जोड़ें। प्रत्येक एंटीबॉडी का उपयोग, कई सांद्रता में, एक डिटेक्शन एंटीबॉडी के रूप में करें। इस प्रयोग के परिणाम यह निर्धारित करेंगे कि कैप्चर एंटीबॉडी के लिए कौन सा एंटीबॉडी सबसे अच्छा है और कौन सा एंटीबॉडी डिटेक्शन एंटीबॉडी के लिए सबसे अच्छा है। इसके अलावा, दोनों एंटीबॉडी के लिए आवश्यक कमजोर पड़ने का भी निर्धारण किया जाएगा।

अभिकर्मकों

नीचे दी गई सूची में प्लेट प्रकार और बफ़र्स शामिल हैं जो अधिकांश इम्युनोसे के लिए काम करेंगे। इन शर्तों को शुरुआती बिंदु के रूप में उपयोग करें।

दो एंटीबॉडी जो विश्लेषण पर विभिन्न एपिटोप्स को पहचानते हैं।

सैंडविच परख के लिए इष्टतम एंटीबॉडी जोड़ी को ऊपर के प्रयोग में अनुभवजन्य रूप से निर्धारित किया गया था।

ग्रीनर इम्यूनोएसे प्लेट

ब्लॉकिंग बफर: 1% बीएसए, टीबीएस, 0.1% ट्वीन -20

एंटीबॉडी मंदक बफर: 1% बीएसए, पीबीएस या टीबीएस, या 0.1% ट्वीन -20

वॉश बफर: पीबीएस या टीबीएस 0.1% ट्वीन-20

टीएमबी और एचआरपी का उपयोग एंजाइम/सब्सट्रेट रीडआउट के लिए किया जाता है

प्रोटोकॉल (तालिका 1 और तालिका 2में प्लेट लेआउट देखें):

०.५, १, २ और ५ µg/ml पर कोटिंग बफर में दोनों एंटीबॉडी को पतला करें और ९६-वेल माइक्रोटाइटर प्लेट के २४ कुओं में प्रत्येक एकाग्रता के १०० µl जोड़ें।

कैप्चर एंटीबॉडी वाली प्लेट को रात भर 4ଌ पर इनक्यूबेट करें और अगले दिन प्रयोग जारी रखें। (Stability of the capture antibody bound to the plate can be determined in later experiments.)

Remove the unbound capture antibody solution from the microtiter plates by aspirating or dumping the plate.

Add 200 µl of blocking buffer to each well of the 96-well microtiter plate. Incubate the plate for one hour at room temperature.

Remove the blocking buffer from the plate by aspirating or dumping the plate.

Determine the desired working range of the analyte. This will give you the high and low concentrations to incubate with each capture antibody dilution. The zero analyte wells will give you the non-specific binding (NSB).

Add 100 µl of the analyte to each well in the microtiter plate and incubate for 2.5 hours at room temperature.

Wash the plates 3 times with wash buffer.

Dilute the detection antibody serially at 1:200, 1:1000, 1:5000 and 1:25000 in diluent.

Add 100 µl of detection antibody to each well of the microtiter plate and incubate for 1.5 hours at room temperature.

Wash the plates 3 times with wash buffer.

Dilute streptavidin-HRP (if detection antibodies are biotinylated) or appropriate secondary antibody (if capture and detection antibodies are from different species) according to manufacture instructions in antibody diluent and add 100 μl to each well in the microtiter plate and incubate for 1 hour at room temperature.

For HRP readout add TMB as a substrate to allow color development and incubate for 10-20 minutes at room temperature.

Add acid stop reagent to stop the enzyme reaction.

Read at 450 nm for TMB/HRP.

परिणाम

Determine the absorbance units that yield the maximum signal to noise ratio or the greatest difference between the high and low analyte concentrations with the lowest variability. These are the conditions that will be selected for the antibody to be used as the capture antibody and the dilution of the antibodies to be used in the next experiment.

उदाहरण 2

An ELISA was set up to measure the amounts of a protein where there is only one polyclonal antibody available. The polyclonal antibody was used as both the capture antibody and the detection antibody. In this example the detection antibody is biotinylated.

Reagents:

Affinity pure polyclonal antibody

Biotinylated affinity pure polyclonal antibody

Protocol:

Follow the same basic protocol above using these parameters (see plate layout in Table 3).

आकृति

Table 3: Plate layout to determine the capture and detection antibody concentrations.

Coat the affinity purified antibody at 3 levels: 2, 1 and 0.5 μg/ml.

Dilute the biotinylated antibody at 3 levels: 1:1000, 1:5000, and 1:25000.

Dilute the analyte protein in buffer to 50 ng/ml, 1 ng/ml, and zero.

As seen in Table 4, the lowest NSB and best signal to noise ratio from low to high analyte concentration are the 0.5 μg/ml concentration for the capture antibody and the 1:25000 dilution of the biotinylated detection antibody.

Table 4:

Results from Example 2: to determine the capture and detection antibody concentrations. Values are averages of absorbance measurements at A450.

Second Development Experiment-Matrix Compatibility

The goal is to determine the matrix effect or sample type on the immunoassay method. The matrix is based on what the sample is found in, for instance tissue culture media, serum, plasma, cell lysate, buffers, etc. Serum matrix, due to its complexity, can have a significant effect on the method. In this example the samples are in rat serum so the matrix effect of rat serum needs to be determined.

Experiment

The samples that need to be measured in this assay will be in either mouse or rat serum. Use the conditions established in the first experiment for the concentration of the capture antibody and the detection antibody. Serially dilute the standard (analyte) to obtain a full standard curve in 3 different matrices (10% rat serum, 30% rat serum and the original buffer diluent used in the first experiment). This will determine the effect of the matrix used for the experimental samples.

Reagents:

Use all of the reagents and buffers listed in the first experiment (Example 2).

Matrix diluent: 10% rat serum in antibody diluent or 30% rat serum in antibody diluent.

Protocol:

Follow the standard protocol, changing only the matrix diluent to include rat serum.

Dilute the coating antibody in coating buffer at 0.5 μg/ml and add 100 μl to each well of the 96-well microtiter plate.

Incubate the plate containing the capture antibody overnight at 4ଌ and use the next day.

Stability of the capture antibody bound to the plate can be determined in later experiments.

Remove the capture antibody solution from the microtiter plates by aspirating or dumping the plate.

Add 200 μl of blocking buffer to each well of the 96-well microtiter plate.

Incubate the plate for one hour at room temperature.

Remove the blocking buffer from the plate by aspirating or dumping the plate.

Serially dilute the standard in antibody dilution buffer containing either 10% or 30% rat serum, or diluent alone.

Add 100 μl of the standard to each well in the microtiter plate and incubate for 2.5 hours at room temperature.

Wash the plates 3 times with wash buffer.

Dilute the detection antibody to 1:25000 in antibody diluent.

Add 100 μl of detection antibody diluent to each well of the microtiter plate and incubate for 1.5 hours at room temperature.

Wash the plates 3 times with wash buffer.

Dilute streptavidin-HRP according to manufacturer’s instructions in antibody diluent and add 100 μl to each well in the microtiter plate and incubate for 1 hour at room temperature.

For HRP readout add TMB as substrate to allow color development and incubate for 10-20 minutes at room temperature.

Add acid stop reagent to stop the enzyme reaction.

Read at 450 nm for TMB/HRP.

परिणाम:

Use the standard curve data and construct a precision profile. Check the background levels. See the next section for standard or calibration curve model fitting. Note that the standard curves under all three matrix diluent conditions give the dynamic range and sensitivity necessary for the intended use (Figure 5). For this particular assay, no further development is needed (based on the standard curve, low background and precision profile).

Figure 5:

Calibration curve and precision profile for the three different matrix conditions using a Four Parameter Logistic (4PL) Model.

Precision Profile:

Generate the precision profile for the standard curve of the appropriate matrix for the experiment. The precision profile is a plot of coefficient of variation (CV) for the calibrated concentration levels of the replicates of each calibrator versus the nominal analyte concentration in the calibrator samples. The dynamic range of the calibration curve (quantification limits) are then defined by the concentrations where the precision profile intersects the 20% CV. The calculation of this CV has to take into consideration both the sampling variability and the lack of fit to the calibration curve, and is therefore not straightforward. A statistician should be consulted for this evaluation. An SAS program for this evaluation has been published (13).

Calibration Curve and Precision Profile for the Three Different Matrix Conditions

Calibration Curve Model Selection:

A significant source of variability in the calibration curves can come from the choice of the statistical model used for the calibration curve. It is therefore extremely important to choose an appropriate calibration curve model. For most immunoassays, the following models are commonly available from most instrument software.

where parameters, a and b are the intercept and slope respectively, and “response” refers to signal readout, such as optical density or fluorescence from an immunoassay. Often this linear model is fitted after log transformation of the response and concentration. This is sometimes referred as the "log-log linear model".

where a, b and c are the intercept, linear and quadratic term coefficients, respectively, of this quadratic model.

The four parameters to be estimated are Top, Bottom, EC50 and Slope. Top refers to the top asymptote, Bottom refers to the bottom asymptote, and EC50 refers to the concentration at which the response is halfway between Top and Bottom.

Five Parameter Logistic Model:

Asymmetry is the fifth parameter in this model. It denotes the degree of asymmetry in the shape of the sigmoidal curve with respect to �50”. A value of 1 indicates perfect symmetry, which would then correspond to the four-parameter logistic model. However, note that the term referred to as �50” in this model is not truly the EC50. It is the EC50 when the asymmetry parameter equals 1. It will correspond to something very different such as EC20, EC30, EC80, etc., depending on the value of the asymmetry parameter for a particular data set.

For most immunoassays, the four or five parameter logistic model is far better than the linear, quadratic or log-log linear models. These models are available in several software packages, and are easy to implement even in an Excel-based program. As illustrated in the plots shown in Figure 6, the quality of the model should be judged based on the dose-recovery scale instead of the lack-of-fit of the calibration curve (R 2 ). In this illustration, even though the R 2 of the log-log linear model is 0.99, when assessed in terms of the dose-recovery plot, this model turns out to be significantly inferior to the four parameter logistic model. Before the assay is ready for production, the best model for the calibration curve should be chosen based on the validation samples using dose-recovery plots.

Figure 6:

Example of log-log linear and weighted four parameter logistic calibration curves.

Importance of Weighting in Calibration Curves

The default curve-fitting method available in most software packages assigns equal weight to all of the response values, which is appropriate only if the variability among the replicates is equal across the entire range of the response. However, for most immunoassays, the variability of assay signal among replicates of each calibrator increases proportionately with the response (signal) mean. Giving equal weight can lead to highly incorrect conclusions about the assay performance and will significantly affect the accuracy of results from the unknown samples. More specifically, lack of weighting leads to higher variability of results in the lower end of the assay range, thus greatly compromising the sensitivity of the assay. It is therefore extremely important to use a curve-fitting method/software that has appropriate weighting methods/options. This is illustrated in Figure 7 where we compare the total error results from the validation controls after fitting the calibration curves using log-log linear, four-parameter logistic and five-parameter logistic models. For this example, the performance of the validation samples is better overall when the five-parameter logistic model is used.

Figure 7:

Validation samples are plotted with different calibration curve models. It is clear from the plot that the five-parameter logistic (5PL) model is better than the four-parameter logistic (4PL) and log-log linear (LL) models. For this particular assay, (more. )

Third Development Experiment

The two-step experiment detailed above is a very simple example of how to develop a sandwich ELISA method. If the dynamic range and sensitivity of the assay does not meet the experimental needs then further experimental parameters should be tested using experimental design. With experimental design all of the factors involved in the ELISA including buffers, incubation time and plate type can be analyzed.

In a sandwich ELISA method the antibodies chosen are the major drivers of the assay parameters. If at this point in the method development, the precision profile of the standard curve does not encompass the desired dynamic range and sensitivity, instead of continuing with the development experiment, antibodies should be further characterized. Changing some of the variables such as the antibody concentrations can significantly improve the calibration curve and hence its precision profile.

The goal is to determine the optimal conditions for the variables in the immunoassay, including incubation steps, buffers, substrate, etc. Also, determine the optimal antibody concentrations and the stability of the capture antibody bound to the plate.

Experiment:

Dilute the standard in the matrix compatible to the sample (as determined in the second experiment). Vary the incubation times, dilution buffers and other variables in order to optimize the immunoassay. Analyze by using experimental design software and precision profiles.

Reagents:

Protocol:

Coat the microtiter plate with the capture antibody at the concentration determined in the initial experiment. Incubate overnight at 4ଌ.

Discard the capture antibody solution from the microtiter plate.

Block the plate for 1 hour at room temperature using various blocking reagents.

Store plates at 4ଌ, desiccated, for several periods of time 0-5 days.

Repeat steps 1-3 the day of the actual experiment.

Serially dilute, using an 8-point standard curve, the known standard in the appropriate matrix for the experiment. For the control also dilute the standard in the same buffer as was used in the initial experiment. Add 100 μl of standard to each well in the 96-well microtiter plate.

Incubate the diluted standard with the capture antibody for 1 hour and 3 hours at room temperature and overnight at 4ଌ. Each time point will have to be run in a separate plate.

Wash plates 3 times (if background or NSB is high, try different wash buffers).

Add 100 μl of diluted detection antibody. If background is high again different diluents can be tested.

Incubate the detection antibody for different time periods and again different plates will have to be used for each time condition.

Add 100 μl of substrate to the wells containing the detection antibody conjugated to the enzyme and allow incubation according to the manufacturer’s conditions.

Data Analysis:

Compute the standard curves and their precision profiles for all the experimental design conditions. Derive the optimization endpoints using the precision profiles. Then analyze the optimization endpoints using software such as JMP (http://www.jmp.com) to determine the optimum levels of the assay factors. See next section for the details and illustration.

Experimental Designs for Increasing Calibration Precision

चरण 1:

Identify all the factors/variables that potentially contribute to assay sensitivity and variability. Choose appropriate levels for all the factors (high and low values for quantitative factors, different categories for qualitative factors). Then use fractional-factorial experimental design in software such as JMP to derive appropriate experimental “trials” (combinations of levels of all the assay factors). Run 8-point calibration curves in duplicate for each trial. With each trial taking up two columns in a 96-well plate, 6 trials per plate can be tested. All trials should be randomly assigned to different pairs of columns in the 96-well plates. However, certain factors such as incubation time and temperature are inter-plate factors. Therefore, levels of such factors will have to be tested in separate plates (see Table 5).

Table 5:

Example plate layout to increase calibration precision.

After the above experiment is run, the calibration curves should be fit for each trial using an appropriately weighted-nonlinear regression model. Then the precision profile for the calibration curve of each trial should be obtained along with the important optimization end-points such as working-range, lower quantitation limit and precision area (area of the region intersected by the precision profile with 20% CV). Now analyze these data to determine the optimal level of all qualitative factors and determine which subset of quantitative factors should be further investigated.

चरण 2:

We now need to determine the optimum levels for the key factors determined in the previous step. Choose appropriate low, middle and high levels for each of these factors based on the data analysis results from step 1. Now use software such as JMP to generate appropriate trials (combinations of low, middle and high levels of all the factors) from a central-composite design. Then run duplicate 8-point calibration curves for each trial using a similar plate format as in step 1.

Now obtain the precision profile and the relevant optimization end-points of the calibration curve of each trial. Perform the response-surface analysis of these data to determine the optimal setting of each of the quantitative factors run in this experiment.

Illustration of Experimental Design and Analysis for Sandwich ELISA Optimization

In Table 6, we have the experiment plan from the second step of the optimization process using experimental design for a sandwich ELISA. These four factors (capture antibody, detection antibody, enzyme and volume) were picked out of the six factors considered in the first step of this optimization process (screening phase) for further optimization. We use a statistical experimental design method called central composite design to generate the appropriate combinations of the high, mid and low levels of the four factors in this second step. For example, trial #6 in this table refers to the middle level of the first, third and the fourth factors, and the low level of the second factor.

Table 6:

Experimental plan from the second step of the optimization process using the experimental design for a sandwich ELISA.

Eight-point standard curves in duplicate were generated for each of these trials, in adjacent columns of a 96-well plate. This resulted in six trials per plate, and with 36 trials in 6 plates. We computed the precision profiles of the calibration curves for each of these 36 trials. From these precision profiles, we computed the working range (lower and upper quantification limits), CV and related variability and sensitivity measures. We then used a statistical data analysis method called "response surface analysis" on these optimization endpoints. This resulted in polynomial type models for all the factors. Using the shape of the curve and other features from this model, the optimum levels for these factors were determined. This gave us the most sensitive dynamic working range possible for this assay.

An experiment was then performed for this ELISA to compare these optimized levels to the pre-optimum levels and the assay kit manufacturer’s recommendation. The results from this comparison are summarized in Figure 8.

Figure 8:

Comparison of optimized levels to pre-optimum levels and those recommended by the manufacturer.

The optimized levels derived from statistical experimental design for this ELISA resulted in the following improvements over the pre-optimum and assay kit manufacturer’s recommendation.

This improvement is evident from the precision profiles shown in Figure 8.


Extensions and Caveats

There’s plenty more to say about Cox Proportional Hazards models, but I will try to keep things brief and just mention a few things.

For example, one may want to consider time-varying regressors, and this is possible.

The other crucial thing to keep in mind is omitted variable bias. In standard linear regression, omitted variables uncorrelated with the regressors aren’t a big problem. This is not true in survival analysis. Suppose we have two equally sized and sampled sub-populations in our data each with a constant hazard rate, one is 0.1 and the other is 0.5. Initially, we will see a high hazard rate (the average, just 0.3). As time goes on, the population with a high hazard rate will leave the population and we will observe a hazard rate that declines towards 0.1. If we omitted the variable representing these two populations, our baseline hazard rate will be all messed up.

I aim to write (relatively) accessible explanations of data science concepts without shying away from the sometimes complicated mathematics involved. If you liked this, you I have similarly styled explanations of logistic regression coefficients, perplexity, NS central limit theorem, या expectation maximization.


वीडियो देखना: गर आनपतक खतर (दिसंबर 2021).