डिडक्टिव-नोमोलॉजिकल मॉडल

From Vigyanwiki

वैज्ञानिक स्पष्टीकरण का डिडक्टिव-नोमोलॉजिकल मॉडल (डीएन मॉडल), जिसे कार्ल गुस्ताव हेम्पेल मॉडल, हेम्पेल-पॉल ओपेनहेम मॉडल, कार्ल पॉपर-हेम्पेल मॉडल या कवरिंग लॉ मॉडल के रूप में भी जाना जाता है, वैज्ञानिक रूप से प्रश्नों के उत्तर देने का एक औपचारिक दृष्टिकोण है। पूछ रहे हैं, क्यों...? . डीएन मॉडल वैज्ञानिक व्याख्या को डिडक्टिव संरचना के रूप में प्रस्तुत करता है, जहां इसके परिसर की सच्चाई इसके निष्कर्ष की सच्चाई पर जोर देती है, जो कि स्पष्ट की जाने वाली घटना की स्पष्ट पूर्वानुमान या पूर्वानुमान पर निर्भर करती है।

इस प्रकार से मनुष्यों की कारणता को परिभाषित करने, खोजने और जानने की क्षमता से संबंधित समस्याओं के कारण, इसे डीएन मॉडल के प्रारंभिक फॉर्मूलेशन में छोड़ दिया गया था। ऐसा माना जाता था कि कार्य-कारण का अनुमान परिसर के यथार्थवादी चयन से लगाया जाता है, जो देखी गई प्रारंभिक स्थितियों और सामान्य वैज्ञानिक नियमो से रुचि की घटना को प्राप्त करता है। फिर भी, डीएन मॉडल ने औपचारिक रूप से अप्रासंगिक कारकों को औपचारिक रूप से अनुमति दी है। इसके अतिरिक्त, अवलोकनों और नियमो से व्युत्पत्ति से कभी-कभी निरर्थक उत्तर मिलते हैं।

किन्तु 1960 के दशक में जब तार्किक अनुभववाद अप्रचलित हो गया, तो डीएन मॉडल को व्यापक रूप से वैज्ञानिक व्याख्या के एक त्रुटिपूर्ण या बहुत अपूर्ण मॉडल के रूप में देखा गया है। फिर भी, यह वैज्ञानिक व्याख्या का एक आदर्श संस्करण बना रहा, और आधुनिक भौतिकी पर प्रयुक्त होने पर यह अधिक स्पष्ट था। इस प्रकार से 1980 के दशक की आरंभ में, डीएन मॉडल के एक संशोधन में बताई गई स्थितियों और सिद्धांतों की प्रासंगिकता के लिए अधिकतम विशिष्टता पर जोर दिया गया है। किन्तु हेम्पेल के आगमनात्मक-सांख्यिकीय मॉडल के साथ, डीएन मॉडल वैज्ञानिक स्पष्टीकरण के कवरिंग लॉ मॉडल का निर्माण करता है, जिसे महत्वपूर्ण कोण से, सबमिशन सिद्धांत भी कहा जाता है।

प्रपत्र

इस प्रकार से डिडक्टिव-नोमोलॉजिकल शब्द डीएन मॉडल के इच्छित नियतत्ववाद को आगमनात्मक अनुमान की संभाव्यता से अलग करता है।[1] किन्तु नॉमोलॉजिकल शब्द ग्रीक शब्द :wikt:νόμος|νόμος या नोमोस से लिया गया है, जिसका अर्थ ''नियम'' है ।[1] डीएन मॉडल वैज्ञानिक व्याख्या का दृष्टिकोण रखता है जिसकी पर्याप्तता (सीए) की नियम- अर्ध-औपचारिक किन्तु मौलिक रूप से बताई गई हैं - व्युत्पन्नता (सीए 1), वैधानिकता (सीए 2), अनुभवजन्य सामग्री (सीए 3), और सत्य (सीए 4) हैं।[2]

डीएन मॉडल में, नियम सनियम वाक्य द्वारा पूर्ववर्ती a से परिणामी बी तक गणनात्मक प्रेरण को स्वयंसिद्ध करता है - यदि a , तो b - और परीक्षण योग्य अनुभवजन्य सामग्री है।[3] नियम केवल वास्तविक नियमितता से भिन्न होता है - उदाहरण के लिए, जॉर्ज सदैव अपने बटुए में केवल $1 बिल रखता है - प्रतितथ्यात्मक प्रभुत्व का समर्थन करके और इस प्रकार सुझाव देता है कि वैज्ञानिक सिद्धांत की स्वयंसिद्ध संरचना का पालन करते हुए क्या सत्य होना चाहिए।[4] [5]

इस प्रकार से जिस घटना की व्याख्या की जानी है वह व्याख्यान है - एक घटना, वैज्ञानिक नियम, या वैज्ञानिक सिद्धांत - जबकि इसे समझाने के लिए परिसर व्याख्या है, सत्य या अत्यधिक पुष्टि की गई है, जिसमें कम से कम सार्वभौमिक नियम सम्मिलित है, और इसमें स्पष्टीकरण सम्मिलित है .[6][7] इस प्रकार, प्रारंभिक, विशिष्ट स्थितियों C1, C2 . . . Cn के रूप में स्पष्टीकरण दिए गए है। किन्तु सामान्य नियम L1, L2 . . . Ln, घटना ई एक्सप्लेनंडम के रूप में एक डिडक्टिव परिणाम है, जिससे वैज्ञानिक रूप से समझाया गया है।[6]

रूट

भौतिकी में अरस्तू की वैज्ञानिक व्याख्या (अरस्तू) डीएन मॉडल से मिलती जुलती है, जो की वैज्ञानिक व्याख्या का आदर्श रूप है।[7] अरिस्टोटेलियन भौतिकी की रूपरेखा-अरिस्टोटेलियन तत्वमीमांसा-इस मुख्य रूप से जीवविज्ञानी के परिप्रेक्ष्य को प्रतिबिंबित करती है, जिसने जीवित संस्थाओं की निर्विवाद उद्देश्यशीलता के मध्य , जीवनवाद और टेलिअलोजी को औपचारिक रूप दिया, जो की प्रकृति में आंतरिक नैतिकता है।[8] चूंकि, कोपर्निकनवाद के उद्भव के साथ, रेने डेसकार्टेस ने यांत्रिक दर्शन की आरंभ की, फिर आइजैक न्यूटन ने सशक्त से नियम जैसी व्याख्या प्रस्तुत की, डेसकार्टेस और विशेष रूप से न्यूटन दोनों ने प्राकृतिक दर्शन के अन्दर टेलीोलॉजी को अस्वीकृत कर दिया।[9] इस प्रकार से 1740 में, डेविड हुमे[10] ह्यूम का कांटा दाँव पर लगाया,[11] प्रेरण की समस्या पर प्रकाश डाला,[12] और मनुष्यों को आवश्यक या पर्याप्त कार्य-कारण से अनभिज्ञ हैं।[13][14] ह्यूम ने ह्यूम के नियम तथ्य/मूल्य अंतर पर भी प्रकाश डाला, क्योंकि जो है वह स्वयं प्रकट नहीं करता कि क्या होना चाहिए।[15]

इस प्रकार से प्योर रीज़न की आलोचना करते हुए, ह्यूम के प्रकट रूप से असहनशील अनुभववाद का आमना-सामना करते हुए, इम्मैनुएल कांत ने डेसकार्टेस या स्पिनोजा की तरह चरम तर्कवाद पर प्रकाश डाला और मध्य मार्ग की खोज की। संसार के अनुभव को पदार्थ, स्थान और समय में व्यवस्थित करने के लिए मन का अनुमान लगाते हुए, कांट ने मन को अनुभव के कारण नक्षत्र के भाग के रूप में रखा और इस तरह न्यूटन के सिद्धांत को पाया न्यूटन के गति के सिद्धांत को सार्वभौमिक रूप से सत्य पाया,[16] फिर भी अपने आप में संवाद का ज्ञान असंभव है।[14] प्राकृतिक दर्शन की रक्षा करते हुए, कांट ने विरोधाभासी रूप से इसे वैज्ञानिक यथार्थवाद से छीन लिया।[14][17][18] प्रप्रकृति के परम सत्य के नौमेना-आध्यात्मिक दृष्टिकोण को प्रकाशित करने के लिए उपस्थिति के पर्दे को भंग करने के फ़्रांसिस बेकन के आगमनवादी मिशन को निरस्त करते हुए, कांट के पारलौकिक आदर्शवाद ने विज्ञान को घटनाओं के सरल मॉडलिंग पैटर्न के साथ काम सौंपा। चूंकि तत्वमीमांसा की भी रक्षा करते हुए, इसने श्रेणी (कांत) पाई मन के स्थिरांक भी स्पष्ट अनिवार्यता रखते हैं,[19] और जर्मन आदर्शवाद की आरंभ की थी।

अगस्टे कॉम्टे ने प्रेरण की समस्या को अप्रासंगिक पाया क्योंकि गणनात्मक प्रेरण उपलब्ध अनुभववाद पर आधारित है, जबकि विज्ञान की बात आध्यात्मिक सत्य नहीं है। कॉम्टे ने पाया कि मानव ज्ञान धर्ममौलिक से आध्यात्मिक से वैज्ञानिक - अंतिम चरण तक विकसित हुआ है - उन्होंने धर्मशास्त्र और तत्वमीमांसा दोनों को अस्वीकार्य प्रश्न पूछने और अप्राप्य उत्तर देने के रूप में अस्वीकृत कर दिया। इस प्रकार से 1830 के दशक में कॉम्टे ने प्रत्यक्षवाद की व्याख्या की - विज्ञान का पहला आधुनिक दर्शन और साथ ही एक राजनीतिक दर्शन[20]-अवलोकन योग्य वस्तुओ के बारे में अनुमानों को अस्वीकार करना, इस प्रकार कारणों की खोज को अस्वीकार करना है।[21] प्रत्यक्षवाद अवलोकनों की पूर्वानुमान करता है, भविष्यवाणियों की पुष्टि करता है, और एक नियम बताता है, जिसके पश्चात् मानव समाज को लाभ पहुंचाने के लिए विज्ञान को प्रयुक्त किया जाता है।[22] अतः 19वीं सदी के अंत से लेकर 20वीं सदी की आरंभ तक, सकारात्मकता का प्रभाव संसार भर में फैला हुआ था।[20] इस मध्य , विकासवादी सिद्धांत प्राकृतिक चयन ने जीव विज्ञान में कोपर्निकन क्रांति ला दी और जीवनवाद और टेलीलॉजी के पहले वैचारिक विकल्प के रूप में सामने आया था।[8]

विकास

जबकि कॉम्टियन प्रत्यक्षवाद ने विज्ञान को विवरण के रूप में प्रस्तुत किया, तार्किक प्रत्यक्षवाद 1920 के दशक के अंत में उभरा और विज्ञान को स्पष्टीकरण के रूप में प्रस्तुत किया, कदाचित न केवल मौलिक विज्ञान - अर्थात, - जो कि मौलिक भौतिकी है - किन्तु जीव विज्ञान, मनोविज्ञान अर्थशास्त्र और मानव विज्ञान जैसे विशेष विज्ञानों को भी कवर करके अनुभवजन्य विज्ञान को उत्तम रूप से एकीकृत किया जा सके।[23] चूंकि 1945 में द्वितीय विश्व युद्ध की समाप्ति के साथ राष्ट्रीय समाजवाद की हार के पश्चात् , तार्किक सकारात्मकवाद हल्के संस्करण, तार्किक अनुभववाद में स्थानांतरित हो गया।[24] इस प्रकार से 1965 तक चले आंदोलन के सभी प्रकार नवप्रत्यक्षवाद हैं जो सत्यापनवाद की खोज को साझा कर रहे हैं[25] [26]

नियोपोसिटिविस्टों ने विज्ञान के दर्शन उपविषय दर्शन के उद्भव का नेतृत्व किया, वैज्ञानिक सिद्धांत और ज्ञान के ऐसे प्रश्नों और भागो पर शोध किया।[24] वैज्ञानिक यथार्थवाद वैज्ञानिक सिद्धांत के वर्णन को अंकित मूल्य पर लेता है, इस प्रकार या तो मिथ्या या सत्य - संभावित या अनुमानित या वास्तविक माना जाता है।[17] नियोपोसिटिविस्टों ने वैज्ञानिक प्रतियथार्थवाद को यंत्रवाद के रूप में माना, वैज्ञानिक सिद्धांत को केवल अवलोकनों और उनके पाठ्यक्रम की पूर्वानुमान करने के लिए एक उपकरण के रूप में रखा, जबकि प्रकृति के अप्राप्य भागो पर वर्णन इसके अवलोकन योग्य भागो पर वृत्ताकार या रूपक हैं।[27]

इस प्रकार से डीएन मॉडल को अपना सबसे विस्तृत, प्रभावशाली वर्णन कार्ल गुस्ताव हेम्पेल द्वारा प्राप्त हुआ, सर्वप्रथम उनके 1942 के लेख इतिहास में सामान्य नियमो के कार्य में, और अधिक स्पष्ट रूप से पॉल ओपेनहेम के साथ उनके 1948 के लेख स्टडीज इन द लॉजिक ऑफ स्पष्टीकरण के तर्क में अध्ययन" में प्राप्त हुआ।[28][29] अग्रणी तार्किक अनुभववादी, हेम्पेल ने मानवतावाद या कार्य-कारण और आवश्यकता अनुभववादी दृष्टिकोण को अपनाया कि मनुष्य संवेदी घटनाओं के अनुक्रम का निरीक्षण करते हैं, कारण और प्रभाव का नहीं,[23] चूँकि कार्य-कारण संबंध और आकस्मिक तंत्र अप्राप्य हैं।[30] डीएन मॉडल केवल निरंतर संयोजन से परे कार्य-कारण पहले ए जैसी घटना, फिर सदैव बी जैसी घटना को अलग कर देता है।[23]

हेम्पेल ने प्राकृतिक नियमो को - अनुभवजन्य रूप से पुष्टि की गई नियमितताओं को - संतोषजनक माना, और यदि वास्तविक रूप से अनुमानित कार्य-कारण को सम्मिलित किया जाए।[6] पश्चात् के लेखों में, हेम्पेल ने डीएन मॉडल का बचाव किया और आगमनात्मक-सांख्यिकीय मॉडल (आईएस मॉडल) द्वारा संभाव्य स्पष्टीकरण प्रस्तावित किया।[6] डीएन मॉडल और आईएस मॉडल - जिससे संभावना अधिक होनी चाहिए, जैसे कि कम से कम 50%[31]- एक साथ नियम मॉडल को कवर करने वाला फॉर्म,[6] जैसा कि आलोचक विलियम ड्रे ने नामित किया है।[32] अन्य सांख्यिकीय नियमो से सांख्यिकीय नियमो की व्युत्पत्ति डिडक्टिव-सांख्यिकीय मॉडल (डीएस मॉडल) में जाती है।[31][33] एक अन्य आलोचक जॉर्ज हेनरिक वॉन राइट ने समग्रता उपग्रहण सिद्धांत का नाम दिया है।[34]

अस्वीकार

नवसकारात्मकता के मौलिक सिद्धांतों की विफलता के मध्य ,[35] 1965 में हेम्पेल ने सत्यापनवाद को त्याग दिया, जो नवप्रत्यक्षवाद के अंत का संकेत था।[36] चूंकि 1930 के पश्चात् से, कार्ल पॉपर ने प्रत्यक्षवाद पर आक्रमण किया, चूंकि, विरोधाभासी रूप से, पॉपर को सामान्यतः प्रत्यक्षवादी समझ लिया जाता था।[37][38] यहां तक ​​कि पॉपर की 1934 की किताब भी[39] डीएन मॉडल को अपनाता है,[7][28] जब तक भौतिकी विज्ञान के दार्शनिकों द्वारा जांचा गया विज्ञान का मॉडल बना रहा, तब तक इसे वैज्ञानिक व्याख्या के मॉडल के रूप में व्यापक रूप से स्वीकार किया गया है।[30][40]

इस प्रकार से 1940 के दशक में, कोशिका विज्ञान के मध्य विशाल अवलोकन संबंधी अंतर को एकत्रित[41] और जैव रसायन,[42] कोशिका जीव विज्ञान का उदय हुआ[43] और कोशिका केन्द्रक के अतिरिक्त कोशिका अंगको का अस्तित्व स्थापित किया। किन्तु 1930 के दशक के उत्तरार्ध में प्रारंभ किए गए, आणविक जीव विज्ञान अनुसंधान कार्यक्रम ने 1960 के दशक की आरंभ में आनुवंशिक कोड को तोड़ दिया और फिर कोशिका जीव विज्ञान के साथ कोशिका और आणविक जीव विज्ञान के रूप में परिवर्तित हो गया, इसकी सफलताएं और खोजें नियम जैसी व्याख्या की नहीं किन्तु कारण तंत्र की खोज में आकर डीएन मॉडल को चुनौती देती हैं। .[30] जीवविज्ञान विज्ञान का एक नया मॉडल बन गया, जबकि विशेष विज्ञानो को अब सार्वभौमिक नियमो की कमी के कारण दोषपूर्ण नहीं माना जाता था, जैसा कि भौतिकी द्वारा वहन किया गया था।[40]

चूंकि 1948 में, जब डीएन मॉडल की व्याख्या की गई और पर्याप्तता की वैज्ञानिक व्याख्या की अर्ध-औपचारिक स्थितियों को बताया गया, तो कार्ल हेम्पेल और पॉल ओपेनहेम ने तीसरे, अनुभववाद की अतिरेक को स्वीकार किया, जो अन्य तीन-व्युत्पन्नता, वैधता और सच्चाई से निहित है।[2] 1980 के दशक की आरंभ में, व्यापक दृष्टिकोण पर कि कार्य-कारण व्याख्याकारों की प्रासंगिकता सुनिश्चित करता है, वेस्ले सैल्मन ने कारण को वापस करने का आह्वान किया क्योंकि,[44] और जेम्स एच. फ़ेट्ज़र के साथ मिलकर CA3 अनुभवजन्य सामग्री को CA3 की सख्त अधिकतम विशिष्टता से परिवर्तन में सहायता की।[45]

सैल्मन ने कारणात्मक यांत्रिक व्याख्या प्रस्तुत की, कभी यह स्पष्ट नहीं किया कि यह कैसे आगे बढ़ती है, फिर भी इसमें दार्शनिकों की रुचि को पुनर्जीवित किया।[30] हेम्पेल के आगमनात्मक-सांख्यिकीय मॉडल (आईएस मॉडल) की कमियों के माध्यम से, सैल्मन ने सांख्यिकीय-प्रासंगिकता मॉडल (एसआर मॉडल) प्रस्तुत किया।[7] यद्यपि डीएन मॉडल वैज्ञानिक व्याख्या का एक आदर्श रूप बना रहा, विशेष रूप से व्यावहारिक विज्ञान में,[7] विज्ञान के अधिकांश दार्शनिक सामान्यतः वैज्ञानिक माने जाने वाले कई प्रकार के स्पष्टीकरणों को छोड़कर डीएन मॉडल को त्रुटिपूर्ण मानते हैं।[33]


शक्तियाँ

इस प्रकार से ज्ञान के सिद्धांत के रूप में, ज्ञानमीमांसा आंटलजी से भिन्न है, जो तत्वमीमांसा, वास्तविकता के सिद्धांत की एक उपशाखा है।[46] ऑन्टोलॉजी अस्तित्व की श्रेणियों का प्रस्ताव करती है - किस प्रकार की वस्तु उपस्तिथ हैं - और इसलिए, चूंकि वैज्ञानिक सिद्धांत की ऑन्टोलॉजिकल प्रतिबद्धता को अनुभव के प्रकाश में संशोधित किया जा सकता है, एक ऑन्टोलॉजिकल प्रतिबद्धता अनिवार्य रूप से अनुभवजन्य जांच से पहले होती है।[46]

प्राकृतिक नियम, तथाकथित, मनुष्यों की टिप्पणियों के कथन हैं, इस प्रकार ज्ञानमीमांसा-मानव ज्ञान से संबंधित-ज्ञानमीमांसा हैं। इस प्रकार से मन से स्वतंत्र रूप से उपस्तिथ कारण तंत्र और संरचनाएं, प्राकृतिक संसार की संरचना में ही उपस्तिथ हैं, या उपस्तिथ होंगी, और इस प्रकार ऑन्टोलॉजिकल, ओन्टिक हैं। ओन्टिक के साथ ज्ञान-मीमांसा को धुंधला करना - जैसे किसी कारण तंत्र को संदर्भित करने के लिए एक प्राकृतिक नियम को असावधानी से मानना, या न देखे गए संक्रमणों के समय संरचनाओं का वास्तविक रूप से पता लगाना, या वास्तविक नियमितताओं को सदैव अपरिवर्तित रखना - एक श्रेणी की भूल उत्पन्न करता है।[47][48]

कार्य-कारण सहित ओन्टिक प्रतिबद्धताओं को अस्वीकृत करते हुए, डीएन मॉडल एक सिद्धांत के नियमों को कम करने की अनुमति देता है - अर्थात, एक अधिक मौलिक सिद्धांत के नियमो में सम्मिलित किया जाता है। चूंकि उच्च सिद्धांत के नियमों को निचले सिद्धांत के नियमों द्वारा डीएन मॉडल में समझाया गया है।[5][6] इस प्रकार, आइजैक न्यूटोनियन सिद्धांत के सार्वभौमिक गुरुत्वाकर्षण के नियम की ज्ञानमीमांसीय सफलता को अल्बर्ट आइंस्टीन के सापेक्षता के सामान्य सिद्धांत द्वारा समझाया गया है, चूंकि आइंस्टीन ने न्यूटन के ओन्टिक दावे को अस्वीकृत कर दिया है कि सार्वभौमिक गुरुत्वाकर्षण की ज्ञानमीमांसीय सफलता केप्लर के ग्रहों की गति के नियमों की पूर्वानुमान करती है।[49] यह सीधे आकर्षक बल के कारण तंत्र के माध्यम से निरपेक्ष समय के अतिरिक्त तुरंत निरपेक्ष स्थान का पता लगाता है।

कवरिंग लॉ मॉडल नवप्रत्यक्षवाद के अनुभवजन्य विज्ञान के दृष्टिकोण को दर्शाता है, दृष्टिकोण जो विज्ञान की एकता की व्याख्या करता है या मानता है, जिससे सभी अनुभवजन्य विज्ञान या तो मौलिक विज्ञान हैं - अर्थात, मौलिक संवाद - या विशेष विज्ञान हैं, चाहे खगोल भौतिकी, रसायन विज्ञान, जीव विज्ञान, भूविज्ञान, मनोविज्ञान, अर्थशास्त्र, इत्यादि।[40][50][51] सभी विशेष विज्ञान कवरिंग लॉ मॉडल के माध्यम से नेटवर्क बनाएंगे।[52] और पुल नियमो की आपूर्ति करते समय सीमा की नियमो को बताने से, कोई भी विशेष नियम एक निचले विशेष नियम में , अंततः कम हो जाएगा - सैद्धांतिक रूप से चूंकि सामान्यतः व्यावहारिक रूप से नहीं - मौलिक विज्ञान के लिए परिवर्तित हो जाएगा।[53][54] (सीमा स्थितियाँ निर्दिष्ट स्थितियाँ हैं जिनके अधीन रुचि की घटनाएँ घटित होती हैं। ब्रिज नियम एक विज्ञान के शब्दों को दूसरे विज्ञान के शब्दों में अनुवादित करते हैं।)[53][54]


निर्बलियाँ

डीएन मॉडल के अनुसार, यदि कोई पूछता है, वह छाया 20 फीट लंबी क्यों है? , दूसरा उत्तर दे सकता है, क्योंकि वह ध्वजस्तंभ 15 फीट ऊंचा है, सूर्य x कोण पर है, और विद्युत चुंबकत्व के नियम हैं।[6] फिर भी समरूपता की समस्या के कारण, यदि कोई पूछे, वह ध्वजस्तंभ 15 फीट ऊँचा क्यों है? , दूसरा उत्तर दे सकता है, क्योंकि वह छाया 20 फीट लंबी है, सूर्य x कोण पर है, और विद्युत चुंबकत्व के नियम, इसी तरह देखी गई स्थितियों और वैज्ञानिक नियमो से कटौती, किन्तु एक उत्तर स्पष्ट रूप से असत्य है।[6] इस प्रकार से अप्रासंगिकता की समस्या से, यदि कोई पूछता है, वह आदमी गर्भवती क्यों नहीं हुआ? , स्पष्टीकरणकर्ताओं के मध्य , कोई आंशिक रूप से उत्तर दे सकता है, क्योंकि उसने जन्म नियंत्रण की गोलियाँ लीं - यदि वह तथ्यात्मक रूप से उन्हें लेता है, और उनके गर्भावस्था को रोकने का नियम - जैसा कि नियम मॉडल को कवर करने से स्पष्टीकरणकर्ताओं से उस अवलोकन को रोकने के लिए कोई प्रतिबंध नहीं है।

विज्ञान के कई दार्शनिकों ने निष्कर्ष निकाला है कि कारणता वैज्ञानिक व्याख्या का अभिन्न अंग है।[55] डीएन मॉडल कारण स्पष्टीकरण की एक आवश्यक नियम प्रदान करता है - सफल पूर्वानुमान - किन्तु कारण स्पष्टीकरण की पर्याप्त नियम नहीं, क्योंकि सार्वभौमिक नियमितता में नकली संबंध या सरल सहसंबंध सम्मिलित हो सकते हैं, उदाहरण के लिए Z सदैव Y का अनुसरण करता है, किन्तु Y के कारण Z नहीं, इसके अतिरिक्त Y और फिर X के प्रभाव के रूप में Z होता है।[55] एक कंटेनर के अन्दर तापमान, दबाव और गैस की मात्रा के संबंध में, बॉयल का नियम एक अज्ञात चर - मात्रा, दबाव, या तापमान की पूर्वानुमान की अनुमति देता है - किन्तु यह नहीं समझाता है कि इसकी आशा क्यों की जाए जब तक कि कोई, कदाचित, गैसों के गतिज सिद्धांत को नहीं जोड़ता है।[55][56]

वैज्ञानिक व्याख्याएँ तेजी से नियतिवाद के सार्वभौमिक नियमों को नहीं, किन्तु संभाव्यता की संभावना को प्रस्तुत कर रही हैं,[57]अन्य सभी नियम समान हैं।[40] फेफड़ों के कैंसर में धूम्रपान का योगदान आगमनात्मक-सांख्यिकीय मॉडल (आईएस मॉडल) में भी विफल रहता है, जिसके लिए 0.5 (50%) से अधिक संभावना की आवश्यकता होती है।[58] (संभावना मानक रूप से 0 (0%) से 1 (100%) तक होती है।) महामारी विज्ञान, एक व्यावहारिक विज्ञान जो घटनाओं के मध्य संबंधों की खोज में आंकड़ों का उपयोग करता है, कारणता नहीं दिखा सकता है, किन्तु निरंतर धूम्रपान करने वालों में फेफड़ों के कैंसर की उच्च घटनाएं पाई जाती हैं, अन्यथा समान होती हैं धूम्रपान न करने वालों में, चूंकि धूम्रपान करने वालों में फेफड़ों का कैंसर विकसित होने का अनुपात समान्य है।[59] चूंकि, गैर-धूम्रपान करने वालों की तुलना में, एक समूह के रूप में धूम्रपान करने वालों में फेफड़ों के कैंसर का संकट 20 गुना से अधिक था, और मूलभूत शोध के संयोजन में, समान सहमति बनी कि धूम्रपान को वैज्ञानिक रूप से फेफड़ों के कैंसर के कारण के रूप में समझाया गया था,[60] कुछ ऐसे स्तिथियों के लिए उत्तरदायी जो एक संभाव्य प्रतितथ्यात्मक कारणता धूम्रपान के बिना घटित नहीं होते है।[59] [61][62]

आवरण क्रिया

नियम जैसी व्याख्या के माध्यम से, मौलिक अंतःक्रियाएँ - जिन्हें प्रायः मौलिक विज्ञान के रूप में माना जाता है - अंतर-सिद्धांत संबंध और सिद्धांत में कमी के माध्यम से आगे बढ़ी हैं, जिससे प्रयोगात्मक विरोधाभासो को बड़ी ऐतिहासिक सफलता मिली है,[63] कवरिंग लॉ मॉडल से मिलता जुलता है।[64] 20वीं सदी की आरंभ में, अर्न्स्ट मच के साथ-साथ विल्हेम ओस्टवाल्ड ने लुडविग बोल्ट्ज़मान की ऊष्मप्रवैगिकी में कमी का विरोध किया था - और इस तरह बॉयल का नियम[65]-सांख्यिकीय यांत्रिकी के लिए आंशिक रूप से क्योंकि यह गैस के गतिज सिद्धांत पर आधारित था,[56] परमाणु पदार्थ के परमाणु/आणविक सिद्धांत पर निर्भर था।[66] मैक और ओस्टवाल्ड ने पदार्थ को ऊर्जा के एक प्रकार के रूप में और अणुओं को गणितीय अस्पष्ट के रूप में देखा,[66] जैसा कि बोल्ट्ज़मैन ने भी संभव सोचा था।[67]

इस प्रकार से 1905 में, सांख्यिकीय यांत्रिकी के माध्यम से, अल्बर्ट आइंस्टीन ने एक प्रकार कि गति की घटना की पूर्वानुमान की थी - 1827 में वनस्पतिशास्त्री रॉबर्ट ब्राउन (मॉन्ट्रोज़ के स्कॉटिश वनस्पतिशास्त्री) द्वारा रिपोर्ट किए जाने के पश्चात् से यह अस्पष्ट है।[66] जल्द ही, अधिकांश भौतिकविदों ने स्वीकार कर लिया कि परमाणु और अणु अदृश्य होते हुए भी वास्तविक हैं।[66] इसके अतिरिक्त 1905 में, आइंस्टीन ने बताया कि विद्युत चुम्बकीय क्षेत्र की ऊर्जा कणों में वितरित होती है, इस पर तब तक संदेह था जब तक कि 1910 और 1920 के दशक में परमाणु सिद्धांत को हल करने में सहायता नहीं मिली।[68] इस मध्य , सभी ज्ञात भौतिक घटनाएं गुरुत्वाकर्षण या विद्युत चुम्बकीय सिद्धांत की समयरेखा थीं,[69] जिनके दो सिद्धांत असत्य विधि से संरेखित हुए।[70] फिर भी सभी भौतिक घटनाओं के स्रोत के रूप में ईथर में विश्वास वस्तुतः एकमत था।[71][72][73][74] प्रायोगिक विरोधाभासों पर,[75] भौतिकविदों ने ईथर के काल्पनिक गुणों को संशोधित किया था।[76]

ज्योतिर्मय ईथर को एक व्यर्थ परिकल्पना मानना,[77] आइंस्टीन ने 1905 में एक प्राथमिक ज्ञान ने सापेक्षता के विशेष सिद्धांत के संदर्भ के सभी जड़त्वीय रूप को एकीकृत किया,[78] जो, ईथर को छोड़ कर,[79] स्थान और समय को सापेक्ष घटनाओं में परिवर्तित कर दिया, जिनकी सापेक्षता ने मौलिक इलेक्ट्रोडायनामिक्स को न्यूटोनियन सिद्धांत गैलीलियन अपरिवर्तनशीलता के साथ जोड़ दिया था।[63][80] मूल रूप से ज्ञानमीमांसा या यंत्रवाद, इसकी व्याख्या ओन्टिक या वैज्ञानिक यथार्थवाद के रूप में की गई - अर्थात, एक कारण यांत्रिक व्याख्या - और सिद्धांत एक सिद्धांत बन गया,[81] न्यूटोनियन गुरुत्वाकर्षण का खंडन.[79][82] 29 मई, 1919 के सूर्य ग्रहण की पूर्वानुमानित सफलता से, सामान्य सापेक्षता ने स्पष्ट रूप से न्यूटन के सिद्धांत को उखाड़ फेंका, विज्ञान में एक क्रांति[83] अनेक लोगों द्वारा विरोध किया गया, फिर भी 1930 के आसपास इसे पूरा किया गया था।[84]

चूंकि 1925 में, वर्नर हाइजेनबर्ग और इरविन श्रोडिंगर ने स्वतंत्र रूप से क्वांटम यांत्रिकी (क्यूएम) को औपचारिक रूप दिया।[85][86] परस्पर विरोधी व्याख्याओं के अतिरिक्त,[86][87] दोनों सिद्धांतों ने समान पूर्वानुमान कीं थी।[85] पॉल डिराक का 1928 का डिराक समीकरण विशेष सापेक्षता पर सेट किया गया था, जिसने क्वांटम यांत्रिकी को पहले क्वांटम क्षेत्र सिद्धांत (क्यूएफटी), क्वांटम इलेक्ट्रोडायनामिक्स (क्यूईडी) में लॉन्च किया।[88] इससे, डिराक ने इलेक्ट्रॉन के प्रतिकण की व्याख्या की और पूर्वानुमान की, जल्द ही इसकी खोज की गई और इसे पोजीट्रान कहा गया,[89] किन्तु क्यूईडी उच्च ऊर्जा पर इलेक्ट्रोडायनामिक्स में विफल रहा है।[90] अन्यत्र और अन्यथा, सशक्त परमाणु बल और निर्बल परमाणु बल की खोज की गई।[91]

अतः 1941 में, रिचर्ड फेनमैन ने क्यूएम के पथ अभिन्न सूत्रीकरण औपचारिकता की आरंभ की, जिसे अगर एक कारण यांत्रिक मॉडल के रूप में व्याख्या की ओर ले जाया जाए तो यह हाइजेनबर्ग के मैट्रिक्स यांत्रिकी औपचारिकता और श्रोडिंगर के श्रोडिंगर के समीकरण औपचारिकता के साथ टकराव करता है,[87] चूंकि तीनों अनुभवजन्य रूप से समान हैं, पूर्वानुमान साझा करते हैं।[85] इसके पश्चात् , क्यूईडी पर काम करते हुए, फेनमैन ने क्षेत्रों के बिना कणों का मॉडल बनाने और वैक्यूम को वास्तव में खाली खोजने की सहायता की।[92] प्रत्येक ज्ञात मौलिक शक्ति के रूप में[93] व्यक्त रूप से यह एक क्षेत्र का प्रभाव है, फेनमैन विफल रहा है।[92] लुई डी ब्रोगली के तरंगकण द्वंद्व ने परमाणुवाद - शून्य में अविभाज्य कण - को अस्थिर बना दिया था, और असंतत कणों की धारणा को आत्मविरोधाभासी के रूप में प्रकाशित किया था।[94]

किन्तु 1947 में फ्रीमैन डायसन, रिचर्ड फेनमैन, जूलियन श्विंगर और हृदय-इचिरो टोमोनागा की बैठक में जल्द ही पुनर्सामान्यीकरण की आरंभ हुई, एक प्रक्रिया जो क्यूईडी को भौतिकी के सबसे पूर्वानुमानित स्पष्ट सिद्धांत में परिवर्तित करती है,[90][95] रसायन विज्ञान, प्रकाशिकी और सांख्यिकीय यांत्रिकी को सम्मिलित करते हुए।[63][96] इस प्रकार क्यूईडी ने भौतिकविदों की सामान्य स्वीकृति प्राप्त की है।[97] तथा पॉल डिराक ने इसकी अप्राकृतिकता को दर्शाते हुए पुनर्सामान्यीकरण की आवश्यकता की आलोचना की थी,[97] और ईथर का आह्वान किया।[98] 1947 में, विलिस लैम्ब ने इलेक्ट्रॉन विन्यास की अप्रत्याशित गति पाई थी, लैम्ब स्थानांतरित हो गया क्योंकि निर्वात वास्तव में खाली नहीं है।[99] फिर भी शून्यता आकर्षक थी, जिसने ईथर को वैचारिक रूप से समाप्त कर दिया, और भौतिकी इसके बिना स्पष्ट रूप से आगे बढ़ी,[92] यहां तक ​​कि इसे दबाना भी.[98] इस मध्य , अव्यवस्थित गणित से परेशान होकर, भौतिकी के अधिकांश दर्शन क्यूईडी की उपेक्षा करते हैं।[97]

भौतिक विज्ञानी ईथर का उल्लेख करने से भी डरते हैं,[100] नाम बदला हुआ वैक्यूम,[98][101] जो—जैसे—अस्तित्वहीन है।[98][102] विज्ञान के सामान्य दार्शनिक सामान्यतः मानते हैं कि ईथर, किन्तु, काल्पनिक है,[103] चूंकि 1905 से विशेष सापेक्षता लाने के पश्चात् से इसे वैज्ञानिक इतिहास के कूड़ेदान में डाल दिया गया है।[104] आइंस्टीन ईथर के अस्तित्व के प्रति प्रतिबद्ध नहीं थे,[77] बस इसे अतिश्योक्तिपूर्ण कहा।[79] चूंकि, इलेक्ट्रोडायनामिक प्रधानता के लिए न्यूटोनियन गति को समाप्त करते हुए, आइंस्टीन ने अनजाने में ईथर को सशक्त किया,[105] और गति को समझाने के लिए सामान्य सापेक्षता में ईथर की ओर वापस ले जाया गया।[106][107][108] फिर भी सापेक्षता सिद्धांत का विरोध[109] ईथर के पहले के सिद्धांतों से जुड़ गया, जिसका शब्द और अवधारणा वर्जित हो गई।[110] आइंस्टीन ने ईथर के साथ विशेष सापेक्षता की अनुकूलता की व्याख्या की,[107] किन्तु आइंस्टीन ईथर का भी विरोध किया गया था।[100] वस्तुओं को सीधे प्रेतरूपी या तरल माध्यम की कमी वाले अमूर्त ज्यामितीय संबंधों द्वारा अंतरिक्ष समय पर पिन किए जाने की कल्पना की गई।[111] [100][112]

1970 तक, निर्बल बल के साथ क्यूईडी को इलेक्ट्रोवीक सिद्धांत (ईडब्ल्यूटी) में परिवर्तन कर दिया गया था, और सशक्त बल को क्वांटम क्रोमोडायनामिक्स (क्यूसीडी) के रूप में तैयार किया गया था।[90] ईडब्ल्यूटी, क्यूसीडी और हिग्स फील्ड द्वारा निर्मित, कण भौतिकी का यह मानक मॉडल एक प्रभावी सिद्धांत है,[113] वास्तव में मौलिक नहीं है.[114][115] चूंकि ग्लूऑन क्यूसीडी के कणों को प्रतिदिन की संसार में अस्तित्वहीन माना जाता है,[92] क्यूसीडी विशेष रूप से एक ईथर का सुझाव देता है,[116] भौतिकी प्रयोगों द्वारा नियमित रूप से अस्तित्व में पाया जाता है और सापेक्ष समरूपता प्रदर्शित की जाती है।[110] हिग्स कण की पुष्टि, हिग्स क्षेत्र के अन्दर संघनन के रूप में प्रतिरूपित, ईथर की पुष्टि करता है,[100][115] चूंकि भौतिकी को ईथर बताने या यहाँ तक कि इसमें सम्मिलित करने की आवश्यकता नहीं है।[100] अवलोकनों की नियमितताओं को व्यवस्थित करना - जैसा कि कवरिंग लॉ मॉडल में है - भौतिकविदों को ईथर की खोज की खोज अनावश्यक लगती है।[64]

इस प्रकार से 1905 में, विशेष सापेक्षता से, आइंस्टीन ने द्रव्यमान-ऊर्जा तुल्यता का निष्कर्ष निकाला,[117] कण वितरित ऊर्जा के विभिन्न रूप हैं,[118] कण त्वरक उस ऊर्जा के द्रव्यमान में परिवर्तन का अनुभव कैसे करता है, जिससे भारी कण उत्पन्न होते हैं,[119] चूंकि भौतिकशास्त्रियों की बातें अस्पष्ट को बढ़ावा देती हैं।[120] आध्यात्मिक अनुसंधान के समकालीन केंद्र के रूप में, क्यूएफटी कणों को व्यक्तिगत रूप से विद्यमान नहीं, फिर भी क्षेत्रों के उत्तेजना मोड के रूप में प्रस्तुत करते हैं,[114][121] कण और उनका द्रव्यमान ईथर की अवस्थाएँ हैं,[92] स्पष्ट रूप से सभी भौतिक घटनाओं को अधिक मौलिक कारण वास्तविकता के रूप में एकीकृत करना,[101][115][116] जैसा कि बहुत पहले ही अनुमान लगाया गया था।[73] फिर भी एक क्वांटम क्षेत्र एक सम्मिश्र अमूर्तता है - एक गणितीय क्षेत्र - एक मौलिक क्षेत्र के भौतिक गुणों के रूप में वस्तुतः अकल्पनीय है।[121] प्रकृति के गहरे भाग, जो अभी भी अज्ञात हैं, किसी भी संभावित क्षेत्र सिद्धांत से बच सकते हैं।[114][121]

यद्यपि कार्य-कारण की खोज को लोकप्रिय रूप से विज्ञान का उद्देश्य माना जाता है, किन्तु आइज़ैक न्यूटन अनुसंधान कार्यक्रम द्वारा इसकी खोज को छोड़ दिया गया था,[14] आइजैक न्यूटन से भी अधिक न्यूटोनियन थे।[92][122] अब तक, अधिकांश सैद्धांतिक भौतिकी ने अनुमान लगाया है कि चार, ज्ञात मौलिक इंटरैक्शन सुपरस्ट्रिंग सिद्धांत में कम हो जाएंगे, जिससे परमाणु और अणु, विशेषकर, गणितीय, ज्यामितीय रूप धारण करने वाले ऊर्जा कंपन हैं।[63] वैज्ञानिक यथार्थवाद की अनिश्चितताओं को देखते हुए,[18] कुछ लोग यह निष्कर्ष निकालते हैं कि कार्य-कारण की अवधारणा वैज्ञानिक व्याख्या की बोधगम्यता को बढ़ाती है और इस प्रकार प्रमुख लोक विज्ञान है, किन्तु वैज्ञानिक व्याख्या की स्पष्टता से समझौता करती है और विज्ञान के परिपक्व होने पर इसे छोड़ दिया जाता है।[123] यहां तक ​​कि महामारी विज्ञान भी कार्य-कारण संबंधी धारणाओं की गंभीर कठिनाइयों पर ध्यान देने के लिए परिपक्व हो रहा है।[14][57][59] नियम मॉडल को कवर करना विज्ञान के दर्शन में कार्ल गुस्ताव हेम्पेल के प्रशंसित योगदानों में से एक है।[124]



यह भी देखें

अनुमान के प्रकार

संबंधित विषय

टिप्पणियाँ

  1. 1.0 1.1 Woodward, "Scientific explanation", §2 "The DN model", in SEP, 2011.
  2. 2.0 2.1 James Fetzer, ch 3 "The paradoxes of Hempelian explanation", in Fetzer, ed, Science, Explanation, and Rationality (Oxford U P, 2000), p 113.
  3. Montuschi, Objects in Social Science (Continuum, 2003), pp 61–62.
  4. Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 2, subch "DN model of explanation and HD model of theory development", pp 25–26.
  5. 5.0 5.1 Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 2, subch "Axiomatic account of theories", pp 27–29.
  6. 6.0 6.1 6.2 6.3 6.4 6.5 6.6 6.7 Suppe, "Afterword—1977", "Introduction", §1 "Swan song for positivism", §1A "Explanation and intertheoretical reduction", pp 619–24, in Suppe, ed, Structure of Scientific Theories, 2nd edn (U Illinois P, 1977).
  7. 7.0 7.1 7.2 7.3 7.4 Kenneth F Schaffner, "Explanation and causation in biomedical sciences", pp 79–125, in Laudan, ed, Mind and Medicine (U California P, 1983), p 81.
  8. 8.0 8.1 G Montalenti, ch 2 "From Aristotle to Democritus via Darwin", in Ayala & Dobzhansky, eds, Studies in the Philosophy of Biology (U California P, 1974).
  9. In the 17th century, Descartes as well as Isaac Newton firmly believed in God as nature's designer and thereby firmly believed in natural purposiveness, yet found teleology to be outside science's inquiry (Bolotin, Approach to Aristotle's Physics, pp 31–33). By 1650, formalizing heliocentrism and launching mechanical philosophy, Cartesian physics overthrew geocentrism as well as Aristotelian physics. In the 1660s, Robert Boyle sought to lift chemistry as a new discipline from alchemy. Newton more especially sought the laws of nature—simply the regularities of phenomena—whereby Newtonian physics, reducing celestial science to terrestrial science, ejected from physics the vestige of Aristotelian metaphysics, thus disconnecting physics and alchemy/chemistry, which then followed its own course, yielding chemistry around 1800.
  10. Nicknames for principles attributed to Hume—Hume's fork, problem of induction, Hume's law—were not created by Hume but by later philosophers labeling them for ease of reference.
  11. By Hume's fork, the truths of mathematics and logic as formal sciences are universal through "relations of ideas"—simply abstract truths—thus knowable without experience. On the other hand, the claimed truths of empirical sciences are contingent on "fact and real existence", knowable only upon experience. By Hume's fork, the two categories never cross. Any treatises containing neither can contain only "sophistry and illusion". (Flew, Dictionary, "Hume's fork", p 156).
  12. Not privy to the world's either necessities or impossibilities, but by force of habit or mental nature, humans experience sequence of sensory events, find seeming constant conjunction, make the unrestricted generalization of an enumerative induction, and justify it by presuming uniformity of nature. Humans thus attempt to justify a minor induction by adding a major induction, both logically invalid and unverified by experience—the problem of induction—how humans irrationally presume discovery of causality. (Chakraborti, Logic, p 381; Flew, Dictionary, "Hume", p 156.
  13. For more discursive discussions of types of causality—necessary, sufficient, necessary and sufficient, component, sufficient component, counterfactual—see Rothman & Greenland, Parascandola & Weed, as well as Kundi. Following is more direct elucidation:

    A necessary cause is a causal condition required for an event to occur. A sufficient cause is a causal condition complete to produce an event. Necessary is not always sufficient, however, since other casual factors—that is, other component causes—might be required to produce the event. Conversely, a sufficient cause is not always a necessary cause, since differing sufficient causes might likewise produce the event. Strictly speaking, a sufficient cause cannot be a single factor, as any causal factor must act casually through many other factors. And although a necessary cause might exist, humans cannot verify one, since humans cannot check every possible state of affairs. (Language can state necessary causality as a tautology—a statement whose terms' arrangement and meanings render it is logically true by mere definition—which, as an analytic statement, is uninformative about the actual world. A statement referring to and contingent on the world's actualities is a synthetic statement, rather.)

    Sufficient causality is more actually sufficient component causality—a complete set of component causes interacting within a causal constellation—which, however, is beyond humans' capacity to fully discover. Yet humans tend intuitively to conceive of causality as necessary and sufficient—a single factor both required and complete—the one and only cause, the cause. One may so view flipping a light switch. The switch's flip was not sufficient cause, however, but contingent on countless factors—intact bulb, intact wiring, circuit box, bill payment, utility company, neighborhood infrastructure, engineering of technology by Thomas Edison and Nikola Tesla, explanation of electricity by James Clerk Maxwell, harnessing of electricity by Benjamin Franklin, metal refining, metal mining, and on and on—while, whatever the tally of events, nature's causal mechanical structure remains a mystery.

    From a Humean perspective, the light's putative inability to come on without the switch's flip is neither a logical necessity nor an empirical finding, since no experience ever reveals that the world either is or will remain universally uniform as to the aspects appearing to bind the switch's flip as the necessary event for the light's coming on. If the light comes on without switch flip, surprise will affect one's mind, but one's mind cannot know that the event violated nature. As just a mundane possibility, an activity within the wall could have connected the wires and completed the circuit without the switch's flip.

    Though apparently enjoying the scandals that trailed his own explanations, Hume was very practical and his skepticism was quite uneven (Flew p 156). Although Hume rejected orthodox theism and sought to reject metaphysics, Hume supposedly extended Newtonian method to the human mind, which Hume, in a sort of antiCopernican move, placed as the pivot of human knowledge (Flew p 154). Hume thus placed his own theory of knowledge on par with Newton's theory of motion (Buckle pp 70–71, Redman pp 182–83, Schliesser § abstract). Hume found enumerative induction an unavoidable custom required for one to live (Gattei pp 28–29). Hume found constant conjunction to reveal a modest causality type: counterfactual causality. Silent as to causal role—whether necessity, sufficiency, component strength, or mechanism—counterfactual causality is simply that alteration of a factor prevents or produces the event of interest.
  14. 14.0 14.1 14.2 14.3 14.4 Kundi M (2006). "Causality and the interpretation of epidemiologic evidence". Environmental Health Perspectives. 114 (7): 969–974. doi:10.1289/ehp.8297. PMC 1513293. PMID 16835045.
  15. Hume noted that authors ubiquitously continue for some time stating facts and then suddenly switch to stating norms—supposedly what should be—with barely explanation. Yet such values, as in ethics or aesthetics or political philosophy, are not found true merely by stating facts: is does not itself reveal ought. Hume's law is the principle that the fact/value gap is unbridgeable—that no statements of facts can ever justify norms—although Hume himself did not state that. Rather, some later philosophers found Hume to merely stop short of stating it, but to have communicated it. Anyway, Hume found that humans acquired morality through experience by communal reinforcement. (Flew, Dictionary, "Hume's law", p 157 & "Naturalistic fallacy", pp 240–41; Wootton, Modern Political Thought, p 306.)
  16. Kant inferred that the mind's constants arrange space holding Euclidean geometry—like Newton's absolute space—while objects interact temporally as modeled in Newton's theory of motion, whose law of universal gravitation is a truth synthetic a priori, that is, contingent on experience, indeed, but known universally true without universal experience. Thus, the mind's innate constants cross the tongs of Hume's fork and lay Newton's universal gravitation as a priori truth.
  17. 17.0 17.1 Chakravartty, "Scientific realism", §1.2 "The three dimensions of realist commitment", in SEP, 2013: "Semantically, realism is committed to a literal interpretation of scientific claims about the world. In common parlance, realists take theoretical statements at 'face value'. According to realism, claims about scientific entities, processes, properties, and relations, whether they be observable or unobservable, should be construed literally as having truth values, whether true or false. This semantic commitment contrasts primarily with those of so-called instrumentalist epistemologies of science, which interpret descriptions of unobservables simply as instruments for the prediction of observable phenomena, or for systematizing observation reports. Traditionally, instrumentalism holds that claims about unobservable things have no literal meaning at all (though the term is often used more liberally in connection with some antirealist positions today). Some antirealists contend that claims involving unobservables should not be interpreted literally, but as elliptical for corresponding claims about observables".
  18. 18.0 18.1 Challenges to scientific realism are captured succinctly by Bolotin, Approach to Aristotle's Physics (SUNY P, 1998), pp 33–34, commenting about modern science, "But it has not succeeded, of course, in encompassing all phenomena, at least not yet. For it laws are mathematical idealizations, idealizations, moreover, with no immediate basis in experience and with no evident connection to the ultimate causes of the natural world. For instance, Newton's first law of motion (the law of inertia) requires us to imagine a body that is always at rest or else moving aimlessly in a straight line at a constant speed, even though we never see such a body, and even though according to his own theory of universal gravitation, it is impossible that there can be one. This fundamental law, then, which begins with a claim about what would happen in a situation that never exists, carries no conviction except insofar as it helps to predict observable events. Thus, despite the amazing success of Newton's laws in predicting the observed positions of the planets and other bodies, Einstein and Infeld are correct to say, in The Evolution of Physics, that 'we can well imagine another system, based on different assumptions, might work just as well'. Einstein and Infeld go on to assert that 'physical concepts are free creations of the human mind, and are not, however it may seem, uniquely determined by the external world'. To illustrate what they mean by this assertion, they compare the modern scientist to a man trying to understand the mechanism of a closed watch. If he is ingenious, they acknowledge, this man 'may form some picture of a mechanism which would be responsible for all the things he observes'. But they add that he 'may never quite be sure his picture is the only one which could explain his observations. He will never be able to compare his picture with the real mechanism and he cannot even imagine the possibility or the meaning of such a comparison'. In other words, modern science cannot claim, and it will never be able to claim, that it has the definite understanding of any natural phenomenon".
  19. Whereas a hypothetical imperative is practical, simply what one ought to do if one seeks a particular outcome, the categorical imperative is morally universal, what everyone always ought to do.
  20. 20.0 20.1 Bourdeau, "Auguste Comte", §§ "Abstract" & "Introduction", in Zalta, ed, SEP, 2013.
  21. Comte, A General View of Positivism (Trübner, 1865), pp 49–50, including the following passage: "As long as men persist in attempting to answer the insoluble questions which occupied the attention of the childhood of our race, by far the more rational plan is to do as was done then, that is, simply to give free play to the imagination. These spontaneous beliefs have gradually fallen into disuse, not because they have been disproved, but because humankind has become more enlightened as to its wants and the scope of its powers, and has gradually given an entirely new direction to its speculative efforts".
  22. Flew, Dictionary (St Martin's, 1984), "Positivism", p 283.
  23. 23.0 23.1 23.2 Woodward, "Scientific explanation", §1 "Background and introduction", in SEP, 2011.
  24. 24.0 24.1 Friedman, Reconsidering Logical Positivism (Cambridge U P, 1999), p xii.
  25. Any positivism placed in the 20th century is generally neo, although there was Ernst Mach's positivism nearing 1900, and a general positivistic approach to science—traceable to the inductivist trend from Bacon at 1620, the Newtonian research program at 1687, and Comtean positivism at 1830—that continues in a vague but usually disavowed sense within popular culture and some sciences.
  26. Neopositivists are sometimes called "verificationists".
  27. Chakravartty, "Scientific realism", §4 "Antirealism: Foils for scientific realism", §4.1 "Empiricism", in SEP, 2013: "Traditionally, instrumentalists maintain that terms for unobservables, by themselves, have no meaning; construed literally, statements involving them are not even candidates for truth or falsity. The most influential advocates of instrumentalism were the logical empiricists (or logical positivists), including Carnap and Hempel, famously associated with the Vienna Circle group of philosophers and scientists as well as important contributors elsewhere. In order to rationalize the ubiquitous use of terms which might otherwise be taken to refer to unobservables in scientific discourse, they adopted a non-literal semantics according to which these terms acquire meaning by being associated with terms for observables (for example, 'electron' might mean 'white streak in a cloud chamber'), or with demonstrable laboratory procedures (a view called 'operationalism'). Insuperable difficulties with this semantics led ultimately (in large measure) to the demise of logical empiricism and the growth of realism. The contrast here is not merely in semantics and epistemology: a number of logical empiricists also held the neo-Kantian view that ontological questions 'external' to the frameworks for knowledge represented by theories are also meaningless (the choice of a framework is made solely on pragmatic grounds), thereby rejecting the metaphysical dimension of realism (as in Carnap 1950)".
    • Okasha, Philosophy of Science (Oxford U P, 2002), p 62: "Strictly we should distinguish two sorts of anti-realism. According to the first sort, talk of unobservable entities is not to be understood literally at all. So when a scientist puts forward a theory about electrons, for example, we should not take him to be asserting the existence of entities called 'electrons'. Rather, his talk of electrons is metaphorical. This form of anti-realism was popular in the first half of the 20th century, but few people advocate it today. It was motivated largely by a doctrine in the philosophy of language, according to which it is not possible to make meaningful assertions about things that cannot in principle be observed, a doctrine that few contemporary philosophers accept. The second sort of anti-realism accepts that talk of unobservable entities should be taken at face value: if a theory says that electrons are negatively charged, it is true if electrons do exist and are negatively charged, but false otherwise. But we will never know which, says the anti-realist. So the correct attitude towards the claims that scientists make about unobservable reality is one of total agnosticism. They are either true or false, but we are incapable of finding out which. Most modern anti-realism is of this second sort".
  28. 28.0 28.1 Woodward, "Scientific explanation", in Zalta, ed, SEP, 2011, abstract.
  29. Hempel, Carl G; Oppenheim, Paul (Apr 1948). "स्पष्टीकरण के तर्क में अध्ययन". Philosophy of Science. 15 (2): 135–175. doi:10.1086/286983. JSTOR 185169. S2CID 16924146.
  30. 30.0 30.1 30.2 30.3 Bechtel, Discovering Cell Mechanisms (Cambridge U P, 2006), esp pp 24–25.
  31. 31.0 31.1 Woodward, "Scientific explanation", §2 "The DN model", §2.3 "Inductive statistical explanation", in Zalta, ed, SEP, 2011.
  32. von Wright, Explanation and Understanding (Cornell U P, 1971), p 11.
  33. 33.0 33.1 Stuart Glennan, "Explanation", § "Covering-law model of explanation", in Sarkar & Pfeifer, eds, Philosophy of Science (Routledge, 2006), p 276.
  34. Manfred Riedel, "Causal and historical explanation", in Manninen & Tuomela, eds, Essays on Explanation and Understanding (D Reidel, 1976), pp 3–4.
  35. Neopositivism's fundamental tenets were the verifiability criterion of cognitive meaningfulness, the analytic/synthetic gap, and the observation/theory gap. From 1950 to 1951, Carl Gustav Hempel renounced the verifiability criterion. In 1951 Willard Van Orman Quine attacked the analytic/synthetic gap. In 1958, Norwood Russell Hanson blurred the observational/theoretical gap. In 1959, Karl Raimund Popper attacked all of verificationism—he attacked, actually, any type of positivism—by asserting falsificationism. In 1962, Thomas Samuel Kuhn overthrew foundationalism, which was erroneously presumed to be a fundamental tenet of neopositivism.
  36. Fetzer, "Carl Hempel", §3 "Scientific reasoning", in SEP, 2013: "The need to dismantle the verifiability criterion of meaningfulness together with the demise of the observational/theoretical distinction meant that logical positivism no longer represented a rationally defensible position. At least two of its defining tenets had been shown to be without merit. Since most philosophers believed that Quine had shown the analytic/synthetic distinction was also untenable, moreover, many concluded that the enterprise had been a total failure. Among the important benefits of Hempel's critique, however, was the production of more general and flexible criteria of cognitive significance in Hempel (1965b), included in a famous collection of his studies, Aspects of Scientific Explanation (1965d). There he proposed that cognitive significance could not be adequately captured by means of principles of verification or falsification, whose defects were parallel, but instead required a far more subtle and nuanced approach. Hempel suggested multiple criteria for assessing the cognitive significance of different theoretical systems, where significance is not categorical but rather a matter of degree: 'Significant systems range from those whose entire extralogical vocabulary consists of observation terms, through theories whose formulation relies heavily on theoretical constructs, on to systems with hardly any bearing on potential empirical findings' (Hempel 1965b: 117). The criteria Hempel offered for evaluating the 'degrees of significance' of theoretical systems (as conjunctions of hypotheses, definitions, and auxiliary claims) were (a) the clarity and precision with which they are formulated, including explicit connections to observational language; (b) the systematic—explanatory and predictive—power of such a system, in relation to observable phenomena; (c) the formal simplicity of the systems with which a certain degree of systematic power is attained; and (d) the extent to which those systems have been confirmed by experimental evidence (Hempel 1965b). The elegance of Hempel's study laid to rest any lingering aspirations for simple criteria of 'cognitive significance' and signaled the demise of logical positivism as a philosophical movement".
  37. Popper, "Against big words", In Search of a Better World (Routledge, 1996), pp 89-90.
  38. Hacohen, Karl Popper: The Formative Years (Cambridge U P, 2000), pp 212–13.
  39. Logik der Forschung, published in Austria in 1934, was translated by Popper from German to English, The Logic of Scientific Discovery, and arrived in the English-speaking world in 1959.
  40. 40.0 40.1 40.2 40.3 Reutlinger, Schurz & Hüttemann, "Ceteris paribus", § 1.1 "Systematic introduction", in Zalta, ed, SEP, 2011.
  41. As scientific study of cells, cytology emerged in the 19th century, yet its technology and methods were insufficient to clearly visualize and establish existence of any cell organelles beyond the nucleus.
  42. The first famed biochemistry experiment was Edward Buchner's in 1897 (Morange, A History, p 11). The biochemistry discipline soon emerged, initially investigating colloids in biological systems, a "biocolloidology" (Morange p 12; Bechtel, Discovering, p 94). This yielded to macromolecular theory, the term macromolecule introduced by German chemist Hermann Staudinger in 1922 (Morange p 12).
  43. Cell biology emerged principally at Rockefeller Institute through new technology (electron microscope and ultracentrifuge) and new techniques (cell fractionation and advancements in staining and fixation).
  44. James Fetzer, ch 3 "The paradoxes of Hempelian explanation", in Fetzer J, ed, Science, Explanation, and Rationality (Oxford U P, 2000), pp 121–122.
  45. Fetzer, ch 3 in Fetzer, ed, Science, Explanation, and Rationality (Oxford U P, 2000), p 129.
  46. 46.0 46.1 Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 1, subch "Areas of philosophy that bear on philosophy of science", § "Metaphysics", pp 8–9, § "Epistemology", p 11.
  47. H Atmanspacher, R C Bishop & A Amann, "Extrinsic and intrinsic irreversibility in probabilistic dynamical laws", in Khrennikov, ed, Proceedings (World Scientific, 2001), pp 51–52.
  48. Fetzer, ch 3, in Fetzer, ed, Science, Explanation, and Rationality (Oxford U P, 2000), p 118, poses some possible ways that natural laws, so called, when epistemic can fail as ontic: "The underlying conception is that of bringing order to our knowledge of the universe. Yet there are at least three reasons why even complete knowledge of every empirical regularity that obtains during the world's history might not afford an adequate inferential foundation for discovery of the world's laws. First, some laws might remain uninstantiated and therefore not be displayed by any regularity. Second, some regularities may be accidental and therefore not display any law of nature. And, third, in the case of probabilistic laws, some frequencies might deviate from their generating nomic probabilities 'by chance' and therefore display natural laws in ways that are unrepresentative or biased".
  49. This theory reduction occurs if, and apparently only if, the Sun and one planet are modeled as a two-body system, excluding all other planets (Torretti, Philosophy of Physics, pp 60–62).
  50. Spohn, Laws of Belief (Oxford U P, 2012), p 305.
  51. Whereas fundamental physics has sought laws of universal regularity, special sciences normally include ceteris paribus laws, which are predictively accurate to high probability in "normal conditions" or with "all else equal", but have exceptions [Reutlinger et al § 1.1]. Chemistry's laws seem exceptionless in their domains, yet were in principle reduced to fundamental physics [Feynman p 5, Schwarz Fig 1, and so are special sciences.
  52. Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 5, subch "Introduction: Relating disciplines by relating theories" pp 71–72.
  53. 53.0 53.1 Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 5, subch "Theory reduction model and the unity of science program" pp 72–76.
  54. 54.0 54.1 Bem & de Jong, Theoretical Issues (Sage, 2006), pp 45–47.
  55. 55.0 55.1 55.2 O'Shaughnessy, Explaining Buyer Behavior (Oxford U P, 1992), pp 17–19.
  56. 56.0 56.1 Spohn, Laws of Belief (Oxford U P, 2012), p 306.
  57. 57.0 57.1 Karhausen, L. R. (2000). "Causation: The elusive grail of epidemiology". Medicine, Health Care and Philosophy. 3 (1): 59–67. doi:10.1023/A:1009970730507. PMID 11080970. S2CID 24260908.
  58. Bechtel, Philosophy of Science (Lawrence Erlbaum, 1988), ch 3, subch "Repudiation of DN model of explanation", pp 38–39.
  59. 59.0 59.1 59.2 Rothman, K. J.; Greenland, S. (2005). "Causation and Causal Inference in Epidemiology". American Journal of Public Health. 95: S144–S150. doi:10.2105/AJPH.2004.059204. hdl:10.2105/AJPH.2004.059204. PMID 16030331.
  60. Boffetta, "Causation in the presence of weak associations", Crit Rev Food Sci Nutr, 2010; 50(S1):13–16.
  61. Making no commitment as to the particular causal role—such as necessity, or sufficiency, or component strength, or mechanism—counterfactual causality is simply that alteration of a factor from its factual state prevents or produces by any which way the event of interest.
  62. In epidemiology, the counterfactual causality is not deterministic, but probabilistic Parascandola; Weed (2001). "Causation in epidemiology". J Epidemiol Community Health. 55 (12): 905–12. doi:10.1136/jech.55.12.905. PMC 1731812. PMID 11707485.
  63. 63.0 63.1 63.2 63.3 Schwarz, "Recent developments in string theory", Proc Natl Acad Sci U S A, 1998; 95:2750–7, esp Fig 1.
  64. 64.0 64.1 Ben-Menahem, Conventionalism (Cambridge U P, 2006), p 71.
  65. Instances of falsity limited Boyle's law to special cases, thus ideal gas law.
  66. 66.0 66.1 66.2 66.3 Newburgh et al, "Einstein, Perrin, and the reality of atoms" Archived 2017-08-03 at the Wayback Machine, Am J Phys, 2006, p 478.
  67. For brief review of Boltmann's view, see ch 3 "Philipp Frank", § 1 "T S Kuhn's interview", in Blackmore et al, eds, Ernst Mach's Vienna 1895–1930 (Kluwer, 2001), p 63, as Frank was a student of Boltzmann soon after Mach's retirement. See "Notes", pp 79–80, #12 for views of Mach and of Ostwald, #13 for views of contemporary physicists generally, and #14 for views of Einstein. The more relevant here is #12: "Mach seems to have had several closely related opinions concerning atomism. First, he often thought the theory might be useful in physics as long as one did not believe in the reality of atoms. Second, he believed it was difficult to apply the atomic theory to both psychology and physics. Third, his own theory of elements is often called an 'atomistic theory' in psychology in contrast with both gestalt theory and a continuum theory of experience. Fourth, when critical of the reality of atoms, he normally meant the Greek sense of 'indivisible substance' and thought Boltzmann was being evasive by advocating divisible atoms or 'corpuscles' such as would become normal after J J Thomson and the distinction between electrons and nuclei. Fifth, he normally called physical atoms 'things of thought' and was very happy when Ostwald seemed to refute the reality of atoms in 1905. And sixth, after Ostwald returned to atomism in 1908, Mach continued to defend Ostwald's 'energeticist' alternative to atomism".
  68. Physicists had explained the electromagnetic field's energy as mechanical energy, like an ocean wave's bodily impact, not water droplets individually showered (Grandy, Everyday Quantum Reality, pp 22–23). In the 1890s, the problem of blackbody radiation was paradoxical until Max Planck theorized quantum exhibiting Planck's constant—a minimum unit of energy. The quanta were mysterious, not viewed as particles, yet simply as units of energy. Another paradox, however, was the photoelectric effect. As shorter wavelength yields more waves per unit distance, lower wavelength is higher wave frequency. Within the electromagnetic spectrum's visible portion, frequency sets the color. Light's intensity, however, is the wave's amplitude as the wave's height. In a strictly wave explanation, a greater intensity—higher wave amplitude—raises the mechanical energy delivered, namely, the wave's impact, and thereby yields greater physical effect. And yet in the photoelectric effect, only a certain color and beyond—a certain frequency and higher—was found to knock electrons off a metal surface. Below that frequency or color, raising the intensity of the light still knocked no electrons off. Einstein modeled Planck's quanta as each a particle whose individual energy was Planck's constant multiplied by the light's wave's frequency: at only a certain frequency and beyond would each particle be energetic enough to eject an electron from its orbital. Although elevating the intensity of light would deliver more energy—more total particles—each individual particle would still lack sufficient energy to dislodge an electron. Einstein's model, far more intricate, used probability theory to explain rates of elections ejections as rates of collisions with electromagnetic particles. This revival of the particle hypothesis of light—generally attributed to Newton—was widely doubted. By 1920, however, the explanation helped solve problems in atomic theory, and thus quantum mechanics emerged. In 1926, Gilbert N. Lewis termed the particles photons. QED models them as the electromagnetic field's messenger particles or force carriers, emitted and absorbed by electrons and by other particles undergoing transitions.
  69. Wolfson, Simply Einstein (W W Norton & Co, 2003), p 67.
  70. Newton's gravitational theory at 1687 had postulated absolute space and absolute time. To fit Young's transverse wave theory of light at 1804, space was theoretically filled with Fresnel's luminiferous aether at 1814. By Maxwell's electromagnetic field theory of 1865, light always holds a constant speed, which, however, must be relative to something, apparently to aether. Yet if light's speed is constant relative to aether, then a body's motion through aether would be relative to—thus vary in relation to—light's speed. Even Earth's vast speed, multiplied by experimental ingenuity with an interferometer by Michelson & Morley at 1887, revealed no apparent aether drift—light speed apparently constant, an absolute. Thus, both Newton's gravitational theory and Maxwell's electromagnetic theory each had its own relativity principle, yet the two were incompatible. For brief summary, see Wilczek, Lightness of Being (Basic Books, 2008), pp 78–80.
  71. Cordero, EPSA Philosophy of Science (Springer, 2012), pp 26–28.
  72. Hooper, Aether and Gravitation (Chapman & Hall, 1903), pp 122–23.
  73. 73.0 73.1 Lodge (1909). "अंतरिक्ष का ईथर". Sci Am Suppl. 67 (1734supp): 202–03. doi:10.1038/scientificamerican03271909-202supp.
  74. Even Mach, who shunned all hypotheses beyond direct sensory experience, presumed an aether, required for motion to not violate mechanical philosophy's founding principle, No instant interaction at a distance (Einstein, "Ether", Sidelights (Methuen, 1922), pp 15–18).
  75. Rowlands, Oliver Lodge (Liverpool U P, 1990), pp 159–60: "Lodge's ether experiments have become part of the historical background leading up to the establishment of special relativity and their significance is usually seen in this context. Special relativity, it is stated, eliminated both the ether and the concept of absolute motion from physics. Two experiments were involved: that of Michelson and Morley, which showed that bodies do not move with respect to a stationary ether, and that of Lodge, which showed that moving bodies do not drag ether with them. With the emphasis on relativity, the Michelson–Morley experiment has come to be seen as the more significant of the two, and Lodge's experiment becomes something of a detail, a matter of eliminating the final, and less likely, possibility of a nonstationary, viscous, all-pervading medium. It could be argued that almost the exact opposite may have been the case. The Michelson–Morley experiment did not prove that there was no absolute motion, and it did not prove that there was no stationary ether. Its results—and the FitzGerald–Lorentz contraction—could have been predicted on Heaviside's, or even Maxwell's, theory, even if no experiment had ever taken place. The significance of the experiment, though considerable, is purely historical, and in no way factual. Lodge's experiment, on the other hand, showed that, if an ether existed, then its properties must be quite different from those imagined by mechanistic theorists. The ether which he always believed existed had to acquire entirely new properties as a result of this work".
  76. Mainly Hendrik Lorentz as well as Henri Poincaré modified electrodynamic theory and, more or less, developed special theory of relativity before Einstein did (Ohanian, Einstein's Mistakes, pp 281–85). Yet Einstein, free a thinker, took the next step and stated it, more elegantly, without aether (Torretti, Philosophy of Physics, p 180).
  77. 77.0 77.1 Tavel, Contemporary Physics (Rutgers U P, 2001), pp [1], 66.
  78. Introduced soon after Einstein explained Brownian motion, special relativity holds only in cases of inertial motion, that is, unaccelerated motion. Inertia is the state of a body experiencing no acceleration, whether by change in speed—either quickening or slowing—or by change in direction, and thus exhibits constant velocity, which is speed plus direction.
  79. 79.0 79.1 79.2 Cordero, EPSA Philosophy of Science (Springer, 2012), pp 29–30.
  80. To explain absolute light speed without aether, Einstein modeled that a body at motion in an electromagnetic field experiences length contraction and time dilation, which Lorentz and Poincaré had already modeled as Lorentz-FitzGerald contraction and Lorentz transformation but by hypothesizing dynamic states of the aether, whereas Einstein's special relativity was simply kinematic, that is, positing no causal mechanical explanation, simply describing positions, thus showing how to align measuring devices, namely, clocks and rods. (Ohanian, Einstein's Mistakes, pp 281–85).
  81. Ohanian, Einstein's Mistakes (W W Norton, 2008), pp 281–85.
  82. Newton's theory required absolute space and time.
  83. Buchen, "May 29, 1919", Wired, 2009.
    Moyer, "Revolution", in Studies in the Natural Sciences (Springer, 1979), p 55.
    Melia, Black Hole (Princeton U P, 2003), pp 83–87.
  84. Crelinsten, Einstein's Jury (Princeton U P, 2006), p 28.
  85. 85.0 85.1 85.2 From 1925 to 1926, independently but nearly simultaneously, Werner Heisenberg as well as Erwin Schrödinger developed quantum mechanics (Zee in Feynman, QED, p xiv). Schrödinger introduced wave mechanics, whose wave function is discerned by a partial differential equation, now termed Schrödinger equation (p xiv). Heisenberg, who also stated the uncertainty principle, along with Max Born and Pascual Jordan introduced matrix mechanics, which rather confusingly talked of operators acting on quantum states (p xiv). If taken as causal mechanically explanatory, the two formalisms vividly disagree, and yet are indiscernible empirically, that is, when not used for interpretation, and taken as simply formalism (p xv).

    In 1941, at a party in a tavern in Princeton, New Jersey, visiting physicist Herbert Jehle mentioned to Richard Feynman a different formalism suggested by Paul Dirac, who developed bra–ket notation, in 1932 (p xv). The next day, Feynman completed Dirac's suggested approach as sum over histories or sum over paths or path integrals (p xv). Feynman would joke that this approach—which sums all possible paths that a particle could take, as though the particle actually takes them all, canceling themselves out except for one pathway, the particle's most efficient—abolishes the uncertainty principle (p xvi). All empirically equivalent, Schrödinger's wave formalism, Heisenberg's matrix formalism, and Feynman's path integral formalism all incorporate the uncertain principle (p xvi).

    There is no particular barrier to additional formalisms, which could be, simply have not been, developed and widely disseminated (p xvii). In a particular physical discipline, however, and on a particular problem, one of the three formalisms might be easier than others to operate (pp xvi–xvii). By the 1960s, path integral formalism virtually vanished from use, while matrix formalism was the "canonical" (p xvii). In the 1970s, path integral formalism made a "roaring comeback", became the predominant means to make predictions from QFT, and impelled Feynman to an aura of mystique (p xviii).
  86. 86.0 86.1 Cushing, Quantum Mechanics (U Chicago P, 1994), pp 113–18.
  87. 87.0 87.1 Schrödinger's wave mechanics posed an electron's charge smeared across space as a waveform, later reinterpreted as the electron manifesting across space probabilistically but nowhere definitely while eventually building up that deterministic waveform. Heisenberg's matrix mechanics confusingly talked of operators acting on quantum states. Richard Feynman introduced QM's path integral formalism—interpretable as a particle traveling all paths imaginable, canceling themselves, leaving just one, the most efficient—predictively identical with Heisenberg's matrix formalism and with Schrödinger's wave formalism.
  88. Torretti, Philosophy of Physics (Cambridge U P, 1999), pp 393–95.
  89. Torretti, Philosophy of Physics (Cambridge U P, 1999), p 394.
  90. 90.0 90.1 90.2 Torretti, Philosophy of Physics (Cambridge U P, 1999), p 395.
  91. Recognition of strong force permitted Manhattan Project to engineer Little Boy and Fat Man, dropped on Japan, whereas effects of weak force were seen in its aftermath—radioactive fallout—of diverse health consequences.
  92. 92.0 92.1 92.2 92.3 92.4 92.5 Wilczek, "The persistence of ether", Phys Today, 1999; 52:11,13, p 13.
  93. The four, known fundamental interactions are gravitational, electromagnetic, weak nuclear, and strong nuclear.
  94. Grandy, Everyday Quantum Reality (Indiana U P, 2010), pp 24–25.
  95. Schweber, QED and the Men who Made it (Princeton U P, 1994).
  96. Feynman, QED (Princeton U P, 2006), p 5.
  97. 97.0 97.1 97.2 Torretti, Philosophy of Physics, (Cambridge U P, 1999), pp 395–96.
  98. 98.0 98.1 98.2 98.3 Cushing, Quantum Mechanics (U Chicago P, 1994), pp 158–59.
  99. Close, "Much ado about nothing", Nova, PBS/WGBH, 2012: "This new quantum mechanical view of nothing began to emerge in 1947, when Willis Lamb measured spectrum of hydrogen. The electron in a hydrogen atom cannot move wherever it pleases but instead is restricted to specific paths. This is analogous to climbing a ladder: You cannot end up at arbitrary heights above ground, only those where there are rungs to stand on. Quantum mechanics explains the spacing of the rungs on the atomic ladder and predicts the frequencies of radiation that are emitted or absorbed when an electron switches from one to another. According to the state of the art in 1947, which assumed the hydrogen atom to consist of just an electron, a proton, and an electric field, two of these rungs have identical energy. However, Lamb's measurements showed that these two rungs differ in energy by about one part in a million. What could be causing this tiny but significant difference? "When physicists drew up their simple picture of the atom, they had forgotten something: Nothing. Lamb had become the first person to observe experimentally that the vacuum is not empty, but is instead seething with ephemeral electrons and their anti-matter analogues, positrons. These electrons and positrons disappear almost instantaneously, but in their brief mayfly moment of existence they alter the shape of the atom's electromagnetic field slightly. This momentary interaction with the electron inside the hydrogen atom kicks one of the rungs of the ladder just a bit higher than it would be otherwise.
    "This is all possible because, in quantum mechanics, energy is not conserved on very short timescales, or for very short distances. Stranger still, the more precisely you attempt to look at something—or at nothing—the more dramatic these energy fluctuations become. Combine that with Einstein's E=mc2, which implies that energy can congeal in material form, and you have a recipe for particles that bubble in and out of existence even in the void. This effect allowed Lamb to literally measure something from nothing".
  100. 100.0 100.1 100.2 100.3 100.4 *Vongehr "Higgs discovery rehabilitating despised Einstein Aether", Science 2.0, 2011.
    • Vongehr, Sascha (2009). "Supporting Abstract Relational Space-Time as Fundamental without Doctrinism against Emergence". arXiv:0912.3069 [physics.hist-ph].
  101. 101.0 101.1 Riesselmann "Concept of ether in explaining forces", Inquiring Minds, Fermilab, 2008.
  102. Close, "Much ado about nothing", Nova, PBS/WGBH, 2012.
  103. On "historical examples of empirically successful theories that later turn out to be false", Okasha, Philosophy of Science (Oxford U P, 2002), p 65, concludes, "One that remains is the wave theory of light, first put forward by Christiaan Huygens in 1690. According to this theory, light consists of wave-like vibrations in an invisible medium called the ether, which was supposed to permeate the whole universe. (The rival to the wave theory was the particle theory of light, favoured by Newton, which held that light consists of very small particles emitted by the light source.) The wave theory was not widely accepted until the French physicist Auguste Fresnel formulated a mathematical version of the theory in 1815, and used it to predict some surprising new optical phenomena. Optical experiments confirmed Fresnel's predictions, convincing many 19th-century scientists that the wave theory of light must be true. But modern physics tells us that the theory is not true: there is no such thing as the ether, so light doesn't consist of vibrations in it. Again, we have an example of a false but empirically successful theory".
  104. Pigliucci, Answers for Aristotle (Basic Books, 2012), p 119: "But the antirealist will quickly point out that plenty of times in the past scientists have posited the existence of unobservables that were apparently necessary to explain a phenomenon, only to discover later on that such unobservables did not in fact exist. A classic case is the aether, a substance that was supposed by nineteenth-century physicists to permeate all space and make it possible for electromagnetic radiation (like light) to propagate. It was Einstein's special theory of relativity, proposed in 1905, that did away with the necessity of aether, and the concept has been relegated to the dustbin of scientific history ever since. The antirealists will relish pointing out that modern physics features a number of similarly unobservable entities, from quantum mechanical 'foam' to dark energy, and that the current crop of scientists seems just as confident about the latter two as their nineteenth-century counterparts were about aether".
  105. Wilczek, Lightness of Being (Basic Books, 2008), pp 78–80.
  106. Laughlin, A Different Universe (Basic Books, 2005), pp 120–21.
  107. 107.0 107.1 Einstein, "Ether", Sidelights (Methuen, 1922), pp 14–18.
  108. Lorentz aether was at absolute rest—acting on matter but not acted on by matter. Replacing it and resembling Ernst Mach's aether, Einstein aether is spacetime itself—which is the gravitational field—receiving motion from a body and transmitting it to other bodies while propagating at light speed, waving. An unobservable, however, Einstein aether is not a privileged reference frame—is not to be assigned a state of absolute motion or absolute rest.
  109. Relativity theory comprises both special relativity (SR) and general relativity (GR). Holding for inertial reference frames, SR is as a limited case of GR, which holds for all reference frames, both inertial and accelerated. In GR, all motion—inertial, accelerated, or gravitational—is consequent of the geometry of 3D space stretched onto the 1D axis of time. By GR, no force distinguishes acceleration from inertia. Inertial motion is consequence simply of uniform geometry of spacetime, acceleration is consequence simply of nonuniform geometry of spacetime, and gravitation is simply acceleration.
  110. 110.0 110.1 Laughlin, A Different Universe, (Basic Books, 2005), pp 120–21: "The word 'ether' has extremely negative connotations in theoretical physics because of its past association with opposition to relativity. This is unfortunate because, stripped of these connotations, it rather nicely captures the way most physicists actually think about the vacuum. ... Relativity actually says nothing about the existence or nonexistence of matter pervading the universe, only that any such matter must have relativistic symmetry. It turns out that such matter exists. About the time that relativity was becoming accepted, studies of radioactivity began showing that the empty vacuum of space had spectroscopic structure similar to that of ordinary quantum solids and fluids. Subsequent studies with large particle accelerators have now led us to understand that space is more like a piece of window glass than ideal Newtonian emptiness. It is filled with 'stuff' that is normally transparent but can be made visible by hitting it sufficiently hard to knock out a part. The modern concept of the vacuum of space, confirmed every day by experiment, is a relativistic ether. But we do not call it this because it is taboo".
  111. In Einstein's 4D spacetime, 3D space is stretched onto the 1D axis of time flow, which slows while space additionally contracts in the vicinity of mass or energy.
  112. Torretti, Philosophy of Physics (Cambridge U P, 1999), p 180.
  113. As an effective field theory, once adjusted to particular domains, Standard Model is predictively accurate until a certain, vast energy scale that is a cutoff, whereupon more fundamental phenomena—regulating the effective theory's modeled phenomena—would emerge. (Burgess & Moore, Standard Model, p xi; Wells, Effective Theories, pp 55–56).
  114. 114.0 114.1 114.2 Torretti, Philosophy of Physics (Cambridge U P, 1999), p 396.
  115. 115.0 115.1 115.2 Jegerlehner, F. (2014). "The Standard Model as a Low-energy Effective Theory: What is Triggering the Higgs Mechanism?". Acta Physica Polonica B. 45 (6): 1167. arXiv:1304.7813. Bibcode:2014AcPPB..45.1167J. doi:10.5506/APhysPolB.45.1167. S2CID 53137906. We understand the SM as a low energy effective emergence of some unknown physical system—we may call it 'ether'—which is located at the Planck scale with the Planck length as a 'microscopic' length scale. Note that the cutoff, though very large, in any case is finite.
  116. 116.0 116.1 Wilczek, Lightness of Being (Basic Books, 2008), ch 8 "The grid (persistence of ether)", p 73: "For natural philosophy, the most important lesson we learn from QCD is that what we perceive as empty space is in reality a powerful medium whose activity molds the world. Other developments in modern physics reinforce and enrich that lesson. Later, as we explore the current frontiers, we'll see how the concept of 'empty' space as a rich, dynamic medium empowers our best thinking about how to achieve the unification of forces".
  117. Mass–energy equivalence is formalized in the equation E=mc2.
  118. Einstein, "Ether", Sidelights (Methuen, 1922), p 13: "[A]ccording to the special theory of relativity, both matter and radiation are but special forms of distributed energy, ponderable mass losing its isolation and appearing as a special form of energy".
  119. Braibant, Giacomelli & Spurio, Particles and Fundamental Interactions (Springer, 2012), p 2: "Any particle can be created in collisions between two high energy particles thanks to a process of transformation of energy in mass".
  120. Brian Greene explained, "People often have the wrong image of what happens inside the LHC, and I am just as guilty as anyone of perpetuating it. The machine does not smash together particles to pulverise them and see what is inside. Rather, it collides them at extremely high energy. Since, by dint of Einstein's famous equation, E=mc2, energy and mass are one and the same, the combined energy of the collision can be converted into a mass, in other words, a particle, that is heavier than either of the colliding protons. The more energy is involved in the collision, the heavier the particles that might come into being" [Avent, "The Q&A", Economist, 2012].
  121. 121.0 121.1 121.2 Kuhlmann, "Physicists debate", Sci Am, 2013.
  122. Whereas Newton's Principia inferred absolute space and absolute time, omitted an aether, and, by Newton's law of universal gravitation, formalized action at a distance—a supposed force of gravitation spanning the entire universe instantly—Newton's later work Optiks introduced an aether binding bodies' matter, yet denser outside bodies, and, not uniformly distributed across all space, in some locations condensed, whereby "aethereal spirits" mediate electricity, magnetism, and gravitation. (Whittaker, A History of Theories of Aether and Electricity (Longmans, Green & Co: 1910), pp 17–18)
  123. Norton, "Causation as folk science", in Price & Corry, eds, Mature Causation, Physics, and the Constitution of Reality (Oxford U P, 2007), esp p 12.
  124. Fetzer, ch 3, in Fetzer, ed, Science, Explanation, and Rationality (Oxford U P, 2000), p 111.


स्रोत

अग्रिम पठन