उष्मागतिकी और सूचना सिद्धांत में एन्ट्रॉपी

1870 के दशक में लुडविग बोल्ट्ज़मान और जे विलार्ड गिब्स द्वारा स्थापित सांख्यिकीय ऊष्मप्रवैगिकी फॉर्मूलेशन में थर्मोडायनामिक एन्ट्रॉपी के लिए गणितीय अभिव्यक्तियां 1940 के दशक में विकसित क्लाउड एलवुड शैनन और राल्फ हार्टले द्वारा सूचना एन्ट्रॉपी के समान हैं।

परिभाषित भावों के रूप की समतुल्यता
1870 के दशक में लुडविग बोल्ट्ज़मैन और जे. विलार्ड गिब्स द्वारा स्थापित सांख्यिकीय यांत्रिकी के सिद्धांत में एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:
 * $$ S = - k_\text{B} \sum_i p_i \ln p_i ,$$

कहाँ $$p_i$$ माइक्रोस्टेट (सांख्यिकीय यांत्रिकी) की संभावना है जिसे मैंने एक एन्सेम्बल (गणितीय भौतिकी) से लिया है, और $$k_B$$ बोल्ट्ज़मान स्थिरांक है।

1948 में क्लाउड ई. शैनन द्वारा स्थापित सूचना सिद्धांत के सिद्धांत में सूचना एन्ट्रापी के लिए परिभाषित अभिव्यक्ति इस प्रकार है:
 * $$ H = - \sum_i p_i \log_b p_i ,$$

कहाँ $$p_i$$ संदेश की संभावना है $$m_i$$ संदेश स्थान M से लिया गया है, और b प्रयुक्त लघुगणक का आधार (घातांक) है। बी के सामान्य मान 2, ई (गणितीय स्थिरांक)|यूलर की संख्या हैं $e$, और 10, और एन्ट्रापी की इकाई b = 2 के लिए शैनन (इकाई) (या अंश ) है, b = के लिए नेट (इकाई) है$e$, और b = 10 के लिए हार्टले (इकाई)। गणितीय रूप से एच को संदेश स्थान पर ली गई औसत जानकारी के रूप में भी देखा जा सकता है, क्योंकि जब एक निश्चित संदेश संभाव्यता पी के साथ होता हैi, सूचना मात्रा −लॉग(पीi) (सूचना सामग्री या स्व-सूचना कहा जाता है) प्राप्त किया जाएगा।

यदि सभी माइक्रोस्टेट समसंभाव्य (एक माइक्रोकैनोनिकल पहनावा) हैं, तो सांख्यिकीय थर्मोडायनामिक एन्ट्रॉपी बोल्ट्ज़मैन द्वारा दिए गए रूप में कम हो जाती है,


 * $$ S = k_\text{B} \ln W ,$$

जहां W सूक्ष्म अवस्थाओं की संख्या है जो 'मैक्रोस्कोपिक' थर्मोडायनामिक अवस्था से मेल खाती है। इसलिए S तापमान पर निर्भर करता है।

यदि सभी संदेश समसंभाव्य हैं, तो सूचना एन्ट्रापी हार्टले एन्ट्रापी तक कम हो जाती है
 * $$ H = \log_b |M|\ ,$$

कहाँ $$|M|$$ संदेश स्थान एम की प्रमुखता है।

थर्मोडायनामिक परिभाषा में लघुगणक प्राकृतिक लघुगणक है। यह दिखाया जा सकता है कि एन्ट्रॉपी (सांख्यिकीय थर्मोडायनामिक्स) सूत्र, प्राकृतिक लघुगणक के साथ, रुडोल्फ क्लॉसियस के मैक्रोस्कोपिक शास्त्रीय थर्मोडायनामिक्स के सभी गुणों को पुन: उत्पन्न करता है। (लेख देखें: एन्ट्रॉपी (सांख्यिकीय दृश्य))।

सूचना एन्ट्रापी के मामले में लघुगणक को प्राकृतिक आधार पर भी ले जाया जा सकता है। यह सामान्य बिट्स (या अधिक औपचारिक रूप से, शैनन) के बजाय नेट्स में जानकारी को मापने का चयन करने के बराबर है। व्यवहार में, सूचना एन्ट्रापी की गणना लगभग हमेशा आधार-2 लघुगणक का उपयोग करके की जाती है, लेकिन यह अंतर इकाइयों में बदलाव के अलावा और कुछ नहीं है। एक नेट लगभग 1.44 शैनन के बराबर होता है।

एक सरल संपीड़ित प्रणाली के लिए जो केवल आयतन कार्य कर सकती हैशास्त्रीय ऊष्मप्रवैगिकी का पहला नियम बन जाता है
 * $$ dE = -p dV + T dS .$$

लेकिन कोई भी इस समीकरण को समान रूप से अच्छी तरह से लिख सकता है जिसे भौतिक विज्ञानी और रसायनज्ञ कभी-कभी 'कम' या आयामहीन एन्ट्रॉपी कहते हैं, σ = S/k, ताकि
 * $$ dE = -p dV + k_\text{B} T d\sigma .$$

जिस प्रकार S, T से संयुग्मित है, उसी प्रकार σ, k से संयुग्मित हैBटी (वह ऊर्जा जो आणविक पैमाने पर टी की विशेषता है)। इस प्रकार सांख्यिकीय यांत्रिकी में एन्ट्रॉपी की परिभाषा (एंट्रॉपी (सांख्यिकीय थर्मोडायनामिक्स)#गिब्स_एन्ट्रॉपी_फॉर्मूला $$S = -k_{\mathrm{B}}\sum_i p_i \log p_i$$) और शास्त्रीय थर्मोडायनामिक्स में ($$d S = \frac{\delta Q_\text{rev}}{T}$$, और मौलिक थर्मोडायनामिक संबंध) माइक्रोकैनोनिकल पहनावा के लिए समतुल्य हैं, और सांख्यिकीय पहनावा एक जलाशय के साथ संतुलन में थर्मोडायनामिक प्रणाली का वर्णन करता है, जैसे कि कैनोनिकल पहनावा, भव्य कैनोनिकल पहनावा, इज़ोटेर्मल-आइसोबैरिक पहनावा। यह समानता आमतौर पर पाठ्यपुस्तकों में दिखाई जाती है। हालाँकि, एन्ट्रॉपी की थर्मोडायनामिक परिभाषा और एन्ट्रॉपी_(सांख्यिकीय_थर्मोडायनामिक्स)#गिब्स_एंट्रॉपी_फॉर्मूला के बीच समानता सामान्य नहीं है, बल्कि बोल्ट्ज़मैन वितरण#सामान्यीकृत बोल्ट्ज़मैन वितरण की एक विशेष संपत्ति है। इसके अलावा, यह दिखाया गया है कि सांख्यिकीय यांत्रिकी में एन्ट्रापी की परिभाषा एकमात्र एन्ट्रापी है जो निम्नलिखित अभिधारणाओं के तहत शास्त्रीय थर्मोडायनामिक्स एन्ट्रापी के बराबर है: 1. The probability density function is proportional to some function of the ensemble parameters and random variables.

2. Thermodynamic state functions are described by ensemble averages of random variables.

3. At infinite temperature, all the microstates have the same probability.

सैद्धांतिक संबंध
उपरोक्त के बावजूद, दोनों मात्राओं के बीच अंतर है। सूचना एन्ट्रापी Η की गणना किसी भी संभाव्यता वितरण के लिए की जा सकती है (यदि संदेश को यह माना जाए कि घटना i जिसकी संभाव्यता p थी)iघटित, संभव घटनाओं के स्थान से बाहर), जबकि एन्ट्रापी एस थर्मोडायनामिक संभावनाओं पी को संदर्भित करता हैiविशेष रूप से. हालाँकि, अंतर वास्तविक से अधिक सैद्धांतिक है, क्योंकि किसी भी संभाव्यता वितरण को कुछ थर्मोडायनामिक प्रणाली द्वारा मनमाने ढंग से बारीकी से अनुमानित किया जा सकता है।

इसके अलावा, दोनों के बीच सीधा संबंध बनाया जा सकता है। यदि प्रश्न में संभावनाएँ थर्मोडायनामिक संभावनाएँ p हैंi: (कम) गिब्स एन्ट्रॉपी σ को इसके स्थूल विवरण को देखते हुए, सिस्टम की विस्तृत सूक्ष्म स्थिति को परिभाषित करने के लिए आवश्यक शैनन जानकारी की मात्रा के रूप में देखा जा सकता है। या, 1930 में रासायनिक एन्ट्रापी के बारे में लिखने वाले जी.एन. लुईस के शब्दों में, एन्ट्रापी में लाभ का मतलब हमेशा जानकारी का नुकसान होता है, और कुछ नहीं। अधिक ठोस होने के लिए, आधार दो लघुगणक का उपयोग करते हुए असतत मामले में, कम गिब्स एन्ट्रॉपी माइक्रोस्टेट (सांख्यिकीय यांत्रिकी) को पूरी तरह से निर्दिष्ट करने के लिए उत्तर देने के लिए आवश्यक हां-नहीं प्रश्नों की न्यूनतम संख्या के औसत के बराबर है, यह देखते हुए हम मैक्रोस्टेट को जानते हैं।

इसके अलावा, उचित बाधाओं (गिब्स एल्गोरिथ्म) के अधीन गिब्स एन्ट्रापी को अधिकतम करके सांख्यिकीय यांत्रिकी के संतुलन वितरण को खोजने के नुस्खे - जैसे कि बोल्ट्जमैन वितरण - को थर्मोडायनामिक्स के लिए अद्वितीय नहीं, बल्कि सामान्य प्रासंगिकता के सिद्धांत के रूप में देखा जा सकता है। सांख्यिकीय अनुमान में, यदि इसके औसत पर कुछ बाधाओं के अधीन, अधिकतम एन्ट्रापी का सिद्धांत खोजना वांछित है। (इन परिप्रेक्ष्यों को अधिकतम एन्ट्रापी थर्मोडायनामिक्स लेख में आगे खोजा गया है।)

सूचना सिद्धांत में शैनन एन्ट्रापी को कभी-कभी प्रति प्रतीक बिट्स की इकाइयों में व्यक्त किया जाता है। भौतिक एन्ट्रापी प्रति मात्रा के आधार पर हो सकती है (एच) जिसे सामान्य कुल एन्ट्रापी के बजाय गहन और व्यापक गुण एन्ट्रापी कहा जाता है जिसे व्यापक एन्ट्रापी कहा जाता है। एक संदेश के शैनन (Η) इसकी कुल व्यापक सूचना एन्ट्रापी हैं और संदेश में बिट्स की संख्या का h गुना है।

एच और एस के बीच एक सीधा और शारीरिक रूप से वास्तविक संबंध प्रत्येक माइक्रोस्टेट के लिए एक प्रतीक निर्दिष्ट करके पाया जा सकता है जो एक सजातीय पदार्थ के प्रति मोल, किलोग्राम, आयतन या कण में होता है, फिर इन प्रतीकों के 'एच' की गणना करता है। सिद्धांत या अवलोकन से, प्रतीक (माइक्रोस्टेट्स) अलग-अलग संभावनाओं के साथ घटित होंगे और यह एच निर्धारित करेगा। यदि इकाई पदार्थ के एन मोल, किलोग्राम, आयतन या कण हैं, तो एच (प्रति इकाई पदार्थ बिट्स में) और नेट में भौतिक व्यापक एन्ट्रापी के बीच संबंध है:


 * $$S = k_\mathrm{B} \ln(2) N h$$

जहां ln(2) शैनन एन्ट्रापी के आधार 2 से भौतिक एन्ट्रापी के प्राकृतिक आधार ई में रूपांतरण कारक है। एन एच एन्ट्रापी एस के साथ एक भौतिक प्रणाली की स्थिति का वर्णन करने के लिए आवश्यक बिट्स में जानकारी की मात्रा है। लैंडौएर का सिद्धांत एक आदर्श रूप से कुशल मेमोरी परिवर्तन द्वारा आवश्यक न्यूनतम ऊर्जा ई (और इसलिए गर्मी क्यू उत्पन्न) बताकर इसकी वास्तविकता को प्रदर्शित करता है। सूचना के एनएच बिट्स को अपरिवर्तनीय रूप से मिटाने या विलय करने से तर्क संचालन तापमान का एस गुना होगा


 * $$E = Q = T k_\mathrm{B} \ln(2) N h ,$$

जहां h सूचनात्मक बिट्स में है और E और Q भौतिक जूल में हैं। इसकी प्रयोगात्मक पुष्टि हो चुकी है। तापमान एक आदर्श गैस (केल्विन =) में प्रति कण औसत गतिज ऊर्जा का माप है $2⁄3$ जूल/केB) तो k की J/K इकाइयाँB आयामहीन (जूल/जूल) है। कb ऊर्जा से रूपांतरण कारक है $3⁄2$ एक आदर्श गैस के लिए केल्विन से जूल तक। यदि किसी आदर्श गैस के प्रति कण की गतिज ऊर्जा माप को केल्विन के बजाय जूल के रूप में व्यक्त किया जाता है, तो kb उपरोक्त समीकरणों में 3/2 द्वारा प्रतिस्थापित किया जाएगा। इससे पता चलता है कि एस माइक्रोस्टेट्स का एक सच्चा सांख्यिकीय माप है जिसमें सूचना की इकाइयों के अलावा कोई मौलिक भौतिक इकाई नहीं है, इस मामले में नेट्स, जो कि केवल एक बयान है कि सम्मेलन द्वारा किस लघुगणक आधार को चुना गया था।

स्ज़ीलार्ड का इंजन
एक भौतिक विचार प्रयोग यह प्रदर्शित करता है कि सैद्धांतिक रूप से जानकारी रखने से थर्मोडायनामिक परिणाम कैसे हो सकते हैं, यह प्रसिद्ध मैक्सवेल के दानव परिदृश्य के परिशोधन में, 1929 में लेओ स्ज़ीलार्ड द्वारा स्थापित किया गया था। मैक्सवेल के सेट-अप पर विचार करें, लेकिन एक बॉक्स में केवल एक गैस कण के साथ। यदि अलौकिक दानव को पता है कि कण बॉक्स के किस आधे हिस्से में है (सूचना के एक बिट के बराबर), तो वह बॉक्स के दो हिस्सों के बीच एक शटर बंद कर सकता है, बॉक्स के खाली आधे हिस्से में एक पिस्टन को निर्विरोध बंद कर सकता है, और फिर निकालें $$k_\text{B} T \ln 2$$ यदि शटर दोबारा खोला जाए तो जूल उपयोगी कार्य। फिर कण को ​​समतापीय रूप से अपने मूल संतुलन व्याप्त आयतन में वापस विस्तारित होने के लिए छोड़ा जा सकता है। इसलिए बिल्कुल सही परिस्थितियों में, शैनन जानकारी के एक बिट (ब्रिलॉइन के शब्द में नकारात्मकता का एक बिट) का कब्ज़ा वास्तव में भौतिक प्रणाली की एन्ट्रापी में कमी के अनुरूप है। वैश्विक एन्ट्रॉपी कम नहीं हुई है, लेकिन मुक्त ऊर्जा रूपांतरण की जानकारी संभव है।

इस विचार प्रयोग को एक चरण-विपरीत माइक्रोस्कोपी | चरण-कंट्रास्ट माइक्रोस्कोप का उपयोग करके भौतिक रूप से प्रदर्शित किया गया है, जो एक कंप्यूटर से जुड़े उच्च गति वाले कैमरे से सुसज्जित है, जो दानव के रूप में कार्य करता है। इस प्रयोग में, ऊर्जा रूपांतरण की जानकारी फीडबैक नियंत्रण के माध्यम से एक प्रकार कि गति कण पर की जाती है; अर्थात्, कण को ​​दिए गए कार्य को उसकी स्थिति पर प्राप्त जानकारी के साथ सिंक्रनाइज़ करना। विभिन्न फीडबैक प्रोटोकॉल के लिए ऊर्जा संतुलन की गणना ने पुष्टि की है कि जर्ज़िनस्की समानता के लिए एक सामान्यीकरण की आवश्यकता होती है जो फीडबैक में शामिल जानकारी की मात्रा का हिसाब रखती है।

लैंडौएर का सिद्धांत
वास्तव में कोई भी सामान्यीकरण कर सकता है: कोई भी जानकारी जिसका भौतिक प्रतिनिधित्व है, उसे किसी न किसी तरह भौतिक प्रणाली की स्वतंत्रता की सांख्यिकीय यांत्रिक डिग्री में एम्बेड किया जाना चाहिए।

इस प्रकार, रॉल्फ लैंडौएर ने 1961 में तर्क दिया, यदि कोई थर्मलाइज्ड अवस्था में स्वतंत्रता की उन डिग्री के साथ शुरुआत करने की कल्पना करता है, तो थर्मोडायनामिक एन्ट्रापी में वास्तविक कमी होगी यदि उन्हें फिर से ज्ञात अवस्था में सेट किया जाए। यह केवल सूचना-संरक्षण सूक्ष्म रूप से नियतात्मक गतिशीलता के तहत प्राप्त किया जा सकता है यदि अनिश्चितता को किसी तरह कहीं और डंप किया जाता है - यानी यदि पर्यावरण की एन्ट्रापी (या स्वतंत्रता की गैर-सूचना-असर वाली डिग्री) कम से कम एक समतुल्य मात्रा में बढ़ जाती है, जैसा कि आवश्यक है दूसरे नियम के अनुसार, उचित मात्रा में ऊष्मा प्राप्त करके: विशेष रूप से प्रत्येक 1 बिट यादृच्छिकता के लिए kT ln 2 ऊष्मा मिटा दी जाती है।

दूसरी ओर, लैंडॉउर ने तर्क दिया, सिस्टम में भौतिक रूप से प्रतिवर्ती तरीके से संभावित रूप से प्राप्त किए जाने वाले तार्किक रूप से प्रतिवर्ती ऑपरेशन पर कोई थर्मोडायनामिक आपत्ति नहीं है। यह केवल तार्किक रूप से अपरिवर्तनीय संचालन है - उदाहरण के लिए, किसी ज्ञात स्थिति में बिट को मिटाना, या दो गणना पथों का विलय - जो संबंधित एन्ट्रापी वृद्धि के साथ होना चाहिए। जब सूचना भौतिक होती है, तो इसके अभ्यावेदन की सभी प्रसंस्करण, यानी पीढ़ी, एन्कोडिंग, ट्रांसमिशन, डिकोडिंग और व्याख्या, प्राकृतिक प्रक्रियाएं होती हैं जहां मुक्त ऊर्जा की खपत से एन्ट्रापी बढ़ती है। मैक्सवेल के दानव/स्ज़ीलार्ड इंजन परिदृश्य पर लागू होने पर, यह पता चलता है कि एन्ट्रापी लागत के बिना एक कंप्यूटिंग उपकरण में कण की स्थिति को पढ़ना संभव हो सकता है; लेकिन केवल तभी जब उपकरण पहले से ही मौजूद हो SET अनिश्चितता की थर्मल स्थिति में होने के बजाय, एक ज्ञात स्थिति में। को SET (या RESET ) इस अवस्था में उपकरण को सारी एन्ट्रापी खर्च करनी पड़ेगी जिसे स्ज़ीलार्ड के कण की स्थिति जानकर बचाया जा सकता है।

नेगेंट्रॉपी
शैनन एन्ट्रॉपी को भौतिक विज्ञानी लियोन ब्रिलोइन ने एक अवधारणा से जोड़ा है जिसे कभी-कभी नेगेंट्रॉपी कहा जाता है। 1953 में ब्रिलोइन ने एक सामान्य समीकरण निकाला यह बताते हुए कि सूचना बिट मान को बदलने के लिए कम से कम kT ln(2) ऊर्जा की आवश्यकता होती है। यह वही ऊर्जा है जो आदर्शवादी मामले में लियो स्ज़ीलार्ड का इंजन पैदा करता है, जो बदले में रॉल्फ लैंडौएर द्वारा पाई गई समान मात्रा के बराबर होती है। उनकी किताब में, उन्होंने आगे इस समस्या का पता लगाया और निष्कर्ष निकाला कि बिट मान परिवर्तन (माप, हां/नहीं प्रश्न के बारे में निर्णय, मिटाना, प्रदर्शन इत्यादि) के किसी भी कारण के लिए समान मात्रा, केटी एलएन (2) ऊर्जा की आवश्यकता होगी। नतीजतन, किसी सिस्टम के माइक्रोस्टेट्स के बारे में जानकारी प्राप्त करना एन्ट्रापी उत्पादन से जुड़ा होता है, जबकि मिटाने से एन्ट्रापी उत्पादन तभी होता है जब बिट मान बदल रहा हो। मूल रूप से थर्मल संतुलन में एक उप-प्रणाली में थोड़ी सी जानकारी स्थापित करने से स्थानीय एन्ट्रापी में कमी आती है। हालाँकि, ब्रिलोइन के अनुसार, थर्मोडायनामिक्स के दूसरे नियम का कोई उल्लंघन नहीं है, क्योंकि किसी भी स्थानीय प्रणाली की थर्मोडायनामिक एन्ट्रॉपी में कमी के परिणामस्वरूप अन्यत्र थर्मोडायनामिक एन्ट्रॉपी में वृद्धि होती है। इस प्रकार, ब्रिलोइन ने नेगेंट्रॉपी के अर्थ को स्पष्ट किया जिसे विवादास्पद माना गया क्योंकि इसकी पहले की समझ से कार्नोट की दक्षता एक से अधिक हो सकती है। इसके अतिरिक्त, ब्रिलोइन द्वारा तैयार की गई ऊर्जा और सूचना के बीच संबंध को मस्तिष्क द्वारा संसाधित की जाने वाली बिट्स की मात्रा और उसके द्वारा उपभोग की जाने वाली ऊर्जा के बीच एक संबंध के रूप में प्रस्तावित किया गया है: कोलेल और फॉक्वेट तर्क दिया कि डी कास्त्रो विश्लेषणात्मक रूप से लैंडॉउर सीमा को मस्तिष्क गणना के लिए थर्मोडायनामिक निचली सीमा के रूप में पाया गया। हालाँकि, भले ही विकास ने सबसे ऊर्जावान रूप से कुशल प्रक्रियाओं का चयन किया हो, लेकिन मस्तिष्क में भौतिक निचली सीमाएं यथार्थवादी मात्रा नहीं हैं। सबसे पहले, क्योंकि भौतिकी में मानी जाने वाली न्यूनतम प्रसंस्करण इकाई परमाणु/अणु है, जो मस्तिष्क के संचालन के वास्तविक तरीके से बहुत दूर है; और, दूसरी बात, क्योंकि तंत्रिका नेटवर्क में महत्वपूर्ण अतिरेक और शोर कारक शामिल होते हैं जो उनकी दक्षता को काफी कम कर देते हैं। लाफलिन एट अल. संवेदी जानकारी के प्रसंस्करण की ऊर्जावान लागत के लिए स्पष्ट मात्रा प्रदान करने वाला पहला था। ब्लोफ्लाइज़ में उनके निष्कर्षों से पता चला कि दृश्य संवेदी डेटा के लिए, सूचना के एक बिट को प्रसारित करने की लागत लगभग 5 × 10 है−14जूल, या समकक्ष 104एटीपी अणु। इस प्रकार, तंत्रिका प्रसंस्करण दक्षता अभी भी लैंडॉउर की kTln(2) J की सीमा से बहुत दूर है, लेकिन एक जिज्ञासु तथ्य के रूप में, यह अभी भी आधुनिक कंप्यूटरों की तुलना में बहुत अधिक कुशल है।

2009 में, माहुलिकर और हेरविग ने थर्मोडायनामिक नेगेंट्रॉपी को उसके परिवेश के सापेक्ष गतिशील रूप से आदेशित उप-प्रणाली के विशिष्ट एन्ट्रापी घाटे के रूप में फिर से परिभाषित किया। इस परिभाषा ने नेगेंट्रॉपी सिद्धांत के निर्माण को सक्षम किया, जिसे गणितीय रूप से ऑर्डर अस्तित्व के दौरान थर्मोडायनामिक्स के दूसरे कानून से पालन करने के लिए दिखाया गया है।

क्वांटम सिद्धांत
हिर्शमैन ने दिखाया, सी एफ हिर्शमैन की अनिश्चितता, कि हाइजेनबर्ग के अनिश्चितता सिद्धांत को क्वांटम यांत्रिक स्थिति के क्वांटम अवलोकन योग्य संभाव्यता वितरण के शास्त्रीय वितरण एन्ट्रॉपियों के योग पर एक विशेष निचली सीमा के रूप में व्यक्त किया जा सकता है, तरंग-फ़ंक्शन का वर्ग, समन्वय में, और गति स्थान भी, जब प्लैंक इकाइयों में व्यक्त किया जाता है। परिणामी असमानताएं हाइजेनबर्ग के अनिश्चितता संबंधों पर एक मजबूत बंधन प्रदान करती हैं।

संयुक्त एन्ट्रॉपी निर्दिष्ट करना सार्थक है, क्योंकि स्थिति और संवेग क्वांटम संयुग्म चर हैं और इसलिए संयुक्त रूप से देखने योग्य नहीं हैं। गणितीय रूप से, उन्हें संयुक्त वितरण के रूप में माना जाना चाहिए। ध्यान दें कि यह संयुक्त एन्ट्रॉपी वॉन न्यूमैन एन्ट्रापी के बराबर नहीं है, −Tr ρ lnρ = −⟨lnρ⟩। कहा जाता है कि हिर्शमैन की एन्ट्रॉपी क्वांटम अवस्थाओं के मिश्रण की संपूर्ण सूचना सामग्री के लिए जिम्मेदार होती है। (क्वांटम जानकारी के दृष्टिकोण से वॉन न्यूमैन एन्ट्रापी के प्रति असंतोष स्टॉटलैंड, पोमेरांस्की, बैचमैट और कोहेन द्वारा व्यक्त किया गया है, जिन्होंने एन्ट्रापी की एक अलग परिभाषा पेश की है जो क्वांटम यांत्रिक राज्यों की अंतर्निहित अनिश्चितता को दर्शाती है। यह परिभाषा बीच अंतर की अनुमति देती है। शुद्ध अवस्थाओं की न्यूनतम अनिश्चितता एन्ट्रापी, और मिश्रण की अतिरिक्त सांख्यिकीय एन्ट्रापी। )

यह भी देखें
• Thermodynamic entropy

• Information entropy

• Thermodynamics

• Statistical mechanics

• Information theory

• Quantum entanglement

• Quantum decoherence

• Fluctuation theorem

• Black hole entropy

• Black hole information paradox

• Entropy (information theory)

• Entropy (statistical thermodynamics)

• Entropy (order and disorder)

• Orders of magnitude (entropy)

अग्रिम पठन

 * . [Republication of 1962 original.]
 * (A highly technical collection of writings giving an overview of the concept of entropy as it appears in various disciplines.)
 * (as PDF)
 * (A highly technical collection of writings giving an overview of the concept of entropy as it appears in various disciplines.)
 * (as PDF)
 * (as PDF)
 * (as PDF)
 * (as PDF)
 * (as PDF)
 * (as PDF)
 * (as PDF)

बाहरी संबंध

 * Information Processing and Thermodynamic Entropy Stanford Encyclopedia of Philosophy.
 * An Intuitive Guide to the Concept of Entropy Arising in Various Sectors of Science — a wikibook on the interpretation of the concept of entropy.