संकुचन क्षेत्र (छवि पुनर्स्थापना): Difference between revisions

From Vigyanwiki
Line 6: Line 6:
एक संकुचन (मैपिंग) फ़ंक्शन <math>{f}_{{\pi }_{i}}\left(v\right)={\sum }_{j=1}^{M}{\pi }_{i,j}\exp \left(-\frac{\gamma }{2}{\left(v-{\mu }_{j}\right)}^{2}\right)</math> को सीधे रेडियल आधार फ़ंक्शन कर्नेल के रैखिक संयोजन के रूप में तैयार किया गया है, जहां <math>\gamma </math> साझा सटीक पैरामीटर है, <math>\mu </math> (समदूरस्थ) कर्नेल स्थिति को दर्शाता है, और M गाऊसी कर्नेल की संख्या है।
एक संकुचन (मैपिंग) फ़ंक्शन <math>{f}_{{\pi }_{i}}\left(v\right)={\sum }_{j=1}^{M}{\pi }_{i,j}\exp \left(-\frac{\gamma }{2}{\left(v-{\mu }_{j}\right)}^{2}\right)</math> को सीधे रेडियल आधार फ़ंक्शन कर्नेल के रैखिक संयोजन के रूप में तैयार किया गया है, जहां <math>\gamma </math> साझा सटीक पैरामीटर है, <math>\mu </math> (समदूरस्थ) कर्नेल स्थिति को दर्शाता है, और M गाऊसी कर्नेल की संख्या है।


क्योंकि संकुचन फ़ंक्शन को सीधे मॉडल किया गया है, अनुकूलन प्रक्रिया प्रति पुनरावृत्ति एकल द्विघात न्यूनतमकरण तक कम हो जाती है, जिसे सिकुड़न क्षेत्र की भविष्यवाणी के रूप में दर्शाया जाता है <math>{g}_{\mathrm{\Theta }}\left(\text{x}\right)={\mathcal{F}}^{-1}\left\lbrack \frac{\mathcal{F}\left(\lambda {K}^{T}y+{\sum }_{i=1}^{N}{F}_{i}^{T}{f}_{{\pi }_{i}}\left({F}_{i}x\right)\right)}{\lambda {\check{K}}^{\text{*}}\circ \check{K}+{\sum }_{i=1}^{N}{\check{F}}_{i}^{\text{*}}\circ {\check{F}}_{i}}\right\rbrack ={\mathrm{\Omega }}^{-1}\eta </math> जहां <math>\mathcal{F}</math> असतत फूरियर रूपांतरण को दर्शाता है और <math>F_x</math> 2D है बिंदु प्रसार फ़ंक्शन फ़िल्टर के साथ कनवल्शन <math>\text{f}\otimes \text{x}</math>  <math>\breve{F}</math> एक ऑप्टिकल ट्रांसफर फ़ंक्शन है जिसे <math>\text{f}</math> के असतत फूरियर रूपांतरण के रूप में परिभाषित किया गया है, और <math>{\breve{F}}^{\text{*}}</math><math>\breve{F}</math> का जटिल संयुग्म है।
क्योंकि संकुचन फ़ंक्शन को सीधे मॉडल किया गया है, अनुकूलन प्रक्रिया प्रति पुनरावृत्ति एकल द्विघात न्यूनतमकरण तक कम हो जाती है, जिसे संकुचन क्षेत्र की भविष्यवाणी के रूप में दर्शाया जाता है <math>{g}_{\mathrm{\Theta }}\left(\text{x}\right)={\mathcal{F}}^{-1}\left\lbrack \frac{\mathcal{F}\left(\lambda {K}^{T}y+{\sum }_{i=1}^{N}{F}_{i}^{T}{f}_{{\pi }_{i}}\left({F}_{i}x\right)\right)}{\lambda {\check{K}}^{\text{*}}\circ \check{K}+{\sum }_{i=1}^{N}{\check{F}}_{i}^{\text{*}}\circ {\check{F}}_{i}}\right\rbrack ={\mathrm{\Omega }}^{-1}\eta </math> जहां <math>\mathcal{F}</math> असतत फूरियर रूपांतरण को दर्शाता है और <math>F_x</math> 2D है बिंदु प्रसार फ़ंक्शन फ़िल्टर के साथ कनवल्शन <math>\text{f}\otimes \text{x}</math>  <math>\breve{F}</math> एक ऑप्टिकल ट्रांसफर फ़ंक्शन है जिसे <math>\text{f}</math> के असतत फूरियर रूपांतरण के रूप में परिभाषित किया गया है, और <math>{\breve{F}}^{\text{*}}</math><math>\breve{F}</math> का जटिल संयुग्म है।
 
 


<math>{\hat{x}}_{t}</math> को प्रारंभिक केस <math>{\hat{x}}_{0}=y</math> वॉटरफॉल के साथ प्रत्येक पुनरावृत्ति <math>t</math> के लिए <math>{\hat{x}}_{t}={g}_{{\mathrm{\Theta }}_{t}}\left({\hat{x}}_{t-1}\right)</math> के रूप में सीखा जाता है)। हानि-न्यूनीकरण का उपयोग मॉडल पैरामीटर <math>{\mathrm{\Theta }}_{t}={\left\lbrace {\lambda }_{t},{\pi }_{\mathit{ti}},{f}_{\mathit{ti}}\right\rbrace }_{i=1}^{N}</math>सीखने के लिए किया जाता है।
<math>{\hat{x}}_{t}</math> को प्रारंभिक केस <math>{\hat{x}}_{0}=y</math> वॉटरफॉल के साथ प्रत्येक पुनरावृत्ति <math>t</math> के लिए <math>{\hat{x}}_{t}={g}_{{\mathrm{\Theta }}_{t}}\left({\hat{x}}_{t-1}\right)</math> के रूप में सीखा जाता है)। हानि-न्यूनीकरण का उपयोग मॉडल पैरामीटर <math>{\mathrm{\Theta }}_{t}={\left\lbrace {\lambda }_{t},{\pi }_{\mathit{ti}},{f}_{\mathit{ti}}\right\rbrace }_{i=1}^{N}</math>सीखने के लिए किया जाता है।
Line 14: Line 12:
सीखने के उद्देश्य फ़ंक्शन को <math>J\left({\mathrm{\Theta }}_{t}\right)={\sum }_{s=1}^{S}l\left({\hat{x}}_{t}^{\left(s\right)};{x}_{gt}^{\left(s\right)}\right)</math>के रूप में परिभाषित किया गया है। जहां <math>l</math> एक अलग-अलग हानि फ़ंक्शन है जिसे प्रशिक्षण डेटा <math>{\left\lbrace {x}_{gt}^{\left(s\right)},{y}^{\left(s\right)},{k}^{\left(s\right)}\right\rbrace }_{s=1}^{S}</math> <math>{\hat{x}}_{t}^{\left(s\right)}</math> का उपयोग करके अति लोभ से से कम किया जाता है।
सीखने के उद्देश्य फ़ंक्शन को <math>J\left({\mathrm{\Theta }}_{t}\right)={\sum }_{s=1}^{S}l\left({\hat{x}}_{t}^{\left(s\right)};{x}_{gt}^{\left(s\right)}\right)</math>के रूप में परिभाषित किया गया है। जहां <math>l</math> एक अलग-अलग हानि फ़ंक्शन है जिसे प्रशिक्षण डेटा <math>{\left\lbrace {x}_{gt}^{\left(s\right)},{y}^{\left(s\right)},{k}^{\left(s\right)}\right\rbrace }_{s=1}^{S}</math> <math>{\hat{x}}_{t}^{\left(s\right)}</math> का उपयोग करके अति लोभ से से कम किया जाता है।


== प्रदर्शन ==
== '''निष्पादन''' ==
लेखक द्वारा प्रारंभिक परीक्षणों से पता चलता है कि आर.टी.एफ<sub>5</sub><ref>
लेखक द्वारा प्रारंभिक परीक्षणों से पता चलता है कि RTF<sub>5</sub><ref>
{{cite conference |title= Regression Tree Fields – An Efficient, Non-parametric Approach to Image Labeling Problems  |last1=Jancsary |first1= Jeremy|last2=Nowozin |first2= Sebastian |last3=Sharp|first3=Toby|last4=Rother|first4=Carsten |date=10 April 2012 |conference= IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR)  |publisher= IEEE Computer Society  |location=Providence, RI, USA |doi=10.1109/CVPR.2012.6247950 }}
{{cite conference |title= Regression Tree Fields – An Efficient, Non-parametric Approach to Image Labeling Problems  |last1=Jancsary |first1= Jeremy|last2=Nowozin |first2= Sebastian |last3=Sharp|first3=Toby|last4=Rother|first4=Carsten |date=10 April 2012 |conference= IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR)  |publisher= IEEE Computer Society  |location=Providence, RI, USA |doi=10.1109/CVPR.2012.6247950 }}
</ref> की तुलना में थोड़ा बेहतर प्रदर्शन प्रदर्शन प्राप्त करता है <math>{\text{CSF}}_{7\times 7}^{\left\lbrace \mathrm{3,4,5}\right\rbrace }</math>, के बाद <math>{\text{CSF}}_{5\times 5}^{5}</math>, <math>{\text{CSF}}_{7\times 7}^{2}</math>, <math>{\text{CSF}}_{5\times 5}^{\left\lbrace \mathrm{3,4}\right\rbrace }</math>, और [[ब्लॉक-मिलान और 3डी फ़िल्टरिंग]]।
</ref> <math>{\text{CSF}}_{7\times 7}^{\left\lbrace \mathrm{3,4,5}\right\rbrace }</math> की तुलना में थोड़ा बेहतर प्रदर्शन प्राप्त करता है, इसके बाद <math>{\text{CSF}}_{5\times 5}^{5}</math>, <math>{\text{CSF}}_{7\times 7}^{2}</math>, <math>{\text{CSF}}_{5\times 5}^{\left\lbrace \mathrm{3,4}\right\rbrace }</math>, और BM3D.
 
BM3D डीनोइज़िंग गति <math>{\text{CSF}}_{5\times 5}^{4}</math> और <math>{\text{CSF}}_{7\times 7}^{4}</math> के बीच आती है, आरटीएफ  धीमी गति का क्रम है।


ब्लॉक-मैचिंग और 3डी फ़िल्टरिंग डीनोइज़िंग गति के बीच में आती है <math>{\text{CSF}}_{5\times 5}^{4}</math> और <math>{\text{CSF}}_{7\times 7}^{4}</math>, आरटीएफ परिमाण का क्रम धीमा है।
== '''लाभ''' ==


== लाभ ==
* परिणाम BM3D द्वारा प्राप्त परिणामों से तुलनीय हैं (2007 में अपनी स्थापना के बाद से अत्याधुनिक डीनोइज़िंग में संदर्भ)
* परिणाम ब्लॉक-मैचिंग और 3डी फ़िल्टरिंग द्वारा प्राप्त परिणामों से तुलनीय हैं (2007 में इसकी स्थापना के बाद से अत्याधुनिक डीनोइज़िंग में संदर्भ)
* अन्य उच्च-प्रदर्शन विधियों की तुलना में न्यूनतम रनटाइम (संभावित रूप से एम्बेडेड डिवाइस के भीतर लागू)
* अन्य उच्च-प्रदर्शन विधियों की तुलना में न्यूनतम रनटाइम (संभवतः एम्बेडेड उपकरणों के भीतर लागू)
* समानांतरीकरण योग्य (जैसे: संभव जीपीयू कार्यान्वयन)
* समानांतरीकरण योग्य (जैसे: संभावित जीपीयू कार्यान्वयन)
* पूर्वानुमेयता: <math>O(D \log D)</math> रनटाइम जहां <math>D</math> पिक्सेल की संख्या है
* पूर्वानुमेयता: <math>O(D \log D)</math> रनटाइम कहां <math>D</math> पिक्सेल की संख्या है
* सीपीयू के साथ भी तेज़ प्रशिक्षण
* सीपीयू के साथ भी तेज प्रशिक्षण


== कार्यान्वयन ==
== कार्यान्वयन ==
* एक संदर्भ कार्यान्वयन [[MATLAB]] में लिखा गया है और BSD 2-क्लॉज लाइसेंस के तहत जारी किया गया है: [https://github.com/uschmidt83/shlinkage-fields संकुचन-फील्ड्स]
* एक संदर्भ कार्यान्वयन मैटलैब में लिखा गया है और बीएसडी 2-क्लॉज लाइसेंस के अंतर्गत जारी किया गया है: संकुचन-फ़ील्ड


== यह भी देखें ==
== यह भी देखें ==
* यादृच्छिक क्षेत्र
* यादृच्छिक क्षेत्र
* असतत फूरियर रूपांतरण
* असतत फूरियर रूपांतरण
* [[कनवल्शन]]
* संवलन
* [[शोर में कमी]]
* रव में कमी
* धुंधलापन
* अस्पष्टता


==संदर्भ==
==संदर्भ==

Revision as of 10:23, 14 December 2023

संकुचन क्षेत्र एक यादृच्छिक क्षेत्र-आधारित मशीन लर्निंग तकनीक है जिसका उद्देश्य कम कम्प्यूटेशनल ओवरहेड का उपयोग करके उच्च गुणवत्ता वाली छवि पुनर्स्थापना (डीनोइजिंग और डीब्लरिंग) करना है।

विधि

पुनर्स्थापित छवि का अनुमान नमूना छवियों के एक सेट पर प्रशिक्षण के बाद एक दूषित अवलोकन से लगाया गया है।

एक संकुचन (मैपिंग) फ़ंक्शन को सीधे रेडियल आधार फ़ंक्शन कर्नेल के रैखिक संयोजन के रूप में तैयार किया गया है, जहां साझा सटीक पैरामीटर है, (समदूरस्थ) कर्नेल स्थिति को दर्शाता है, और M गाऊसी कर्नेल की संख्या है।

क्योंकि संकुचन फ़ंक्शन को सीधे मॉडल किया गया है, अनुकूलन प्रक्रिया प्रति पुनरावृत्ति एकल द्विघात न्यूनतमकरण तक कम हो जाती है, जिसे संकुचन क्षेत्र की भविष्यवाणी के रूप में दर्शाया जाता है जहां असतत फूरियर रूपांतरण को दर्शाता है और 2D है बिंदु प्रसार फ़ंक्शन फ़िल्टर के साथ कनवल्शन एक ऑप्टिकल ट्रांसफर फ़ंक्शन है जिसे के असतत फूरियर रूपांतरण के रूप में परिभाषित किया गया है, और का जटिल संयुग्म है।

को प्रारंभिक केस वॉटरफॉल के साथ प्रत्येक पुनरावृत्ति के लिए के रूप में सीखा जाता है)। हानि-न्यूनीकरण का उपयोग मॉडल पैरामीटर सीखने के लिए किया जाता है।

सीखने के उद्देश्य फ़ंक्शन को के रूप में परिभाषित किया गया है। जहां एक अलग-अलग हानि फ़ंक्शन है जिसे प्रशिक्षण डेटा का उपयोग करके अति लोभ से से कम किया जाता है।

निष्पादन

लेखक द्वारा प्रारंभिक परीक्षणों से पता चलता है कि RTF5[1] की तुलना में थोड़ा बेहतर प्रदर्शन प्राप्त करता है, इसके बाद , , , और BM3D.

BM3D डीनोइज़िंग गति और के बीच आती है, आरटीएफ धीमी गति का क्रम है।

लाभ

  • परिणाम BM3D द्वारा प्राप्त परिणामों से तुलनीय हैं (2007 में अपनी स्थापना के बाद से अत्याधुनिक डीनोइज़िंग में संदर्भ)
  • अन्य उच्च-प्रदर्शन विधियों की तुलना में न्यूनतम रनटाइम (संभावित रूप से एम्बेडेड डिवाइस के भीतर लागू)
  • समानांतरीकरण योग्य (जैसे: संभव जीपीयू कार्यान्वयन)
  • पूर्वानुमेयता: रनटाइम जहां पिक्सेल की संख्या है
  • सीपीयू के साथ भी तेज़ प्रशिक्षण

कार्यान्वयन

  • एक संदर्भ कार्यान्वयन मैटलैब में लिखा गया है और बीएसडी 2-क्लॉज लाइसेंस के अंतर्गत जारी किया गया है: संकुचन-फ़ील्ड

यह भी देखें

  • यादृच्छिक क्षेत्र
  • असतत फूरियर रूपांतरण
  • संवलन
  • रव में कमी
  • अस्पष्टता

संदर्भ

  1. Jancsary, Jeremy; Nowozin, Sebastian; Sharp, Toby; Rother, Carsten (10 April 2012). Regression Tree Fields – An Efficient, Non-parametric Approach to Image Labeling Problems. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). Providence, RI, USA: IEEE Computer Society. doi:10.1109/CVPR.2012.6247950.