संकुचन क्षेत्र (छवि पुनर्स्थापना): Difference between revisions

From Vigyanwiki
No edit summary
Line 4: Line 4:
पुनर्स्थापित छवि <math>x</math> का अनुमान नमूना छवियों <math>S</math> के एक सेट पर प्रशिक्षण के बाद एक दूषित अवलोकन <math>y</math> से लगाया गया है।
पुनर्स्थापित छवि <math>x</math> का अनुमान नमूना छवियों <math>S</math> के एक सेट पर प्रशिक्षण के बाद एक दूषित अवलोकन <math>y</math> से लगाया गया है।


एक संकुचन (मैपिंग) फ़ंक्शन <math>{f}_{{\pi }_{i}}\left(v\right)={\sum }_{j=1}^{M}{\pi }_{i,j}\exp \left(-\frac{\gamma }{2}{\left(v-{\mu }_{j}\right)}^{2}\right)</math> को सीधे रेडियल आधार फ़ंक्शन कर्नेल के रैखिक संयोजन के रूप में तैयार किया गया है, जहां <math>\gamma </math> साझा सटीक पैरामीटर है, <math>\mu </math> (समदूरस्थ) कर्नेल स्थिति को दर्शाता है, और M गाऊसी कर्नेल की संख्या है।
संकुचन (मैपिंग) फलन <math>{f}_{{\pi }_{i}}\left(v\right)={\sum }_{j=1}^{M}{\pi }_{i,j}\exp \left(-\frac{\gamma }{2}{\left(v-{\mu }_{j}\right)}^{2}\right)</math> को सीधे रेडियल आधार फलन कर्नेल के रैखिक संयोजन के रूप में तैयार किया गया है, जहां <math>\gamma </math> साझा सटीक पैरामीटर है, <math>\mu </math> (समदूरस्थ) कर्नेल स्थिति को दर्शाता है, और M गाऊसी कर्नेल की संख्या है।


क्योंकि संकुचन फ़ंक्शन को सीधे मॉडल किया गया है, अनुकूलन प्रक्रिया प्रति पुनरावृत्ति एकल द्विघात न्यूनतमकरण तक कम हो जाती है, जिसे संकुचन क्षेत्र की भविष्यवाणी के रूप में दर्शाया जाता है <math>{g}_{\mathrm{\Theta }}\left(\text{x}\right)={\mathcal{F}}^{-1}\left\lbrack \frac{\mathcal{F}\left(\lambda {K}^{T}y+{\sum }_{i=1}^{N}{F}_{i}^{T}{f}_{{\pi }_{i}}\left({F}_{i}x\right)\right)}{\lambda {\check{K}}^{\text{*}}\circ \check{K}+{\sum }_{i=1}^{N}{\check{F}}_{i}^{\text{*}}\circ {\check{F}}_{i}}\right\rbrack ={\mathrm{\Omega }}^{-1}\eta </math> जहां <math>\mathcal{F}</math> असतत फूरियर रूपांतरण को दर्शाता है और <math>F_x</math> 2D है बिंदु प्रसार फ़ंक्शन फ़िल्टर के साथ कनवल्शन <math>\text{f}\otimes \text{x}</math>  <math>\breve{F}</math> एक ऑप्टिकल ट्रांसफर फ़ंक्शन है जिसे <math>\text{f}</math> के असतत फूरियर रूपांतरण के रूप में परिभाषित किया गया है, और <math>{\breve{F}}^{\text{*}}</math><math>\breve{F}</math> का जटिल संयुग्म है।
क्योंकि संकुचन फलन को सीधे मॉडल किया गया है, अनुकूलन प्रक्रिया प्रति पुनरावृत्ति एकल द्विघात न्यूनतमकरण तक कम हो जाती है, जिसे संकुचन क्षेत्र की अनुमान के रूप में दर्शाया जाता है <math>{g}_{\mathrm{\Theta }}\left(\text{x}\right)={\mathcal{F}}^{-1}\left\lbrack \frac{\mathcal{F}\left(\lambda {K}^{T}y+{\sum }_{i=1}^{N}{F}_{i}^{T}{f}_{{\pi }_{i}}\left({F}_{i}x\right)\right)}{\lambda {\check{K}}^{\text{*}}\circ \check{K}+{\sum }_{i=1}^{N}{\check{F}}_{i}^{\text{*}}\circ {\check{F}}_{i}}\right\rbrack ={\mathrm{\Omega }}^{-1}\eta </math> जहां <math>\mathcal{F}</math> असतत फूरियर रूपांतरण को दर्शाता है और <math>F_x</math> 2D है बिंदु प्रसार फलन फ़िल्टर के साथ कनवल्शन <math>\text{f}\otimes \text{x}</math>  <math>\breve{F}</math> एक ऑप्टिकल ट्रांसफर फलन है जिसे <math>\text{f}</math> के असतत फूरियर रूपांतरण के रूप में परिभाषित किया गया है, और <math>{\breve{F}}^{\text{*}}</math><math>\breve{F}</math> का जटिल संयुग्म है।


<math>{\hat{x}}_{t}</math> को प्रारंभिक केस <math>{\hat{x}}_{0}=y</math> वॉटरफॉल के साथ प्रत्येक पुनरावृत्ति <math>t</math> के लिए <math>{\hat{x}}_{t}={g}_{{\mathrm{\Theta }}_{t}}\left({\hat{x}}_{t-1}\right)</math> के रूप में सीखा जाता है)। हानि-न्यूनीकरण का उपयोग मॉडल पैरामीटर <math>{\mathrm{\Theta }}_{t}={\left\lbrace {\lambda }_{t},{\pi }_{\mathit{ti}},{f}_{\mathit{ti}}\right\rbrace }_{i=1}^{N}</math>सीखने के लिए किया जाता है।
<math>{\hat{x}}_{t}</math> को प्रारंभिक केस <math>{\hat{x}}_{0}=y</math> वॉटरफॉल के साथ प्रत्येक पुनरावृत्ति <math>t</math> के लिए <math>{\hat{x}}_{t}={g}_{{\mathrm{\Theta }}_{t}}\left({\hat{x}}_{t-1}\right)</math> के रूप में सीखा जाता है)। हानि-न्यूनीकरण का उपयोग मॉडल पैरामीटर <math>{\mathrm{\Theta }}_{t}={\left\lbrace {\lambda }_{t},{\pi }_{\mathit{ti}},{f}_{\mathit{ti}}\right\rbrace }_{i=1}^{N}</math>सीखने के लिए किया जाता है।


सीखने के उद्देश्य फ़ंक्शन को <math>J\left({\mathrm{\Theta }}_{t}\right)={\sum }_{s=1}^{S}l\left({\hat{x}}_{t}^{\left(s\right)};{x}_{gt}^{\left(s\right)}\right)</math>के रूप में परिभाषित किया गया है। जहां <math>l</math> एक अलग-अलग हानि फ़ंक्शन है जिसे प्रशिक्षण डेटा <math>{\left\lbrace {x}_{gt}^{\left(s\right)},{y}^{\left(s\right)},{k}^{\left(s\right)}\right\rbrace }_{s=1}^{S}</math> <math>{\hat{x}}_{t}^{\left(s\right)}</math> का उपयोग करके अति लोभ से से कम किया जाता है।
सीखने के उद्देश्य फलन को <math>J\left({\mathrm{\Theta }}_{t}\right)={\sum }_{s=1}^{S}l\left({\hat{x}}_{t}^{\left(s\right)};{x}_{gt}^{\left(s\right)}\right)</math>के रूप में परिभाषित किया गया है। जहां <math>l</math> एक अलग-अलग हानि फलन है जिसे प्रशिक्षण डेटा <math>{\left\lbrace {x}_{gt}^{\left(s\right)},{y}^{\left(s\right)},{k}^{\left(s\right)}\right\rbrace }_{s=1}^{S}</math> <math>{\hat{x}}_{t}^{\left(s\right)}</math> का उपयोग करके अति लोभ से से कम किया जाता है।


== '''निष्पादन''' ==
== '''निष्पादन''' ==
Line 17: Line 17:
</ref> <math>{\text{CSF}}_{7\times 7}^{\left\lbrace \mathrm{3,4,5}\right\rbrace }</math> की तुलना में थोड़ा बेहतर प्रदर्शन प्राप्त करता है, इसके बाद <math>{\text{CSF}}_{5\times 5}^{5}</math>, <math>{\text{CSF}}_{7\times 7}^{2}</math>, <math>{\text{CSF}}_{5\times 5}^{\left\lbrace \mathrm{3,4}\right\rbrace }</math>, और BM3D.
</ref> <math>{\text{CSF}}_{7\times 7}^{\left\lbrace \mathrm{3,4,5}\right\rbrace }</math> की तुलना में थोड़ा बेहतर प्रदर्शन प्राप्त करता है, इसके बाद <math>{\text{CSF}}_{5\times 5}^{5}</math>, <math>{\text{CSF}}_{7\times 7}^{2}</math>, <math>{\text{CSF}}_{5\times 5}^{\left\lbrace \mathrm{3,4}\right\rbrace }</math>, और BM3D.


BM3D डीनोइज़िंग गति <math>{\text{CSF}}_{5\times 5}^{4}</math> और <math>{\text{CSF}}_{7\times 7}^{4}</math> के बीच आती है, आरटीएफ धीमी गति का क्रम है।
BM3D डीनोइज़िंग गति <math>{\text{CSF}}_{5\times 5}^{4}</math> और <math>{\text{CSF}}_{7\times 7}^{4}</math> के बीच आती है, आरटीएफ धीमी गति का क्रम है।


== '''लाभ''' ==
== '''लाभ''' ==

Revision as of 10:25, 14 December 2023

संकुचन क्षेत्र एक यादृच्छिक क्षेत्र-आधारित मशीन लर्निंग तकनीक है जिसका उद्देश्य कम कम्प्यूटेशनल ओवरहेड का उपयोग करके उच्च गुणवत्ता वाली छवि पुनर्स्थापना (डीनोइजिंग और डीब्लरिंग) करना है।

विधि

पुनर्स्थापित छवि का अनुमान नमूना छवियों के एक सेट पर प्रशिक्षण के बाद एक दूषित अवलोकन से लगाया गया है।

संकुचन (मैपिंग) फलन को सीधे रेडियल आधार फलन कर्नेल के रैखिक संयोजन के रूप में तैयार किया गया है, जहां साझा सटीक पैरामीटर है, (समदूरस्थ) कर्नेल स्थिति को दर्शाता है, और M गाऊसी कर्नेल की संख्या है।

क्योंकि संकुचन फलन को सीधे मॉडल किया गया है, अनुकूलन प्रक्रिया प्रति पुनरावृत्ति एकल द्विघात न्यूनतमकरण तक कम हो जाती है, जिसे संकुचन क्षेत्र की अनुमान के रूप में दर्शाया जाता है जहां असतत फूरियर रूपांतरण को दर्शाता है और 2D है बिंदु प्रसार फलन फ़िल्टर के साथ कनवल्शन एक ऑप्टिकल ट्रांसफर फलन है जिसे के असतत फूरियर रूपांतरण के रूप में परिभाषित किया गया है, और का जटिल संयुग्म है।

को प्रारंभिक केस वॉटरफॉल के साथ प्रत्येक पुनरावृत्ति के लिए के रूप में सीखा जाता है)। हानि-न्यूनीकरण का उपयोग मॉडल पैरामीटर सीखने के लिए किया जाता है।

सीखने के उद्देश्य फलन को के रूप में परिभाषित किया गया है। जहां एक अलग-अलग हानि फलन है जिसे प्रशिक्षण डेटा का उपयोग करके अति लोभ से से कम किया जाता है।

निष्पादन

लेखक द्वारा प्रारंभिक परीक्षणों से पता चलता है कि RTF5[1] की तुलना में थोड़ा बेहतर प्रदर्शन प्राप्त करता है, इसके बाद , , , और BM3D.

BM3D डीनोइज़िंग गति और के बीच आती है, आरटीएफ धीमी गति का क्रम है।

लाभ

  • परिणाम BM3D द्वारा प्राप्त परिणामों से तुलनीय हैं (2007 में अपनी स्थापना के बाद से अत्याधुनिक डीनोइज़िंग में संदर्भ)
  • अन्य उच्च-प्रदर्शन विधियों की तुलना में न्यूनतम रनटाइम (संभावित रूप से एम्बेडेड डिवाइस के भीतर लागू)
  • समानांतरीकरण योग्य (जैसे: संभव जीपीयू कार्यान्वयन)
  • पूर्वानुमेयता: रनटाइम जहां पिक्सेल की संख्या है
  • सीपीयू के साथ भी तेज़ प्रशिक्षण

कार्यान्वयन

  • एक संदर्भ कार्यान्वयन मैटलैब में लिखा गया है और बीएसडी 2-क्लॉज लाइसेंस के अंतर्गत जारी किया गया है: संकुचन-फ़ील्ड

यह भी देखें

  • यादृच्छिक क्षेत्र
  • असतत फूरियर रूपांतरण
  • संवलन
  • रव में कमी
  • अस्पष्टता

संदर्भ

  1. Jancsary, Jeremy; Nowozin, Sebastian; Sharp, Toby; Rother, Carsten (10 April 2012). Regression Tree Fields – An Efficient, Non-parametric Approach to Image Labeling Problems. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR). Providence, RI, USA: IEEE Computer Society. doi:10.1109/CVPR.2012.6247950.