वेक्टर परिमाणीकरण

वेक्टर परिमाणीकरण (VQ) संकेत आगे बढ़ाना  से एक शास्त्रीय परिमाणीकरण (सिग्नल प्रोसेसिंग) तकनीक है जो प्रोटोटाइप वैक्टर के वितरण द्वारा संभाव्यता घनत्व कार्यों के मॉडलिंग की अनुमति देता है। इसका उपयोग मूल रूप से डेटा संपीड़न के लिए किया गया था। यह बिंदुओं के एक बड़े समूह (समन्वय वैक्टर) को उन समूहों में विभाजित करके काम करता है जिनके निकटतम बिंदुओं की संख्या लगभग समान होती है। प्रत्येक समूह को उसके केन्द्रक बिंदु द्वारा दर्शाया जाता है, जैसा कि k-साधन और कुछ अन्य क्लस्टर विश्लेषण एल्गोरिदम में होता है।

वेक्टर परिमाणीकरण की घनत्व मिलान संपत्ति शक्तिशाली है, विशेष रूप से बड़े और उच्च-आयामी डेटा के घनत्व की पहचान करने के लिए। चूँकि डेटा बिंदुओं को उनके निकटतम सेंट्रोइड के सूचकांक द्वारा दर्शाया जाता है, आमतौर पर होने वाले डेटा में कम त्रुटि होती है, और दुर्लभ डेटा में उच्च त्रुटि होती है। यही कारण है कि VQ हानिपूर्ण डेटा संपीड़न के लिए उपयुक्त है। इसका उपयोग हानिपूर्ण डेटा सुधार और घनत्व अनुमान के लिए भी किया जा सकता है।

वेक्टर परिमाणीकरण प्रतिस्पर्धी शिक्षण प्रतिमान पर आधारित है, इसलिए यह स्व-संगठित मानचित्र मॉडल और ऑटोएन्कोडर  जैसे गहन शिक्षण एल्गोरिदम में उपयोग किए जाने वाले विरल कोडिंग मॉडल से निकटता से संबंधित है।

प्रशिक्षण
वेक्टर परिमाणीकरण के लिए सबसे सरल प्रशिक्षण एल्गोरिदम है:
 * 1) यादृच्छिक रूप से एक नमूना बिंदु चुनें
 * 2) दूरी के एक छोटे से अंश द्वारा, निकटतम परिमाणीकरण वेक्टर सेंट्रोइड को इस नमूना बिंदु की ओर ले जाएं
 * 3) दोहराना

एक अधिक परिष्कृत एल्गोरिदम घनत्व मिलान अनुमान में पूर्वाग्रह को कम करता है, और अतिरिक्त संवेदनशीलता पैरामीटर को शामिल करके यह सुनिश्चित करता है कि सभी बिंदुओं का उपयोग किया जाता है :
 * 1) प्रत्येक केन्द्रक की संवेदनशीलता बढ़ाएँ $$s_i$$ एक छोटी राशि से
 * 2) एक नमूना बिंदु चुनें $$P$$ बिना सोचे समझे
 * 3) प्रत्येक परिमाणीकरण वेक्टर केन्द्रक के लिए $$c_i$$, होने देना $$d(P, c_i)$$ की दूरी को निरूपित करें $$P$$ और $$c_i$$
 * 4) केन्द्रक ज्ञात कीजिए $$c_i$$ जिसके लिए $$d(P, c_i) - s_i$$ सबसे छोटा है
 * 5) कदम $$c_i$$ की ओर $$P$$ दूरी के एक छोटे से अंश से
 * 6) तय करना $$s_i$$ शून्य करने के लिए
 * 7) दोहराना

अभिसरण उत्पन्न करने के लिए कूलिंग शेड्यूल का उपयोग करना वांछनीय है: तैयार किए हुयी धातु पे पानी चढाने की कला  देखें। एक अन्य (सरल) विधि लिंडे-बुज़ो-ग्रे एल्गोरिदम है जो  K- का अर्थ है क्लस्टरिंग |के-मीन्स पर आधारित है।

एल्गोरिदम को डेटा सेट से यादृच्छिक बिंदुओं को चुनने के बजाय 'लाइव' डेटा के साथ पुनरावृत्त रूप से अद्यतन किया जा सकता है, लेकिन यदि डेटा कई नमूनों पर अस्थायी रूप से सहसंबद्ध है तो यह कुछ पूर्वाग्रह पेश करेगा।

अनुप्रयोग
वेक्टर परिमाणीकरण का उपयोग हानिपूर्ण डेटा संपीड़न, हानिपूर्ण डेटा सुधार, पैटर्न पहचान, घनत्व अनुमान और क्लस्टरिंग के लिए किया जाता है।

हानिपूर्ण डेटा सुधार, या भविष्यवाणी, का उपयोग कुछ आयामों से गायब डेटा को पुनर्प्राप्त करने के लिए किया जाता है। यह उपलब्ध डेटा आयामों के साथ निकटतम समूह को ढूंढकर किया जाता है, फिर लापता आयामों के मानों के आधार पर परिणाम की भविष्यवाणी की जाती है, यह मानते हुए कि उनका मान समूह के सेंट्रोइड के समान होगा।

घनत्व अनुमान के लिए, वह क्षेत्र/आयतन जो किसी अन्य की तुलना में किसी विशेष केन्द्रक के करीब है, घनत्व के व्युत्क्रमानुपाती होता है (एल्गोरिदम की घनत्व मिलान संपत्ति के कारण)।

डेटा संपीड़न में उपयोग
सदिश स्थलिमाणीकरण, जिसे ब्लॉक परिमाणीकरण या पैटर्न मिलान परिमाणीकरण भी कहा जाता है, अक्सर हानिपूर्ण डेटा संपीड़न में उपयोग किया जाता है। यह एक बहुआयामी वेक्टर स्थान से मूल्यों को निचले आयाम के एक असतत रैखिक उपस्थान से मूल्यों के एक सीमित सेट में एन्कोडिंग द्वारा काम करता है। निचले-स्थान वाले वेक्टर को कम संग्रहण स्थान की आवश्यकता होती है, इसलिए डेटा संपीड़ित होता है। वेक्टर परिमाणीकरण की घनत्व मिलान संपत्ति के कारण, संपीड़ित डेटा में त्रुटियां होती हैं जो घनत्व के व्युत्क्रमानुपाती होती हैं।

परिवर्तन आमतौर पर प्रक्षेपण (गणित) या कोडबुक का उपयोग करके किया जाता है। कुछ मामलों में, एक कोडबुक का उपयोग आउटपुट के रूप में एक उपसर्ग कोडित चर-लंबाई एन्कोडेड मान उत्पन्न करके, उसी चरण में असतत मान को एन्ट्रापी कोड करने के लिए भी किया जा सकता है।

अलग-अलग आयाम स्तरों के सेट को प्रत्येक नमूने को अलग से परिमाणित करने के बजाय संयुक्त रूप से परिमाणित किया जाता है। एक k-आयामी वेक्टर पर विचार करें $$[x_1,x_2,...,x_k]$$ आयाम स्तर का. इसे एन-डायमेंशनल वैक्टर के सेट से निकटतम मिलान वाले वेक्टर को चुनकर संपीड़ित किया जाता है $$[y_1,y_2,...,y_n]$$, n < k के साथ।

एन-आयामी वेक्टर के सभी संभावित संयोजन $$[y_1,y_2,...,y_n]$$ उस सदिश समष्टि का निर्माण करें जिससे सभी परिमाणित सदिश संबंधित हों।

कोडबुक में परिमाणित मानों के बजाय केवल कोडवर्ड का सूचकांक भेजा जाता है। इससे स्थान की बचत होती है और अधिक संपीड़न प्राप्त होता है।

MPEG-4 (VQF) में TwinVQ#TwinVQ समय डोमेन भारित इंटरलीव्ड वेक्टर परिमाणीकरण से संबंधित MPEG-4 मानक का हिस्सा है।

वेक्टर परिमाणीकरण पर आधारित वीडियो कोडेक्स
वेक्टर परिमाणीकरण पर आधारित वीडियो कोडेक्स के उपयोग में मोशन कंपंसेशन#ब्लॉक मोशन कंपंसेशन पूर्वानुमान के साथ ट्रांसफॉर्म कोडिंग#डिजिटल, जैसे के आधार पर काफी गिरावट आई है। जिन्हें एमपीईजी मानकों में परिभाषित किया गया है, क्योंकि वेक्टर परिमाणीकरण की कम डिकोडिंग जटिलता कम प्रासंगिक हो गई है।
 * बैंक वीडियो
 * सिनेपैक
 * डाला परिवर्तन-आधारित है लेकिन रूपांतरित गुणांकों पर पिरामिड वेक्टर परिमाणीकरण का उपयोग करता है
 * डिजिटल वीडियो इंटरैक्टिव: प्रोडक्शन-लेवल वीडियो और रियल-टाइम वीडियो
 * Indeo
 * माइक्रोसॉफ्ट वीडियो 1
 * क्विकटाइम#क्विकटाइम 1.x: एप्पल वीडियो (आरपीजेडए) और क्विकटाइम ग्राफ़िक्स कोडेक  (एसएमसी)
 * सोरेनसन कोडेक SVQ1 और SVQ3
 * स्मैकर वीडियो
 * .VQA प्रारूप, कई खेलों में उपयोग किया जाता है

वेक्टर परिमाणीकरण पर आधारित ऑडियो कोडेक्स

 * अमर+
 * सीईएलपी
 * कोडेक 2
 * डीटीएस सुसंगत ध्वनिकी
 * जी.729
 * iLBC
 * ऑग वॉर्बिस
 * ओपस (कोडेक) ट्रांसफ़ॉर्म-आधारित है लेकिन रूपांतरित गुणांकों पर पिरामिड वेक्टर परिमाणीकरण का उपयोग करता है
 * ट्विनवीक्यू

पैटर्न पहचान में उपयोग
VQ का उपयोग अस्सी के दशक में भाषण के लिए भी किया जाता था और वक्ता की पहचान। हाल ही में इसका उपयोग कुशल निकटतम पड़ोसी खोज के लिए भी किया गया है और ऑन-लाइन हस्ताक्षर पहचान। पैटर्न पहचान अनुप्रयोगों में, इस उपयोगकर्ता के ध्वनिक वैक्टर का उपयोग करके प्रत्येक वर्ग (प्रत्येक वर्ग बायोमेट्रिक अनुप्रयोगों में एक उपयोगकर्ता होता है) के लिए एक कोडबुक का निर्माण किया जाता है। परीक्षण चरण में प्रशिक्षण चरण में प्राप्त कोडबुक के पूरे सेट के साथ परीक्षण सिग्नल के परिमाणीकरण विरूपण पर काम किया जाता है। कोडबुक जो सबसे छोटी वेक्टर परिमाणीकरण विकृति प्रदान करती है, पहचाने गए उपयोगकर्ता को इंगित करती है।

पैटर्न पहचान में वीक्यू का मुख्य लाभ इसका कम कम्प्यूटेशनल बोझ है जब इसकी तुलना गतिशील समय विरूपण (डीटीडब्ल्यू) और छिपा हुआ मार्कोव मॉडल (एचएमएम) जैसी अन्य तकनीकों से की जाती है। डीटीडब्ल्यू और एचएमएम की तुलना में मुख्य दोष यह है कि यह संकेतों (भाषण, हस्ताक्षर इत्यादि) के अस्थायी विकास को ध्यान में नहीं रखता है क्योंकि सभी वैक्टर मिश्रित होते हैं। इस समस्या को दूर करने के लिए एक बहु-खंड कोडबुक दृष्टिकोण प्रस्तावित किया गया है। बहु-खंड दृष्टिकोण में कई खंडों के साथ सिग्नल को मॉडलिंग करना शामिल है (उदाहरण के लिए, प्रारंभिक भाग के लिए एक कोडबुक, केंद्र के लिए एक और और अंतिम भाग के लिए एक अंतिम कोडबुक)।

क्लस्टरिंग एल्गोरिदम के रूप में उपयोग करें
चूँकि VQ आस-पास के नमूनों के घनत्व बिंदुओं के रूप में सेंट्रोइड की तलाश कर रहा है, इसे सीधे प्रोटोटाइप-आधारित क्लस्टरिंग विधि के रूप में भी इस्तेमाल किया जा सकता है: प्रत्येक सेंट्रोइड को फिर एक प्रोटोटाइप के साथ जोड़ा जाता है। अपेक्षित चुकता परिमाणीकरण त्रुटि को कम करने का लक्ष्य रखकर और रॉबिन्स-मोनरो शर्तों को पूरा करते हुए घटते सीखने के लाभ को पेश करते हुए, एक ठोस लेकिन निश्चित संख्या में प्रोटोटाइप के साथ पूरे डेटा सेट पर कई पुनरावृत्तियों को वृद्धिशील तरीके से के-मीन्स क्लस्टरिंग एल्गोरिदम के समाधान में परिवर्तित किया जाता है।

उत्पादक प्रतिकूल नेटवर्क (जीएएन)
VQ का उपयोग जेनरेटिव प्रतिकूल नेटवर्क के विभेदक में एक फीचर प्रतिनिधित्व परत को परिमाणित करने के लिए किया गया है। फ़ीचर परिमाणीकरण (FQ) तकनीक अंतर्निहित फ़ीचर मिलान करती है। यह GAN प्रशिक्षण में सुधार करता है, और विभिन्न लोकप्रिय GAN मॉडलों पर बेहतर प्रदर्शन प्रदान करता है: छवि निर्माण के लिए BigGAN, चेहरे के संश्लेषण के लिए StyleGAN, और बिना पर्यवेक्षित छवि-से-छवि अनुवाद के लिए U-GAT-IT।

यह भी देखें

 * भाषण कोडिंग
 * ऑग वॉर्बिस
 * वोरोनोई आरेख
 * दर-विरूपण समारोह
 * डेटा क्लस्टरिंग
 * वेक्टर परिमाणीकरण सीखना
 * सेंट्रोइडल वोरोनोई टेस्सेलेशन
 * तंत्रिका गैस, वेक्टर परिमाणीकरण के लिए एक तंत्रिका नेटवर्क जैसी प्रणाली
 * छवि विभाजन
 * लॉयड का एल्गोरिदम
 * लिंडे-बुज़ो-ग्रे एल्गोरिदम|लिंडे, बुज़ो, ग्रे एल्गोरिदम (एलबीजी)
 * K- का अर्थ है क्लस्टरिंग
 * ऑटोएन्कोडर
 * ध्यान लगा के पढ़ना या सीखना

इस लेख का एक हिस्सा मूल रूप से कंप्यूटिंग का निःशुल्क ऑनलाइन शब्दकोश की सामग्री पर आधारित था और इसका उपयोग जीएफडीएल के तहत विकिपीडिया:फोल्डॉक लाइसेंस के साथ किया जाता है।

बाहरी संबंध

 * http://www.data-compression.com/vq.html
 * QccPack — Quantization, Compression, and Coding Library (open source)
 * VQ Indexes Compression and Information Hiding Using Hybrid Lossless Index Coding, Wen-Jan Chen and Wen-Tsung Huang

Cuantificación digital Векторное квантование