ग्रैन्युलर कम्प्यूटिंग

ग्रैन्युलर कम्प्यूटिंग  सूचना प्रसंस्करण का एक उभरता हुआ कंप्यूटिंग प्रतिमान है जो सूचना  दानेदार बनाने का कार्य  नामक जटिल सूचना संस्थाओं के प्रसंस्करण से संबंधित है, जो सूचना या डेटा से डेटा अमूर्त और ज्ञान निष्कर्षण की प्रक्रिया में उत्पन्न होता है। आम तौर पर बोलते हुए, सूचना ग्रैन्यूल संस्थाओं का संग्रह होता है जो आम तौर पर संख्यात्मक स्तर पर उत्पन्न होते हैं और उनकी समानता माप, कार्यात्मक या भौतिक निकटता, अप्रभेद्यता, सुसंगतता या इसी तरह के कारण एक साथ व्यवस्थित होते हैं।

वर्तमान में, ग्रैन्युलर कंप्यूटिंग विधियों या सिद्धांतों के सुसंगत सेट की तुलना में अधिक सैद्धांतिक परिप्रेक्ष्य है। एक सैद्धांतिक परिप्रेक्ष्य के रूप में, यह डेटा के प्रति एक ऐसे दृष्टिकोण को प्रोत्साहित करता है जो रिज़ॉल्यूशन या स्केल के विभिन्न स्तरों पर डेटा में मौजूद ज्ञान को पहचानता है और उसका शोषण करता है। इस अर्थ में, यह उन सभी तरीकों को शामिल करता है जो उस रिज़ॉल्यूशन में लचीलापन और अनुकूलनशीलता प्रदान करते हैं जिस पर ज्ञान या जानकारी निकाली और प्रस्तुत की जाती है।

दानेदार बनाने के प्रकार
जैसा कि ऊपर उल्लेख किया गया है, ग्रैन्युलर कंप्यूटिंग कोई एल्गोरिदम या प्रक्रिया नहीं है; ऐसी कोई विशेष विधि नहीं है जिसे ग्रैन्युलर कंप्यूटिंग कहा जाए। यह डेटा को देखने का एक दृष्टिकोण है जो यह पहचानता है कि डेटा में विभिन्न और दिलचस्प नियमितताएं ग्रैन्युलैरिटी के विभिन्न स्तरों पर कैसे दिखाई दे सकती हैं, जैसे कि अधिक या कम रिज़ॉल्यूशन के उपग्रह चित्रों में विभिन्न विशेषताएं प्रमुख हो जाती हैं। उदाहरण के लिए, कम-रिज़ॉल्यूशन वाली उपग्रह छवि पर, कोई व्यक्ति चक्रवात या अन्य बड़े पैमाने की मौसम संबंधी घटनाओं का प्रतिनिधित्व करने वाले दिलचस्प बादल पैटर्न को देख सकता है, जबकि उच्च-रिज़ॉल्यूशन वाली छवि में, कोई इन बड़े पैमाने की वायुमंडलीय घटनाओं को अनदेखा कर देता है, लेकिन इसके बजाय छोटे पैमाने की घटनाओं को नोटिस करता है, जैसे कि मैनहट्टन की सड़कों का दिलचस्प पैटर्न। यही बात आम तौर पर सभी डेटा के लिए सच है: अलग-अलग रिज़ॉल्यूशन या ग्रैन्युलैरिटी पर, अलग-अलग विशेषताएं और रिश्ते उभर कर आते हैं। ग्रैन्युलर कंप्यूटिंग का उद्देश्य अधिक प्रभावी मशीन-लर्निंग और रीजनिंग सिस्टम को डिजाइन करने में इस तथ्य का लाभ उठाने का प्रयास करना है।

डेटा खनन और यंत्र अधिगम  में अक्सर कई प्रकार की ग्रैन्युलैरिटी का सामना करना पड़ता है, और हम नीचे उनकी समीक्षा करते हैं:

मूल्य कणीकरण (विवेकीकरण/परिमाणीकरण)
एक प्रकार का कणीकरण चरों का परिमाणीकरण (सिग्नल प्रोसेसिंग) है। यह बहुत सामान्य बात है कि डेटा माइनिंग या मशीन-लर्निंग अनुप्रयोगों में सार्थक नियमितताएं निकालने के लिए चर के रिज़ॉल्यूशन को कम करने की आवश्यकता होती है। इसका एक उदाहरण एक चर होगा जैसे बाहरी तापमान ($temp$), जिसे किसी दिए गए एप्लिकेशन में अंकगणित परिशुद्धता के कई दशमलव स्थानों (संवेदन तंत्र के आधार पर) में दर्ज किया जा सकता है। हालाँकि, बाहरी तापमान और, कहें, स्वास्थ्य-क्लब अनुप्रयोगों की संख्या के बीच संबंध निकालने के प्रयोजनों के लिए ($club$), बाहर के तापमान को कम अंतरालों में मापना आम तौर पर फायदेमंद होगा।

प्रेरणाएँ
इस तरह से चरों को दानेदार बनाने के कई परस्पर संबंधित कारण हैं:
 * पूर्व डोमेन ज्ञान के आधार पर, ऐसी कोई उम्मीद नहीं है कि तापमान में मामूली बदलाव (उदाहरण के लिए, के बीच का अंतर)। 80 - 80.7 °F) स्वास्थ्य-क्लब अनुप्रयोगों की संख्या बढ़ाने वाले व्यवहारों पर प्रभाव डाल सकता है। इस कारण से, कोई भी नियमितता जिसे हमारे सीखने के एल्गोरिदम रिज़ॉल्यूशन के इस स्तर पर पहचान सकते हैं, ओवरफिटिंग की एक कलाकृति के रूप में नकली होगी। तापमान चर को अंतरालों में मोटा करके, जिसके बीच का अंतर हम अनुमान लगाते हैं (पूर्व डोमेन ज्ञान के आधार पर) स्वास्थ्य-क्लब अनुप्रयोगों की संख्या को प्रभावित कर सकता है, हम इन नकली पैटर्न का पता लगाने की संभावना को खत्म कर देते हैं। इस प्रकार, इस मामले में, रिज़ॉल्यूशन को कम करना ओवरफिटिंग को नियंत्रित करने का एक तरीका है।
 * तापमान चर में अंतराल की संख्या को कम करके (यानी, इसके दाने के आकार को बढ़ाकर), हम प्रत्येक अंतराल पदनाम द्वारा अनुक्रमित नमूना डेटा की मात्रा को बढ़ाते हैं। इस प्रकार, चर को मोटा करके, हम नमूना आकार बढ़ाते हैं और बेहतर सांख्यिकीय अनुमान प्राप्त करते हैं। इस अर्थ में, बढ़ती ग्रैन्युलैरिटी आयामीता के तथाकथित अभिशाप के लिए एक मारक प्रदान करती है, जो आयामों की संख्या या चर कार्डिनैलिटी में वृद्धि के साथ सांख्यिकीय शक्ति में तेजी से कमी से संबंधित है।
 * पूर्व डोमेन ज्ञान से स्वतंत्र, अक्सर ऐसा होता है कि सार्थक नियमितताएं (यानी, जो किसी दी गई सीखने की पद्धति, प्रतिनिधित्वात्मक भाषा इत्यादि द्वारा पता लगाई जा सकती हैं) संकल्प के एक स्तर पर मौजूद हो सकती हैं और दूसरे पर नहीं।

उदाहरण के लिए, एक साधारण शिक्षार्थी या पैटर्न पहचान प्रणाली सशर्त संभाव्यता सीमा को संतुष्ट करने वाली नियमितताएं निकालने की कोशिश कर सकती है $$p(Y=y_j|X=x_i) \ge \alpha .$$ विशेष मामले में जहां $$\alpha = 1,$$ यह पहचान प्रणाली अनिवार्य रूप से फॉर्म के तार्किक निहितार्थ का पता लगा रही है $$X=x_i \rightarrow Y=y_j $$ या, शब्दों में, यदि $$X=x_i,$$ तब $Y=y_j $". ऐसे निहितार्थों (या, सामान्य तौर पर, सीमा से अधिक सशर्त संभावनाओं) को पहचानने की सिस्टम की क्षमता आंशिक रूप से उस रिज़ॉल्यूशन पर निर्भर करती है जिसके साथ सिस्टम चर का विश्लेषण करता है।

इस अंतिम बिंदु के उदाहरण के रूप में, दाईं ओर दिखाए गए फीचर स्थान पर विचार करें। प्रत्येक चर को दो अलग-अलग प्रस्तावों पर माना जा सकता है। चर $$X$$ इसे उच्च (चतुर्थक) रिज़ॉल्यूशन पर माना जा सकता है जिसमें यह चार मान लेता है $$\{x_1, x_2, x_3, x_4\}$$ या निम्न (बाइनरी) रिज़ॉल्यूशन पर जहां यह दो मान लेता है $$\{X_1, X_2\}.$$ इसी प्रकार, परिवर्तनशील $$Y$$ इसे उच्च (चतुर्थक) रिज़ॉल्यूशन या निम्न (बाइनरी) रिज़ॉल्यूशन पर माना जा सकता है, जहां यह मान लेता है $$\{y_1, y_2, y_3, y_4\}$$ या $$\{Y_1, Y_2\},$$ क्रमश। उच्च रिज़ॉल्यूशन पर, फ़ॉर्म का कोई पता लगाने योग्य निहितार्थ नहीं है $$X=x_i \rightarrow Y=y_j,$$ प्रत्येक के बाद से $$x_i$$ एक से अधिक के साथ जुड़ा हुआ है $$y_j,$$ और इस प्रकार, सभी के लिए $$x_i,$$ $$p(Y=y_j|X=x_i) < 1.$$ हालाँकि, निम्न (बाइनरी) परिवर्तनीय रिज़ॉल्यूशन पर, दो द्विपक्षीय निहितार्थ पता लगाने योग्य हो जाते हैं:   $$X=X_1 \leftrightarrow Y=Y_1 $$ और $$X=X_2 \leftrightarrow Y=Y_2 $$, प्रत्येक के बाद से $$X_1$$ होता है यदि $$Y_1$$ और $$X_2$$ होता है यदि $$Y_2.$$ इस प्रकार, इस प्रकार के निहितार्थों की स्कैनिंग करने वाली एक पैटर्न पहचान प्रणाली उन्हें बाइनरी वैरिएबल रिज़ॉल्यूशन पर ढूंढ लेगी, लेकिन उच्च चतुर्धातुक वैरिएबल रिज़ॉल्यूशन पर उन्हें ढूंढने में विफल हो जाएगी।

मुद्दे और तरीके
यह देखने के लिए कि संकल्पों का कौन सा संयोजन दिलचस्प या महत्वपूर्ण परिणाम देता है, सभी चरों पर सभी संभावित विवेकाधीन संकल्पों का विस्तृत परीक्षण करना संभव नहीं है। इसके बजाय, फीचर स्पेस को पूर्व-संसाधित किया जाना चाहिए (अक्सर किसी प्रकार की सूचना एन्ट्रॉपी विश्लेषण द्वारा) ताकि कुछ मार्गदर्शन दिया जा सके कि विवेकाधीन प्रक्रिया कैसे आगे बढ़नी चाहिए। इसके अलावा, आम तौर पर प्रत्येक चर का स्वतंत्र रूप से विश्लेषण और विवेक करके अच्छे परिणाम प्राप्त नहीं किए जा सकते हैं, क्योंकि यह उन अंतःक्रियाओं को नष्ट कर सकता है जिनकी हमने खोज करने की आशा की थी।

कागजात का एक नमूना जो सामान्य रूप से परिवर्तनीय विवेकीकरण की समस्या और विशेष रूप से बहु-परिवर्तनीय विवेकीकरण की समस्या को संबोधित करता है, इस प्रकार है:, , , , , , , , , , , , , , , , ,, , ,.

परिवर्तनीय कणीकरण (क्लस्टरिंग/एकत्रीकरण/परिवर्तन)
परिवर्तनीय ग्रैन्यूलेशन एक ऐसा शब्द है जो विभिन्न तकनीकों का वर्णन कर सकता है, जिनमें से अधिकांश का उद्देश्य आयामीता, अतिरेक और भंडारण आवश्यकताओं को कम करना है। हम यहां कुछ विचारों का संक्षेप में वर्णन करते हैं, और साहित्य के लिए संकेत प्रस्तुत करते हैं।

परिवर्तनीय परिवर्तन
कई शास्त्रीय विधियाँ, जैसे प्रमुख घटक विश्लेषण, बहुआयामी स्केलिंग, कारक विश्लेषण, और संरचनात्मक समीकरण मॉडलिंग, और उनके रिश्तेदार, परिवर्तनीय परिवर्तन के अंतर्गत आते हैं। इसके अलावा इस श्रेणी में अध्ययन के अधिक आधुनिक क्षेत्र भी हैं जैसे आयामीता में कमी, प्रक्षेपण खोज और स्वतंत्र घटक विश्लेषण। सामान्य तौर पर इन विधियों का सामान्य लक्ष्य नए चर के संदर्भ में डेटा का प्रतिनिधित्व खोजना है, जो मूल चर का एक रैखिक या गैर-रेखीय परिवर्तन है, और जिसमें महत्वपूर्ण सांख्यिकीय संबंध उभरते हैं। परिणामी वेरिएबल सेट लगभग हमेशा मूल वेरिएबल सेट से छोटे होते हैं, और इसलिए इन तरीकों को फीचर स्पेस पर दानेदार बनाने के लिए कहा जा सकता है। इन आयामीता कटौती विधियों की समीक्षा मानक पाठों में की गई है, जैसे, , और.

परिवर्तनीय एकत्रीकरण
परिवर्तनीय ग्रैनुलेशन विधियों का एक अलग वर्ग उपरोक्त विधियों को सूचित करने वाले रैखिक सिस्टम सिद्धांत की तुलना में डेटा क्लस्टरिंग विधियों से अधिक प्राप्त होता है। यह काफी पहले ही नोट कर लिया गया था कि कोई क्लस्टरिंग से संबंधित चर पर उसी तरह विचार कर सकता है जैसे कोई क्लस्टरिंग से संबंधित डेटा पर विचार करता है। डेटा क्लस्टरिंग में, कोई समान संस्थाओं के समूह की पहचान करता है (डोमेन के लिए उपयुक्त समानता के माप का उपयोग करके - ), और फिर कुछ अर्थों में उन संस्थाओं को किसी प्रकार के प्रोटोटाइप से बदल देता है। प्रोटोटाइप पहचाने गए क्लस्टर में डेटा का साधारण औसत या कोई अन्य प्रतिनिधि माप हो सकता है। लेकिन मुख्य विचार यह है कि बाद के ऑपरेशनों में, हम उदाहरणों के बहुत बड़े सेट के लिए खड़े होने के लिए डेटा क्लस्टर के लिए एकल प्रोटोटाइप का उपयोग करने में सक्षम हो सकते हैं (शायद एक सांख्यिकीय मॉडल जो बताता है कि प्रोटोटाइप से उदाहरण कैसे प्राप्त होते हैं)। ये प्रोटोटाइप आम तौर पर ऐसे होते हैं जो संस्थाओं से संबंधित रुचि की अधिकांश जानकारी प्राप्त करते हैं।

इसी तरह, यह पूछना उचित है कि क्या चर के एक बड़े सेट को प्रोटोटाइप चर के एक छोटे सेट में एकत्रित किया जा सकता है जो चर के बीच सबसे प्रमुख संबंधों को पकड़ता है। हालाँकि रैखिक सहसंबंध पर आधारित परिवर्तनीय क्लस्टरिंग विधियाँ प्रस्तावित की गई हैं, वेरिएबल क्लस्टरिंग के अधिक शक्तिशाली तरीके वेरिएबल्स के बीच पारस्परिक जानकारी पर आधारित होते हैं। वतनबे ने दिखाया है कि चर के किसी भी सेट के लिए कोई एक  बहुविश्लेषण  (यानी, एन-एरी) पेड़ का निर्माण कर सकता है जो परिवर्तनीय समूहों की एक श्रृंखला का प्रतिनिधित्व करता है जिसमें पूर्ण चर सेट के बीच अंतिम कुल सहसंबंध प्रत्येक समूहित उपसमुच्चय द्वारा प्रदर्शित आंशिक सहसंबंधों का योग है (रेखा - चित्र देखें)। वतनबे का सुझाव है कि एक पर्यवेक्षक एक प्रणाली को इस तरह से विभाजित करने की कोशिश कर सकता है ताकि भागों के बीच परस्पर निर्भरता को कम किया जा सके ... जैसे कि वे एक प्राकृतिक विभाजन या छिपी हुई दरार की तलाश कर रहे हों।

इस तरह के पेड़ के निर्माण के लिए एक व्यावहारिक दृष्टिकोण क्रमिक रूप से समूह के लिए दो चर (या तो परमाणु चर या पहले से एकत्रित चर) का चयन करना है, जिनकी जोड़ीदार पारस्परिक जानकारी सबसे अधिक है।. प्रत्येक समूह का उत्पाद एक नया (निर्मित) चर होता है जो दो समूहित चर के स्थानीय संयुक्त वितरण को दर्शाता है, और इस प्रकार उनकी संयुक्त एन्ट्रॉपी के बराबर एक एन्ट्रॉपी होती है। (प्रक्रियात्मक दृष्टिकोण से, इस समूहन चरण में विशेषता-मूल्य तालिका में दो स्तंभों को बदलना शामिल है - जो दो समूहीकृत चर का प्रतिनिधित्व करते हैं - एक एकल स्तंभ के साथ जिसमें प्रतिस्थापित स्तंभों में मानों के प्रत्येक अद्वितीय संयोजन के लिए एक अद्वितीय मान होता है . ऐसे ऑपरेशन से कोई जानकारी नष्ट नहीं होती; हालाँकि, यदि कोई अंतर-परिवर्तनीय संबंधों के लिए डेटा की खोज कर रहा है, तो आम तौर पर इस तरह से अनावश्यक चर को मर्ज करना वांछनीय नहीं होगा, क्योंकि ऐसे संदर्भ में चर के बीच अतिरेक या निर्भरता ही रुचिकर होने की संभावना है; और एक बार जब अनावश्यक चर विलीन हो जाते हैं, तो एक दूसरे से उनके संबंध का अध्ययन नहीं किया जा सकता है।

सिस्टम ग्रेनुलेशन (एकत्रीकरण)
डेटाबेस सिस्टम में, एकत्रीकरण (उदाहरण के लिए OLAP और व्यापारिक सूचना  सिस्टम देखें) के परिणामस्वरूप मूल डेटा तालिकाओं (अक्सर सूचना प्रणाली कहा जाता है) को पंक्तियों और स्तंभों के विभिन्न शब्दार्थों के साथ तालिकाओं में बदल दिया जाता है, जिसमें पंक्तियाँ मूल टुपल्स के समूहों (ग्रैन्यूल्स) के अनुरूप होती हैं और कॉलम प्रत्येक समूह के भीतर मूल मूल्यों के बारे में एकत्रित जानकारी व्यक्त करते हैं। ऐसे एकत्रीकरण आमतौर पर SQL और उसके एक्सटेंशन पर आधारित होते हैं। परिणामी कण आमतौर पर कुछ पूर्व-चयनित मूल स्तंभों पर समान मान (या श्रेणियों) के साथ मूल टुपल्स के समूहों के अनुरूप होते हैं।

ऐसे अन्य दृष्टिकोण भी हैं जिनमें समूहों को पंक्तियों की भौतिक निकटता के आधार पर परिभाषित किया जाता है। उदाहरण के लिए, इन्फोब्राइट ने एक डेटाबेस इंजन लागू किया जिसमें डेटा को रफ पंक्तियों में विभाजित किया गया था, प्रत्येक में 64K भौतिक रूप से लगातार (या लगभग लगातार) पंक्तियाँ थीं। रफ पंक्तियों को स्वचालित रूप से डेटा कॉलम पर उनके मूल्यों के बारे में कॉम्पैक्ट जानकारी के साथ लेबल किया गया था, जिसमें अक्सर मल्टी-कॉलम और मल्टी-टेबल संबंध शामिल होते थे। इसके परिणामस्वरूप दानेदार जानकारी की एक उच्च परत तैयार हुई जहां वस्तुएं कच्ची पंक्तियों और विशेषताओं के अनुरूप थीं - कच्ची जानकारी के विभिन्न पहलुओं के लिए। ऐसे नए ढांचे के भीतर डेटाबेस संचालन को कुशलतापूर्वक समर्थित किया जा सकता है, जिसमें मूल डेटा टुकड़ों तक पहुंच अभी भी उपलब्ध है.

संकल्पना कणीकरण (घटक विश्लेषण)
ग्रैन्युलर कंप्यूटिंग विचारधारा की उत्पत्ति रफ सेट और फजी सेट साहित्य में पाई जाती है। रफ सेट अनुसंधान की प्रमुख अंतर्दृष्टियों में से एक - हालांकि यह किसी भी तरह से अद्वितीय नहीं है - यह है कि, सामान्य तौर पर, सुविधाओं या चर के विभिन्न सेटों के चयन से अलग-अलग अवधारणा ग्रैन्यूलेशन प्राप्त होंगे। यहां, जैसा कि प्रारंभिक रफ सेट सिद्धांत में होता है, अवधारणा से हमारा तात्पर्य ऐसी संस्थाओं का एक समूह है जो पर्यवेक्षक के लिए अप्रभेद्य या अविभाज्य है (यानी, एक सरल अवधारणा), या संस्थाओं का एक सेट जो ऐसी सरल अवधारणाओं से बना है (यानी, एक जटिल) अवधारणा)। इसे दूसरे शब्दों में कहें तो, एक डेटा सेट (मूल्य-विशेषता प्रणाली) को चर के विभिन्न सेटों पर प्रक्षेपित करके, हम डेटा में समतुल्य-वर्ग अवधारणाओं के वैकल्पिक सेटों को पहचानते हैं, और अवधारणाओं के ये विभिन्न सेट सामान्य रूप से अनुकूल होंगे। विभिन्न रिश्तों और नियमितताओं का निष्कर्षण।

समतुल्यता वर्ग कणीकरण
हम एक उदाहरण से समझाते हैं। नीचे दी गई विशेषता-मूल्य प्रणाली पर विचार करें:


 * {| class="wikitable" style="text-align:center; width:30%" border="1"

! Object !! $$P_1$$ !! $$P_2$$ !! $$P_3$$ !! $$P_4$$ !! $$P_5$$ ! $$O_1$$ ! $$O_2$$ ! $$O_3$$ ! $$O_4$$ ! $$O_5$$ ! $$O_6$$ ! $$O_7$$ ! $$O_8$$ ! $$O_9$$ ! $$O_{10}$$ जब गुणों का पूरा सेट $$P = \{P_1,P_2,P_3,P_4,P_5\}$$ विचार करने पर, हम देखते हैं कि हमारे पास निम्नलिखित सात समतुल्य वर्ग या आदिम (सरल) अवधारणाएँ हैं:
 * + Sample Information System
 * 1 || 2 || 0 || 1 || 1
 * 1 || 2 || 0 || 1 || 1
 * 2 || 0 || 0 || 1 || 0
 * 0 || 0 || 1 || 2 || 1
 * 2 || 1 || 0 || 2 || 1
 * 0 || 0 || 1 || 2 || 2
 * 2 || 0 || 0 || 1 || 0
 * 0 || 1 || 2 || 2 || 1
 * 2 || 1 || 0 || 2 || 2
 * 2 || 0 || 0 || 1 || 0
 * }



\begin{cases} \{O_1,O_2\} \\ \{O_3,O_7,O_{10}\} \\ \{O_4\} \\ \{O_5\} \\ \{O_6\} \\ \{O_8\} \\ \{O_9\} \end{cases} $$ इस प्रकार, प्रथम तुल्यता वर्ग के भीतर दो वस्तुएँ, $$\{O_1,O_2\},$$ उपलब्ध विशेषताओं और दूसरे समतुल्य वर्ग के भीतर तीन वस्तुओं के आधार पर एक दूसरे से अलग नहीं किया जा सकता है, $$\{O_3,O_7,O_{10}\},$$ उपलब्ध विशेषताओं के आधार पर इन्हें एक दूसरे से अलग नहीं किया जा सकता। शेष पाँच वस्तुएँ अन्य सभी वस्तुओं से भिन्न हैं। अब, आइए हम विशेषता पर विशेषता मान प्रणाली के प्रक्षेपण की कल्पना करें $$P_1$$ अकेले, जो उदाहरण के लिए, एक पर्यवेक्षक के दृश्य का प्रतिनिधित्व करेगा जो केवल इस एकल विशेषता का पता लगाने में सक्षम है। फिर हमें निम्नलिखित अधिक मोटे तुल्यता वर्ग संरचना प्राप्त होती है।



\begin{cases} \{O_1,O_2\} \\ \{O_3,O_5,O_7,O_9,O_{10}\} \\ \{O_4,O_6,O_8\} \end{cases} $$ यह एक निश्चित संबंध में पहले जैसी ही संरचना है, लेकिन रिज़ॉल्यूशन की कम डिग्री (बड़े अनाज का आकार) पर है। जैसे #वैल्यू ग्रैन्यूलेशन (विवेकाधीन/परिमाणीकरण)|वैल्यू ग्रैन्यूलेशन (विवेकाधीन/क्वांटाइजेशन) के मामले में, यह संभव है कि ग्रैन्युलैरिटी के एक स्तर पर रिश्ते (निर्भरताएं) उभर सकते हैं जो दूसरे स्तर पर मौजूद नहीं हैं। इसके उदाहरण के रूप में, हम विशेषता निर्भरता (पारस्परिक जानकारी का एक सरल सापेक्ष) के रूप में ज्ञात माप पर अवधारणा ग्रैनुलेशन के प्रभाव पर विचार कर सकते हैं।

निर्भरता की इस धारणा को स्थापित करने के लिए (रफ़ सेट भी देखें), आइए $$[x]_Q = \{Q_1, Q_2, Q_3, \dots, Q_N \}$$ एक विशेष अवधारणा कणीकरण का प्रतिनिधित्व करते हैं, जहां प्रत्येक $$Q_i$$ विशेषता सेट द्वारा प्रेरित अवधारणा संरचना से एक समतुल्य वर्ग है $m$. उदाहरण के लिए, यदि विशेषता सेट है $Q$विशेषता से युक्त है $$P_1$$ अकेले, जैसा कि ऊपर है, फिर अवधारणा संरचना $$[x]_Q$$ से बना होगा
 * $$\begin{align}

Q_1 &= \{O_1,O_2\}, \\ Q_2 &= \{O_3,O_5,O_7,O_9,O_{10}\}, \\ Q_3 &= \{O_4,O_6,O_8\}. \end{align}$$ विशेषता सेट की निर्भरता $Q$ किसी अन्य विशेषता सेट पर $Q$, $$\gamma_P(Q),$$ द्वारा दिया गया है



\gamma_{P}(Q) = \frac{\left | \sum_{i=1}^N {\underline P}Q_i \right |} {\left | \mathbb{U} \right |} \leq 1 $$ अर्थात् प्रत्येक समतुल्य वर्ग के लिए $$Q_i$$ में $$[x]_Q,$$ हम इसके निचले सन्निकटन के आकार को विशेषताओं के आधार पर जोड़ते हैं (रफ सेट देखें)। $P$, अर्थात।, $${\underline P}Q_i.$$ अधिक सरलता से, यह सन्निकटन उन वस्तुओं की संख्या है जो विशेषता सेट पर हैं $P$ को लक्ष्य निर्धारित से संबंधित के रूप में सकारात्मक रूप से पहचाना जा सकता है $$Q_i.$$ सभी समतुल्य वर्गों में जोड़ा गया $$[x]_Q,$$ उपरोक्त अंश वस्तुओं की कुल संख्या को दर्शाता है, जो विशेषता सेट पर आधारित है $P$—विशेषताओं द्वारा प्रेरित वर्गीकरण के अनुसार सकारात्मक रूप से वर्गीकृत किया जा सकता है $P$. इसलिए निर्भरता अनुपात ऐसी वर्गीकृत वस्तुओं के अनुपात (संपूर्ण ब्रह्मांड के भीतर) को व्यक्त करता है, एक अर्थ में दो अवधारणा संरचनाओं के सिंक्रनाइज़ेशन को कैप्चर करता है। $$[x]_Q$$ और $$[x]_P.$$ निर्भरता $$\gamma_{P}(Q)$$ सूचना प्रणाली में ऐसी वस्तुओं के अनुपात के रूप में व्याख्या की जा सकती है जिसके लिए विशेषताओं के मूल्यों को जानना पर्याप्त है $Q$ में विशेषताओं के मान निर्धारित करने के लिए $P$ (ज़िआर्को और शान 1995)।

अब परिभाषाएं प्राप्त करने के बाद, हम सरल अवलोकन कर सकते हैं कि अवधारणा ग्रैन्युलैरिटी (यानी, विशेषताओं की पसंद) की पसंद विशेषताओं के बीच ज्ञात निर्भरता को प्रभावित करेगी। ऊपर से विशेषता मान तालिका पर फिर से विचार करें:


 * {| class="wikitable" style="text-align:center; width:30%" border="1"

! Object !! $$P_1$$ !! $$P_2$$ !! $$P_3$$ !! $$P_4$$ !! $$P_5$$ ! $$O_1$$ ! $$O_2$$ ! $$O_3$$ ! $$O_4$$ ! $$O_5$$ ! $$O_6$$ ! $$O_7$$ ! $$O_8$$ ! $$O_9$$ ! $$O_{10}$$ विशेषता सेट की निर्भरता पर विचार करें $$Q = \{P_4, P_5\}$$ विशेषता सेट पर $$P = \{P_2, P_3\}.$$ अर्थात्, हम यह जानना चाहते हैं कि वस्तुओं के किस अनुपात को सही ढंग से वर्गों में वर्गीकृत किया जा सकता है $$[x]_Q$$ के ज्ञान पर आधारित है $$[x]_P.$$ के समतुल्य वर्ग $$[x]_Q$$ और का $$[x]_P$$ नीचे दिखाए गए हैं.
 * + Sample Information System
 * 1 || 2 || 0 || 1 || 1
 * 1 || 2 || 0 || 1 || 1
 * 2 || 0 || 0 || 1 || 0
 * 0 || 0 || 1 || 2 || 1
 * 2 || 1 || 0 || 2 || 1
 * 0 || 0 || 1 || 2 || 2
 * 2 || 0 || 0 || 1 || 0
 * 0 || 1 || 2 || 2 || 1
 * 2 || 1 || 0 || 2 || 2
 * 2 || 0 || 0 || 1 || 0
 * }


 * {| class="wikitable"

! $$[x]_Q$$ ! $$[x]_P$$ \begin{cases} \{O_1,O_2\} \\ \{O_3,O_7,O_{10}\} \\ \{O_4,O_5,O_8\} \\ \{O_6,O_9\}\end{cases} $$ \begin{cases} \{O_1,O_2\} \\ \{O_3,O_7,O_{10}\} \\ \{O_4,O_6\} \\ \{O_5,O_9\} \\ \{O_8\}\end{cases} $$ वे वस्तुएँ जिन्हें अवधारणा संरचना के अनुसार निश्चित रूप से वर्गीकृत किया जा सकता है $$[x]_Q$$ पर आधारित $$[x]_P$$ क्या वे सेट में हैं $$\{O_1,O_2,O_3,O_7,O_8,O_{10}\},$$ और चूँकि इनमें से छह हैं, की निर्भरता $Q$ पर $Q$, $$\gamma_{P}(Q) = 6/10.$$ इसे अपने आप में एक दिलचस्प निर्भरता माना जा सकता है, लेकिन शायद किसी विशेष डेटा माइनिंग एप्लिकेशन में केवल मजबूत निर्भरता ही वांछित होती है।
 * }

फिर हम छोटे विशेषता सेट की निर्भरता पर विचार कर सकते हैं $$Q = \{P_4\}$$ विशेषता सेट पर $$P = \{P_2, P_3\}.$$ से चाल $$Q = \{P_4, P_5\}$$ को $$Q = \{P_4\}$$ वर्ग संरचना में कठोरता उत्पन्न करता है $$[x]_Q,$$ जैसा कि जल्द ही देखा जाएगा। हम फिर से यह जानना चाहते हैं कि किस अनुपात में वस्तुओं को (अब बड़े) वर्गों में सही ढंग से वर्गीकृत किया जा सकता है $$[x]_Q$$ के ज्ञान पर आधारित है $$[x]_P.$$ नए के समतुल्य वर्ग $$[x]_Q$$ और का $$[x]_P$$ नीचे दिखाए गए हैं.


 * {| class="wikitable"

! $$[x]_Q$$ ! $$[x]_P$$ \begin{cases} \{O_1,O_2,O_3,O_7,O_{10}\} \\ \{O_4,O_5,O_6,O_8,O_9\} \end{cases} $$ \begin{cases} \{O_1,O_2\} \\ \{O_3,O_7,O_{10}\} \\ \{O_4,O_6\} \\ \{O_5,O_9\} \\ \{O_8\}\end{cases} $$ स्पष्ट रूप से, $$[x]_Q$$ पहले की तुलना में इसकी ग्रैन्युलैरिटी अधिक मोटी है। वस्तुओं को अब अवधारणा संरचना के अनुसार निश्चित रूप से वर्गीकृत किया जा सकता है $$[x]_Q$$ पर आधारित $$[x]_P$$ संपूर्ण ब्रह्मांड का निर्माण करें $$\{O_1,O_2,\ldots,O_{10}\}$$, और इस प्रकार की निर्भरता $P$ पर $Q$, $$\gamma_{P}(Q) = 1.$$ अर्थात श्रेणी निर्धारित के अनुसार सदस्यता का ज्ञान $$[x]_P$$ में श्रेणी सदस्यता निर्धारित करने के लिए पर्याप्त है $$[x]_Q$$ पूरी निश्चितता के साथ; इस मामले में हम ऐसा कह सकते हैं $$P \rightarrow Q.$$ इस प्रकार, अवधारणा संरचना को मोटा करके, हम एक मजबूत (नियतात्मक) निर्भरता खोजने में सक्षम थे। हालाँकि, हम यह भी ध्यान देते हैं कि जिन कक्षाओं को प्रेरित किया गया है $$[x]_Q$$ इस नियतात्मक निर्भरता को प्राप्त करने के लिए आवश्यक संकल्प में कमी से अब स्वयं बड़ी और संख्या में कम हैं; परिणामस्वरूप, हमने जो निर्भरता पाई, वह मजबूत होते हुए भी, उच्च रिज़ॉल्यूशन दृश्य के तहत पहले पाई गई कमजोर निर्भरता की तुलना में हमारे लिए कम मूल्यवान हो सकती है। $$[x]_Q.$$ सामान्य तौर पर यह देखने के लिए विशेषताओं के सभी सेटों का परीक्षण करना संभव नहीं है कि कौन सी प्रेरित अवधारणा संरचनाएं सबसे मजबूत निर्भरता उत्पन्न करती हैं, और इसलिए इस खोज को कुछ बुद्धिमत्ता के साथ निर्देशित किया जाना चाहिए। जो कागजात इस मुद्दे पर चर्चा करते हैं, और अन्य जो दानेदार बनाने के बुद्धिमान उपयोग से संबंधित हैं, वे वाई.वाई. द्वारा लिखे गए हैं। याओ और लोटफ़ी ज़ादेह नीचे #संदर्भ में सूचीबद्ध हैं।
 * }

घटक कणीकरण
अवधारणा ग्रैनुलेशन पर एक और परिप्रेक्ष्य श्रेणियों के पैरामीट्रिक मॉडल पर काम से प्राप्त किया जा सकता है। उदाहरण के लिए, मिश्रण मॉडल सीखने में, डेटा के एक सेट को विशिष्ट गाऊसी वितरण (या अन्य) वितरण के मिश्रण के रूप में समझाया जाता है। इस प्रकार, बड़ी मात्रा में डेटा को छोटी संख्या में वितरण द्वारा प्रतिस्थापित किया जाता है। इन वितरणों की संख्या और उनके आकार की पसंद को फिर से अवधारणा ग्रैनुलेशन की समस्या के रूप में देखा जा सकता है। सामान्य तौर पर, बड़ी संख्या में वितरण या मापदंडों द्वारा डेटा के लिए बेहतर फिट प्राप्त किया जाता है, लेकिन सार्थक पैटर्न निकालने के लिए, वितरण की संख्या को सीमित करना आवश्यक है, इस प्रकार जानबूझकर अवधारणा संकल्प को मोटा किया जाता है। सही अवधारणा समाधान ढूंढना एक मुश्किल समस्या है जिसके लिए कई तरीके प्रस्तावित किए गए हैं (उदाहरण के लिए, अकाइक सूचना मानदंड, बायेसियन सूचना मानदंड, न्यूनतम विवरण लंबाई इत्यादि), और इन्हें अक्सर मॉडल नियमितीकरण के अंतर्गत माना जाता है।

ग्रेन्युलर कंप्यूटिंग की विभिन्न व्याख्याएँ
ग्रैन्युलर कंप्यूटिंग की कल्पना सिद्धांतों, पद्धतियों, तकनीकों और उपकरणों के एक ढांचे के रूप में की जा सकती है जो समस्या समाधान की प्रक्रिया में सूचना ग्रैन्यूल का उपयोग करते हैं। इस अर्थ में, ग्रैन्युलर कंप्यूटिंग का उपयोग उन विषयों को कवर करने के लिए एक व्यापक शब्द के रूप में किया जाता है जिनका विभिन्न क्षेत्रों में अलग-अलग अध्ययन किया गया है। ग्रैन्युलर कंप्यूटिंग के एकीकृत ढांचे के आलोक में इन सभी मौजूदा अध्ययनों की जांच करके और उनकी समानताएं निकालकर, समस्या समाधान के लिए एक सामान्य सिद्धांत विकसित करना संभव हो सकता है।

अधिक दार्शनिक अर्थ में, ग्रैन्युलर कंप्यूटिंग सोचने के एक तरीके का वर्णन कर सकता है जो ग्रैन्युलैरिटी के विभिन्न स्तरों (यानी, अमूर्तता) के तहत वास्तविक दुनिया को समझने की मानवीय क्षमता पर निर्भर करता है ताकि केवल उन चीजों को अमूर्त और विचार किया जा सके जो एक विशिष्ट रुचि की सेवा करते हैं और विभिन्न ग्रैन्युलैरिटी के बीच स्विच करते हैं। ग्रैन्युलैरिटी के विभिन्न स्तरों पर ध्यान केंद्रित करके, कोई भी ज्ञान के विभिन्न स्तरों को प्राप्त कर सकता है, साथ ही अंतर्निहित ज्ञान संरचना की बेहतर समझ भी प्राप्त कर सकता है। इस प्रकार मानव समस्या समाधान में ग्रैन्युलर कंप्यूटिंग आवश्यक है और इसलिए बुद्धिमान प्रणालियों के डिजाइन और कार्यान्वयन पर इसका बहुत महत्वपूर्ण प्रभाव पड़ता है।

यह भी देखें

 * कच्चा सेट, विवेक
 * टाइप-2 फ़ज़ी सेट और सिस्टम

संदर्भ

 * Bargiela, A. and Pedrycz, W. (2003) Granular Computing. An introduction, Kluwer Academic Publishers
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Yao, Y.Y. (2004) "A Partition Model of Granular Computing", Lecture Notes in Computer Science (to appear)
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127
 * Zadeh, L.A. (1997) "Toward a Theory of Fuzzy Information Granulation and its Centrality in Human Reasoning and Fuzzy Logic", Fuzzy Sets and Systems, 90:111-127