रफ़ सेट

कंप्यूटर विज्ञान में, एक रफ सेट, जिसे पहली बार पोलिश कंप्यूटर वैज्ञानिक ज़डज़िस्लाव आई. पावलक द्वारा वर्णित किया गया था, सेट की एक जोड़ी के संदर्भ में एक कुरकुरा सेट  (अर्थात, पारंपरिक सेट) का एक औपचारिक अनुमान है जो निचला और ऊपरी सन्निकटन देता है। मूल सेट रफ सेट थ्योरी (पावलक 1991) के मानक संस्करण में, निचले और ऊपरी-सन्निकटन सेट क्रिस्प सेट होते हैं, किन्तुअन्य विविधताओं में, अनुमानित सेट अस्पष्ट सेट हो सकते हैं।

परिभाषाएँ
निम्नलिखित अनुभाग में कुछ प्रमुख परिभाषाओं के साथ, रफ सेट सिद्धांत के बुनियादी ढांचे का अवलोकन सम्मिलित है, जैसा कि मूल रूप से ज़ेडज़िस्लाव आई. पावलक द्वारा प्रस्तावित किया गया हैं। रफ सेट के अधिक औपचारिक गुण और सीमाएँ पावलक (1991) और उद्धृत संदर्भों में पाई जा सकती हैं। रफ सेट के प्रारंभिक और बुनियादी सिद्धांत को कभी-कभी पावलक रफ सेट या क्लासिकल रफ सेट के रूप में संदर्भित किया जाता है, जो कि हाल के विस्तार और सामान्यीकरण से भिन्न करने का एक साधन है।

सूचना प्रणाली ढांचा
होने देना $$I = (\mathbb{U},\mathbb{A})$$ एक सूचना प्रणाली (विशेषता-मूल्य प्रणाली) बनें, जहां $$ \mathbb{U}$$ वस्तुओं (ब्रह्मांड) का एक गैर-रिक्त, सीमित सेट है $$ \mathbb{A}$$ ऐसी विशेषताओं का एक गैर-रिक्त, सीमित सेट है $$I:\mathbb{U} \rightarrow V_a$$ हरएक के लिए $$a \in \mathbb{A}$$. $$V_a$$ मानों का वह समूह है जो विशेषता देता है $$a$$ लग सकता है। सूचना तालिका एक मान निर्दिष्ट करती है $$a(x)$$ से $$V_a$$ प्रत्येक विशेषता के लिए $$a$$ और आपत्ति $$x$$ ब्रह्मांड में $$\mathbb{U}$$.

किसी के साथ $$P \subseteq \mathbb{A}$$ एक संबद्ध तुल्यता संबंध है $$\mathrm{IND}(P)$$:



\mathrm{IND}(P) = \left\{(x,y) \in \mathbb{U}^2 \mid \forall a \in P, a(x)=a(y)\right\} $$ रिश्ता $$\mathrm{IND}(P)$$ ए कहा जाता है $$P$$- अविवेकपूर्ण संबंध. का विभाजन $$\mathbb{U}$$ के सभी समतुल्य वर्गों का एक परिवार है $$\mathrm{IND}(P)$$ और द्वारा दर्शाया गया है $$\mathbb{U}/\mathrm{IND}(P)$$ (या $$\mathbb{U}/P$$).

यदि $$(x,y)\in \mathrm{IND}(P)$$, तब $$x$$ और $$y$$ गुणों के आधार पर अप्रभेद्य (या अप्रभेद्य) हैं $$P$$.

के समतुल्य वर्ग $$P$$-अविवेकी संबंध निरूपित किया जाता है $$[x]_P$$.

उदाहरण: तुल्यता-वर्ग संरचना
उदाहरण के लिए, निम्नलिखित सूचना तालिका पर विचार करें:


 * {| class="wikitable" style="text-align:center; width:30%" border="1"

! Object !! $$P_{1}$$ !! $$P_{2}$$ !! $$P_{3}$$ !! $$P_{4}$$ !! $$P_{5}$$ ! $$O_{1}$$ ! $$O_{2}$$ ! $$O_{3}$$ ! $$O_{4}$$ ! $$O_{5}$$ ! $$O_{6}$$ ! $$O_{7}$$ ! $$O_{8}$$ ! $$O_{9}$$ ! $$O_{10}$$ जब गुणों का पूरा सेट $$P = \{P_{1},P_{2},P_{3},P_{4},P_{5}\}$$ विचार करने पर, हम देखते हैं कि हमारे पास निम्नलिखित सात समतुल्य वर्ग हैं:
 * + Sample Information System
 * 1 || 2 || 0 || 1 || 1
 * 1 || 2 || 0 || 1 || 1
 * 2 || 0 || 0 || 1 || 0
 * 0 || 0 || 1 || 2 || 1
 * 2 || 1 || 0 || 2 || 1
 * 0 || 0 || 1 || 2 || 2
 * 2 || 0 || 0 || 1 || 0
 * 0 || 1 || 2 || 2 || 1
 * 2 || 1 || 0 || 2 || 2
 * 2 || 0 || 0 || 1 || 0
 * }



\begin{cases} \{O_{1},O_{2}\} \\ \{O_{3},O_{7},O_{10}\} \\ \{O_{4}\} \\ \{O_{5}\} \\ \{O_{6}\} \\ \{O_{8}\} \\ \{O_{9}\} \end{cases} $$ इस प्रकार, प्रथम तुल्यता वर्ग के भीतर दो वस्तुएँ, $$\{O_{1},O_{2}\}$$, उपलब्ध विशेषताओं और दूसरे समतुल्य वर्ग के भीतर तीन वस्तुओं के आधार पर एक दूसरे से भिन्न नहीं किया जा सकता है, $$\{O_{3},O_{7},O_{10}\}$$, उपलब्ध विशेषताओं के आधार पर एक दूसरे से भिन्न नहीं किया जा सकता। शेष पाँच वस्तुएँ अन्य सभी वस्तुओं से भिन्न हैं।

यह स्पष्ट है कि भिन्न-भिन्न विशेषता उपसमुच्चय चयन सामान्यतः भिन्न-भिन्न अविवेकपूर्णता वर्गों को जन्म देंगे। उदाहरण के लिए, यदि विशेषता $$P =\{ P_{1}\}$$ अकेले चयनित होने पर, हमें निम्नलिखित, अधिक मोटे, तुल्यता-वर्ग संरचना प्राप्त होती है:



\begin{cases} \{O_{1},O_{2}\} \\ \{O_{3},O_{5},O_{7},O_{9},O_{10}\} \\ \{O_{4},O_{6},O_{8}\} \end{cases} $$

रफ़ सेट की परिभाषा
होने देना $$X \subseteq \mathbb{U}$$ एक लक्ष्य सेट हो जिसे हम विशेषता उपसमुच्चय का उपयोग करके प्रस्तुत करना चाहते हैं $$P$$; अर्थात्, हमें बताया गया है कि वस्तुओं का एक मनमाना सेट $$X$$ इसमें एक एकल वर्ग सम्मिलित है, और हम विशेषता उपसमुच्चय द्वारा प्रेरित समतुल्य वर्गों का उपयोग करके इस वर्ग (अर्थात, इस उपसमुच्चय) को व्यक्त करना चाहते हैं $$P$$. सामान्य रूप में, $$X$$ सटीक रूप से व्यक्त नहीं किया जा सकता है, क्योंकि सेट में उन वस्तुओं को सम्मिलित और बाहर किया जा सकता है जो विशेषताओं के आधार पर अप्रभेद्य हैं $$P$$.

उदाहरण के लिए, निर्धारित लक्ष्य पर विचार करें $$X = \{O_{1},O_{2},O_{3},O_{4}\}$$, और विशेषता उपसमुच्चय दें $$P = \{P_{1}, P_{2}, P_{3}, P_{4}, P_{5}\}$$, सुविधाओं का पूरा उपलब्ध सेट। सेट $$X$$ सटीक रूप से व्यक्त नहीं किया जा सकता, क्योंकि में $$[x]_P,$$, वस्तुएं $$\{O_{3}, O_{7}, O_{10}\}$$ अविवेकी हैं. इस प्रकार, किसी भी सेट का प्रतिनिधित्व करने का कोई विधिनहीं है $$X$$ जो भी सम्मिलित है $$O_{3}$$ किन्तुवस्तुओं को छोड़ देता है $$O_{7}$$ और $$O_{10}$$.

हालाँकि, लक्ष्य निर्धारित है $$X$$ केवल उसमें उपस्थित जानकारी का उपयोग करके अनुमान लगाया जा सकता है $$P$$ का निर्माण करके $$P$$-निचला और $$P$$-ऊपरी सन्निकटन $$X$$:



{\underline P}X= \{x \mid [x]_P \subseteq X\} $$

{\overline P}X = \{x \mid [x]_P \cap X \neq \emptyset \} $$

निचला सन्निकटन और सकारात्मक क्षेत्र
$$P$$वें>-निचला सन्निकटन, या सकारात्मक क्षेत्र, सभी समतुल्य वर्गों का मिलन है $$[x]_P$$ जो लक्ष्य निर्धारित द्वारा समाहित हैं (अर्थात, इसके उपसमूह हैं) - उदाहरण में, $${\underline P}X = \{O_{1}, O_{2}\} \cup \{O_{4}\}$$, दो समतुल्य वर्गों का मिलन $$[x]_P$$ जो निर्धारित लक्ष्य में समाहित है। निचला सन्निकटन वस्तुओं का पूरा सेट है $$\mathbb{U}/P$$ जिसे सकारात्मक रूप से (अर्थात, स्पष्ट रूप से) लक्ष्य निर्धारित से संबंधित के रूप में वर्गीकृत किया जा सकता है $$X$$.

ऊपरी सन्निकटन और ऋणात्मक क्षेत्र
$$P$$वें>-ऊपरी सन्निकटन सभी समतुल्य वर्गों का मिलन है $$[x]_P$$ जिनका लक्ष्य निर्धारित के साथ गैर-रिक्त प्रतिच्छेदन है - उदाहरण में, $${\overline P}X = \{O_{1}, O_{2}\} \cup \{O_{4}\} \cup \{O_{3}, O_{7}, O_{10}\}$$, तीन समतुल्य वर्गों का मिलन $$[x]_P$$ जिनका निर्धारित लक्ष्य के साथ गैर-रिक्त प्रतिच्छेदन है। ऊपरी सन्निकटन वस्तुओं का पूरा सेट है $$\mathbb{U}/P$$ जिसे सकारात्मक रूप से (अर्थात, स्पष्ट रूप से) पूरक के रूप में वर्गीकृत नहीं किया जा सकता ($$\overline X$$) निर्धारित लक्ष्य का $$X$$. दूसरे शब्दों में, ऊपरी सन्निकटन वस्तुओं का पूरा सेट है जो संभवतः लक्ष्य सेट के सदस्य हैं $$X$$.

सेट $$\mathbb{U}-{\overline P}X$$ इसलिए नकारात्मक क्षेत्र का प्रतिनिधित्व करता है, जिसमें वस्तुओं का समूह सम्मिलित है जिन्हें लक्ष्य सेट के सदस्यों के रूप में निश्चित रूप से खारिज किया जा सकता है।

सीमा क्षेत्र
सीमा क्षेत्र, निर्धारित अंतर द्वारा दिया गया $${\overline P}X - {\underline P}X$$, इसमें वे वस्तुएं सम्मिलित हैं जिन्हें लक्ष्य निर्धारित के सदस्यों के रूप में न तो खारिज किया जा सकता है और न ही खारिज किया जा सकता है $$X$$.

संक्षेप में, लक्ष्य सेट का निचला सन्निकटन एक रूढ़िवादी सन्निकटन है जिसमें केवल वे वस्तुएं सम्मिलित होती हैं जिन्हें सकारात्मक रूप से सेट के सदस्यों के रूप में पहचाना जा सकता है। (इन वस्तुओं में कोई अदृश्य क्लोन नहीं है जिन्हें लक्ष्य सेट से बाहर रखा गया है।) ऊपरी सन्निकटन एक उदार सन्निकटन है जिसमें वे सभी वस्तुएँ सम्मिलित हैं जो लक्ष्य निर्धारित के सदस्य हो सकते हैं। (ऊपरी सन्निकटन में कुछ वस्तुएं लक्ष्य निर्धारित की सदस्य नहीं हो सकती हैं।) के परिप्रेक्ष्य से $$\mathbb{U}/P$$, निचले सन्निकटन में वे वस्तुएँ सम्मिलित हैं जो निश्चितता (संभावना = 1) के साथ निर्धारित लक्ष्य के सदस्य हैं, जबकि ऊपरी सन्निकटन में वे वस्तुएँ सम्मिलित हैं जो गैर-शून्य संभावना (संभावना> 0) के साथ निर्धारित लक्ष्य के सदस्य हैं।

रफ़ सेट
टुपल $$\langle{\underline P}X,{\overline P}X\rangle$$ निचले और ऊपरी सन्निकटन से बना रफ सेट कहलाता है; इस प्रकार, एक रफ सेट दो क्रिस्प सेटों से बना होता है, जिनमें से एक लक्ष्य सेट की निचली सीमा का प्रतिनिधित्व करता है $$X$$, और दूसरा लक्ष्य निर्धारित की ऊपरी सीमा का प्रतिनिधित्व करता है $$X$$.

सेट के रफ-सेट प्रतिनिधित्व की सटीकता $$X$$ निम्नलिखित द्वारा दिया जा सकता है (पावलक 1991):



\alpha_{P}(X) = \frac{\left | {\underline P}X \right |} {\left | {\overline P}X \right |} $$ अर्थात्, किसी न किसी सेट प्रतिनिधित्व की सटीकता $$X$$, $$\alpha_{P}(X)$$, $$0 \leq \alpha_{P}(X) \leq 1$$, उन वस्तुओं की संख्या का अनुपात है जिन्हें सकारात्मक रूप से रखा जा सकता है $$X$$ उन वस्तुओं की संख्या तक जिन्हें संभवतः रखा जा सकता है $$X$$ - यह इस बात का माप प्रदान करता है कि रफ सेट लक्ष्य सेट के कितनी करीब है। स्पष्ट रूप से, जब ऊपरी और निचले सन्निकटन बराबर होते हैं (अर्थात, सीमा क्षेत्र खाली होता है), तो $$\alpha_{P}(X) = 1$$, और सन्निकटन एकदम सही है; दूसरे चरम पर, जब भी निचला सन्निकटन खाली होता है, सटीकता शून्य होती है (ऊपरी सन्निकटन के आकार की परवाह किए बिना)।

उद्देश्य विश्लेषण
रफ सेट सिद्धांत कई तरीकों में से एक है जिसे अनिश्चित (अस्पष्ट सहित) प्रणालियों का विश्लेषण करने के लिए नियोजित किया जा सकता है, चूँकि संभाव्यता, सांख्यिकी, एन्ट्रॉपी (सूचना सिद्धांत) और डेम्पस्टर-शेफ़र सिद्धांत के अधिक पारंपरिक तरीकों की तुलना में कम आम है। हालाँकि, मौलिक रफ सेट सिद्धांत का उपयोग करने का एक महत्वपूर्ण अंतर और एक अद्वितीय ताकत यह है कि यह विश्लेषण का एक उद्देश्यपूर्ण रूप प्रदान करता है (पावलक एट अल। 1995)। अन्य तरीकों के विपरीत, जैसा कि ऊपर दिया गया है, क्लासिकल रफ सेट विश्लेषण के लिए सेट सदस्यता निर्धारित करने के लिए किसी अतिरिक्त जानकारी, बाहरी पैरामीटर, मॉडल, फ़ंक्शन, ग्रेड या व्यक्तिपरक व्याख्याओं की आवश्यकता नहीं होती है - इसके अतिरिक्त यह केवल दिए गए डेटा के भीतर प्रस्तुत जानकारी का उपयोग करता है (डंटश और गेडिगा 1995) ). रफ सेट सिद्धांत के हालिया अनुकूलन, जैसे कि प्रभुत्व-आधारित, निर्णय-सैद्धांतिक और फ़ज़ी रफ सेट, ने विश्लेषण में अधिक व्यक्तिपरकता ला दी है।

निश्चयता
सामान्यतः, ऊपरी और निचले सन्निकटन समान नहीं होते हैं; ऐसे मामलों में, हम कहते हैं कि लक्ष्य निर्धारित है $$X$$ विशेषता सेट पर अपरिभाषित या मोटे तौर पर परिभाषित नहीं है $$P$$. जब ऊपरी और निचला सन्निकटन बराबर हो (अर्थात, सीमा खाली हो), $${\overline P}X = {\underline P}X$$, फिर लक्ष्य निर्धारित किया गया $$X$$ विशेषता सेट पर निश्चित है $$P$$. हम अपरिभाषितता के निम्नलिखित विशेष मामलों को भिन्न कर सकते हैं:


 * तय करना $$X$$ यदि आंतरिक रूप से अपरिभाषित है $${\underline P}X = \emptyset$$ और $${\overline P}X \neq \mathbb{U}$$. इसका मतलब है कि विशेषता सेट पर $$P$$, ऐसी कोई वस्तु नहीं है जिसके बारे में हम निश्चित हो सकें कि वह लक्ष्य निर्धारित से संबंधित है $$X$$, किन्तुऐसी वस्तुएं हैं जिन्हें हम निश्चित रूप से सेट से बाहर कर सकते हैं $$X$$.
 * तय करना $$X$$ यदि बाह्य रूप से अपरिभाषित है $${\underline P}X \neq \emptyset$$ और $${\overline P}X = \mathbb{U}$$. इसका मतलब है कि विशेषता सेट पर $$P$$, ऐसी वस्तुएं हैं जिनके बारे में हम निश्चित हो सकते हैं कि वे लक्ष्य निर्धारित से संबंधित हैं $$X$$, किन्तुऐसी कोई वस्तु नहीं है जिसे हम निश्चित रूप से सेट से बाहर कर सकें $$X$$.
 * तय करना $$X$$ यदि पूरी तरह से अपरिभाषित है $${\underline P}X = \emptyset$$ और $${\overline P}X = \mathbb{U}$$. इसका मतलब है कि विशेषता सेट पर $$P$$, ऐसी कोई वस्तु नहीं है जिसके बारे में हम निश्चित हो सकें कि वह लक्ष्य निर्धारित से संबंधित है $$X$$, और ऐसी कोई वस्तु नहीं है जिसे हम निश्चित रूप से सेट से बाहर कर सकें $$X$$. इस प्रकार, विशेषता सेट पर $$P$$, हम यह तय नहीं कर सकते कि कोई वस्तु इसका सदस्य है या नहीं $$X$$.

रिडक्ट और कोर
एक रोचक सवाल यह है कि क्या सूचना प्रणाली (विशेषता-मूल्य तालिका) में ऐसी विशेषताएं हैं जो अन्य विशेषताओं की तुलना में समतुल्य वर्ग संरचना में दर्शाए गए ज्ञान के लिए अधिक महत्वपूर्ण हैं। प्रायः, हमें आश्चर्य होता है कि क्या विशेषताओं का एक उपसमूह है, जो अपने आप में, डेटाबेस में ज्ञान को पूरी तरह से चित्रित कर सकता है; ऐसे विशेषता सेट को रिडक्ट कहा जाता है।

औपचारिक रूप से, रिडक्ट विशेषताओं का एक उपसमूह है $$\mathrm{RED} \subseteq P$$ ऐसा है कि


 * $$[x]_{\mathrm{RED}}$$ = $$[x]_P$$, अर्थात्, कम विशेषता सेट द्वारा प्रेरित समतुल्य वर्ग $$\mathrm{RED}$$ पूर्ण विशेषता सेट द्वारा प्रेरित समतुल्य वर्ग संरचना के समान हैं $$P$$.
 * विशेषता सेट $$\mathrm{RED}$$ न्यूनतम है, इस अर्थ में $$[x]_{(\mathrm{RED}-\{a\})} \neq [x]_P$$ किसी भी विशेषता के लिए $$a \in \mathrm{RED}$$; दूसरे शब्दों में, किसी भी विशेषता को सेट से हटाया नहीं जा सकता $$\mathrm{RED}$$ समतुल्य वर्गों को बदले बिना $$[x]_P$$.

कमी को सुविधाओं के पर्याप्त सेट के रूप में सोचा जा सकता है - पर्याप्त, अर्थात श्रेणी संरचना का प्रतिनिधित्व करने के लिए। उपरोक्त उदाहरण तालिका में, विशेषता सेट $$\{P_3,P_4,P_5\}$$ एक कमी है - केवल इन विशेषताओं पर प्रक्षेपित सूचना प्रणाली में समान समतुल्य वर्ग संरचना होती है जो पूर्ण विशेषता सेट द्वारा व्यक्त की जाती है:



\begin{cases} \{O_{1},O_{2}\} \\ \{O_{3},O_{7},O_{10}\} \\ \{O_{4}\} \\ \{O_{5}\} \\ \{O_{6}\} \\ \{O_{8}\} \\ \{O_{9}\} \end{cases} $$ विशेषता सेट $$\{P_3,P_4,P_5\}$$ एक कमी है क्योंकि इनमें से किसी भी विशेषता को समाप्त करने से तुल्यता-वर्ग संरचना का पतन हो जाता है, जिसके परिणामस्वरूप $$[x]_{\mathrm{RED}} \neq [x]_P$$.

किसी सूचना प्रणाली की कमी अद्वितीय नहीं है: विशेषताओं के कई उपसमूह हो सकते हैं जो सूचना प्रणाली में व्यक्त समतुल्य-वर्ग संरचना (अर्थात, ज्ञान) को संरक्षित करते हैं। उपरोक्त उदाहरण सूचना प्रणाली में, एक और कमी है $$\{P_1,P_2,P_5\}$$, समान तुल्यता-वर्ग संरचना का निर्माण करता है $$[x]_P$$.

गुणों का वह सेट जो सभी रिडक्ट्स के लिए सामान्य है, कोर कहलाता है: कोर उन गुणों का सेट है जो हर रिडक्ट के पास होता है, और इसलिए इसमें ऐसे गुण होते हैं जिन्हें तुल्यता-वर्ग के पतन के बिना सूचना प्रणाली से हटाया नहीं जा सकता है संरचना। कोर को आवश्यक विशेषताओं के सेट के रूप में सोचा जा सकता है - आवश्यक, अर्थात, श्रेणी संरचना का प्रतिनिधित्व करने के लिए। उदाहरण में, ऐसी एकमात्र विशेषता है $$\{P_5\}$$; अन्य विशेषताओं में से किसी एक को समतुल्य-वर्ग संरचना को नुकसान पहुंचाए बिना अकेले हटाया जा सकता है, और इसलिए ये सभी डिस्पेंसेबल हैं। हालाँकि, हटा रहा हूँ $$\{P_5\}$$ अपने आप में तुल्यता-वर्ग संरचना बदल जाती है, और इस प्रकार $$\{P_5\}$$ इस सूचना प्रणाली का अपरिहार्य गुण है, और इसलिए इसका मूल है।

कोर का खाली होना संभव है, जिसका अर्थ है कि कोई अपरिहार्य विशेषता नहीं है: ऐसी सूचना प्रणाली में किसी भी एक विशेषता को समतुल्य-वर्ग संरचना में बदलाव किए बिना हटाया जा सकता है। ऐसे मामलों में, कोई आवश्यक या आवश्यक विशेषता नहीं है जो वर्ग संरचना का प्रतिनिधित्व करने के लिए आवश्यक हो।

विशेषता निर्भरता
डेटाबेस विश्लेषण या डेटा अधिग्रहण के सबसे महत्वपूर्ण पहलुओं में से एक विशेषता निर्भरता की खोज है; अर्थात्, हम यह पता लगाना चाहते हैं कि कौन से चर किस अन्य चर से दृढ़ता से संबंधित हैं। सामान्यतः, यह ये स्थिर रिश्ते हैं जो आगे की जांच की गारंटी देंगे, और जो अंततः भविष्य कहनेवाला मॉडलिंग में उपयोगी होंगे।

रफ सेट सिद्धांत में, निर्भरता की धारणा को बहुत सरलता से परिभाषित किया गया है। आइए हम विशेषताओं के दो (असंबद्ध) सेट लें, सेट करें $$P$$ और सेट करें $$Q$$, और पूछताछ करें कि उनके बीच किस स्तर की निर्भरता प्राप्त होती है। प्रत्येक विशेषता सेट एक (अविवेकी) तुल्यता वर्ग संरचना को प्रेरित करता है, तुल्यता वर्ग प्रेरित होते हैं $$P$$ द्वारा दिए गए $$[x]_P$$, और तुल्यता वर्ग द्वारा प्रेरित $$Q$$ द्वारा दिए गए $$[x]_Q$$.

होने देना $$[x]_Q = \{Q_1, Q_2, Q_3, \dots, Q_N \}$$, कहाँ $$Q_i$$ विशेषता सेट द्वारा प्रेरित समतुल्य-वर्ग संरचना से एक दिया गया समतुल्य वर्ग है $$Q$$. फिर, विशेषता सेट की निर्भरता $$Q$$ विशेषता सेट पर $$P$$, $$\gamma_{P}(Q)$$, द्वारा दिया गया है



\gamma_{P}(Q) = \frac{\sum_{i=1}^N \left | {\underline P}Q_i \right |} {\left | \mathbb{U} \right |} \leq 1 $$ अर्थात् प्रत्येक समतुल्य वर्ग के लिए $$Q_i$$ में $$[x]_Q$$, हम इसके निचले सन्निकटन के आकार को विशेषताओं द्वारा जोड़ते हैं $$P$$, अर्थात।, $${\underline P}Q_i$$. यह सन्निकटन (जैसा कि ऊपर है, मनमाने सेट के लिए $$X$$) उन वस्तुओं की संख्या है जो विशेषता पर सेट हैं $$P$$ लक्ष्य निर्धारित से संबंधित के रूप में सकारात्मक रूप से पहचाना जा सकता है $$Q_i$$. सभी समतुल्य वर्गों में जोड़ा गया $$[x]_Q$$, उपरोक्त अंश वस्तुओं की कुल संख्या का प्रतिनिधित्व करता है जो - विशेषता सेट पर आधारित है $$P$$ - विशेषताओं द्वारा प्रेरित वर्गीकरण के अनुसार सकारात्मक रूप से वर्गीकृत किया जा सकता है $$Q$$. इसलिए निर्भरता अनुपात ऐसी वर्गीकृत वस्तुओं के अनुपात (संपूर्ण ब्रह्मांड के भीतर) को व्यक्त करता है। निर्भरता $$\gamma_{P}(Q)$$ सूचना प्रणाली में ऐसी वस्तुओं के अनुपात के रूप में व्याख्या की जा सकती है जिसके लिए विशेषताओं के मूल्यों को जानना पर्याप्त है $$P$$ में विशेषताओं के मान निर्धारित करने के लिए $$Q$$.

निर्भरता पर विचार करने का एक और, सहज, विधिप्रेरित विभाजन को लेना है $$Q$$ लक्ष्य वर्ग के रूप में $$C$$, और विचार करें $$P$$ लक्ष्य वर्ग के पुनर्निर्माण के लिए हम जिस विशेषता सेट का उपयोग करना चाहते हैं $$C$$. यदि $$P$$ पूर्णतः पुनर्निर्माण कर सकता है $$C$$, तब $$Q$$ पूर्णतः निर्भर करता है $$P$$; यदि $$P$$ इसका परिणाम खराब और संभवतः यादृच्छिक पुनर्निर्माण होता है $$C$$, तब $$Q$$ पर निर्भर नहीं है $$P$$ बिलकुल।

इस प्रकार, निर्भरता का यह माप विशेषता सेट की कार्यात्मक (अर्थात, नियतात्मक) निर्भरता की डिग्री को व्यक्त करता है $$Q$$ विशेषता सेट पर $$P$$; यह सममित नहीं है. विशेषता निर्भरता की इस धारणा का विशेषता निर्भरता की अधिक पारंपरिक सूचना-सैद्धांतिक (अर्थात, एंट्रोपिक) धारणाओं के संबंध पर कई स्रोतों में विचार की गई है (उदाहरण के लिए, पावलक, वोंग, और ज़िआर्को 1988; याओ और याओ 2002; वोंग, ज़िआर्को) , और ये 1986, क्वाफाफौ और बौसौफ 2000)।

नियम निष्कर्षण
ऊपर जिन श्रेणी निरूपणों की विचार की गई है वे सभी प्रकृति में विस्तारित हैं; अर्थात्, एक श्रेणी या जटिल वर्ग अपने सभी सदस्यों का योग मात्र है। किसी श्रेणी का प्रतिनिधित्व करने का मतलब उस श्रेणी से संबंधित सभी वस्तुओं को सूचीबद्ध करने या पहचानने में सक्षम होना है। हालाँकि, विस्तारित श्रेणी प्रतिनिधित्व का व्यावहारिक उपयोग बहुत सीमित है, क्योंकि वे यह तय करने के लिए कोई अंतर्दृष्टि प्रदान नहीं करते हैं कि नई (पहले कभी नहीं देखी गई) वस्तुएँ श्रेणी की सदस्य हैं या नहीं।

सामान्यतः जो वांछित होता है वह श्रेणी का एक जानबूझकर विवरण होता है, नियमों के एक सेट के आधार पर श्रेणी का प्रतिनिधित्व जो श्रेणी के दायरे का वर्णन करता है। ऐसे नियमों का चुनाव अद्वितीय नहीं है, और इसमें आगमनात्मक पूर्वाग्रह का मुद्दा निहित है। इस समस्या के बारे में अधिक जानकारी के लिए संस्करण स्थान और मॉडल चयन देखें।

कुछ नियम-निष्कर्षण विधियाँ हैं। हम ज़िआर्को और शान (1995) पर आधारित नियम-निष्कर्षण प्रक्रिया से शुरुआत करेंगे।

निर्णय मैट्रिक्स
मान लीजिए कि हम सुसंगत नियमों (तार्किक निहितार्थ) का न्यूनतम सेट ढूंढना चाहते हैं जो हमारी नमूना प्रणाली की विशेषता बताते हैं। शर्त विशेषताओं के एक सेट के लिए $$\mathcal{P} = \{P_1, P_2, P_3, \dots, P_n\}$$ और एक निर्णय विशेषता $$Q, Q \notin \mathcal{P}$$, इन नियमों का स्वरूप होना चाहिए $$P_i^a P_j^b \dots P_k^c \to Q^d$$, या, वर्तनी में,


 * $$(P_i=a) \land (P_j=b) \land \dots \land (P_k=c) \to (Q=d)$$

कहाँ $$\{a, b, c, \dots\}$$ उनकी संबंधित विशेषताओं के डोमेन से वैध मान हैं। यह एसोसिएशन नियमों का एक विशिष्ट रूप है, और इसमें मदों की संख्या है $$\mathbb{U}$$ जो स्थिति/पूर्ववृत्त से मेल खाता हो, उसे नियम का समर्थन कहा जाता है। ऐसे नियम निकालने की विधि इसमें दी गई है प्रत्येक व्यक्तिगत मूल्य के अनुरूप एक निर्णय मैट्रिक्स बनाना है $$d$$ निर्णय विशेषता का $$Q$$. अनौपचारिक रूप से, मूल्य के लिए निर्णय मैट्रिक्स $$d$$ निर्णय विशेषता का $$Q$$ सभी विशेषता-मूल्य युग्मों को सूचीबद्ध करता है जो वस्तुओं के बीच भिन्न होते हैं $$Q = d $$ और $$Q \ne d$$.

इसे उदाहरण द्वारा सबसे अच्छी तरह से समझाया गया है (जो बहुत सारे नोटेशन से भी बचाता है)। ऊपर दी गई तालिका पर विचार करें, और आइए $$P_{4}$$ निर्णय परिवर्तनशील बनें (अर्थात, निहितार्थ के दाईं ओर चर) और रहने दें $$\{P_1,P_2,P_3\}$$ स्थिति चर बनें (निहितार्थ के बाईं ओर)। हम ध्यान दें कि निर्णय परिवर्तनशील है $$P_{4}$$ अर्थात् दो भिन्न मान ग्रहण करता है $$\{1, 2\}$$. हम प्रत्येक मामले को भिन्न से देखते हैं।

सबसे पहले, हम मामले को देखते हैं $$P_{4}=1$$, और हम विभाजित हो जाते हैं $$\mathbb{U}$$ उन वस्तुओं में जिनके पास है $$P_{4}=1$$ और जिनके पास है $$P_{4} \ne 1$$. (ध्यान दें कि ऑब्जेक्ट के साथ $$P_{4} \ne 1$$ इस मामले में केवल वे वस्तुएं हैं जो हैं $$P_{4}=2$$, किन्तुसामान्य रूप में, $$P_{4} \ne 1$$ इसमें वे सभी वस्तुएँ सम्मिलित होंगी जिनके लिए कोई मूल्य हो $$P_{4}$$ के अतिरिक्त अन्य $$P_{4}=1$$, और वस्तुओं के ऐसे कई वर्ग हो सकते हैं (उदाहरण के लिए, जिनके पास $$P_{4}=2,3,4,etc.$$).) इस मामले में, वस्तुओं का होना $$P_{4}=1$$ हैं $$\{O_1,O_2,O_3,O_7,O_{10}\}$$ जबकि जो वस्तुएं हैं $$P_{4} \ne 1$$ हैं $$\{O_4,O_5,O_6,O_8,O_9\}$$. के लिए निर्णय मैट्रिक्स $$P_{4}=1$$ वस्तुओं के बीच सभी अंतरों को सूचीबद्ध करता है $$P_{4}=1$$ और जिनके पास है $$P_{4} \ne 1$$; अर्थात्, निर्णय मैट्रिक्स बीच के सभी अंतरों को सूचीबद्ध करता है $$\{O_1,O_2,O_3,O_7,O_{10}\}$$ और $$\{O_4,O_5,O_6,O_8,O_9\}$$. हम सकारात्मक वस्तुएँ डालते हैं ($$P_{4}=1$$) पंक्तियों और नकारात्मक वस्तुओं के रूप में $$P_{4} \ne 1$$ स्तंभों के रूप में.


 * {| class="wikitable" style="text-align:center; width:30%" border="1"

! Object !! $$O_{4}$$ !! $$O_{5}$$ !! $$O_{6}$$ !! $$O_{8}$$ !! $$O_{9}$$ ! $$O_{1}$$ ! $$O_{2}$$ ! $$O_{3}$$ ! $$O_{7}$$ ! $$O_{10}$$ इस निर्णय मैट्रिक्स को पढ़ने के लिए, उदाहरण के लिए, पंक्ति के प्रतिच्छेदन को देखें $$O_{3}$$ और स्तंभ $$O_{6}$$, दिखा रहा है $$P_1^2,P_3^0$$ कोशिका में. इसका मतलब यह है कि निर्णय मूल्य के संबंध में $$P_{4}=1$$, वस्तु $$O_{3}$$ वस्तु से भिन्न है $$O_{6}$$ गुणों पर $$P_1$$ और $$P_3$$, और सकारात्मक वस्तु के लिए इन विशेषताओं पर विशेष मान $$O_{3}$$ हैं $$P_1=2$$ और $$P_3=0$$. यह हमें बताता है कि इसका सही वर्गीकरण क्या है $$O_{3}$$ निर्णय वर्ग से संबंधित होने के नाते $$P_{4}=1$$ गुणों पर निर्भर है $$P_1$$ और $$P_3$$; हालाँकि इनमें से एक या दूसरा अपरिहार्य हो सकता है, हम जानते हैं कि इनमें से कम से कम एक विशेषता अपरिहार्य है।
 * + Decision matrix for $$P_{4}=1$$
 * $$P_1^1,P_2^2,P_3^0$$|| $$P_1^1,P_2^2$$ || $$P_1^1,P_2^2,P_3^0$$ || $$P_1^1,P_2^2,P_3^0$$ || $$P_1^1,P_2^2$$
 * $$P_1^1,P_2^2,P_3^0$$ || $$P_1^1,P_2^2$$ || $$P_1^1,P_2^2,P_3^0$$ || $$P_1^1,P_2^2,P_3^0$$ || $$P_1^1,P_2^2$$
 * $$P_1^2,P_3^0$$ || $$P_2^0$$ || $$P_1^2,P_3^0$$ || $$P_1^2,P_2^0,P_3^0$$ || $$P_2^0$$
 * $$P_1^2,P_3^0$$ || $$P_2^0$$ || $$P_1^2,P_3^0$$ || $$P_1^2,P_2^0,P_3^0$$ || $$P_2^0$$
 * $$P_1^2,P_3^0$$ || $$P_2^0$$ || $$P_1^2,P_3^0$$ || $$P_1^2,P_2^0,P_3^0$$ || $$P_2^0$$
 * }

इसके बाद, प्रत्येक निर्णय मैट्रिक्स से हम बूलियन तर्क अभिव्यक्तियों का एक सेट बनाते हैं, मैट्रिक्स की प्रत्येक पंक्ति के लिए एक अभिव्यक्ति। प्रत्येक कोशिका के भीतर की वस्तुओं को संयोजनात्मक रूप से एकत्रित किया जाता है, और व्यक्तिगत कोशिकाओं को फिर संयोजनात्मक रूप से एकत्रित किया जाता है। इस प्रकार, उपरोक्त तालिका के लिए हमारे पास निम्नलिखित पाँच बूलियन अभिव्यक्तियाँ हैं:



\begin{cases} (P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2) \land (P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2) \\ (P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2) \land (P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2) \\ (P_1^2 \lor P_3^0) \land (P_2^0) \land (P_1^2 \lor P_3^0) \land (P_1^2 \lor P_2^0 \lor P_3^0) \land (P_2^0) \\ (P_1^2 \lor P_3^0) \land (P_2^0) \land (P_1^2 \lor P_3^0) \land (P_1^2 \lor P_2^0 \lor P_3^0) \land (P_2^0) \\ (P_1^2 \lor P_3^0) \land (P_2^0) \land (P_1^2 \lor P_3^0) \land (P_1^2 \lor P_2^0 \lor P_3^0) \land (P_2^0) \end{cases} $$ यहां प्रत्येक कथन अनिवार्य रूप से कक्षा में सदस्यता को नियंत्रित करने वाला एक अत्यधिक विशिष्ट (संभवतः बहुत विशिष्ट) नियम है $$P_{4}=1$$ संबंधित वस्तु का. उदाहरण के लिए, वस्तु के अनुरूप अंतिम कथन $$O_{10}$$, बताता है कि निम्नलिखित सभी संतुष्ट होने चाहिए:
 * 1) दोनों में से एक $$P_1$$ मान 2 होना चाहिए, या  $$P_3$$ मान 0 या दोनों होना चाहिए.
 * 2) $$P_2$$ मान 0 होना चाहिए.
 * 3) दोनों में से एक $$P_1$$ मान 2 होना चाहिए, या  $$P_3$$ मान 0 या दोनों होना चाहिए.
 * 4) दोनों में से एक $$P_1$$ मान 2 होना चाहिए, या $$P_2$$ मान 0 होना चाहिए, या $$P_3$$ इसका मान 0 या उसका कोई संयोजन होना चाहिए।
 * 5) $$P_2$$ मान 0 होना चाहिए.

यह स्पष्ट है कि यहां बड़ी मात्रा में अतिरेक है, और अगला कदम पारंपरिक बूलियन बीजगणित (तर्क) का उपयोग करके सरल बनाना है। कथन $$(P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2) \land (P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2 \lor P_3^0) \land (P_1^1 \lor P_2^2)$$ वस्तुओं के अनुरूप $$\{O_{1},O_{2}\}$$ को सरल बनाता है $$P_1^1 \lor P_2^2$$, जिससे निहितार्थ निकलता है


 * $$(P_1=1) \lor (P_2=2) \to (P_{4}=1)$$

इसी प्रकार, कथन $$(P_1^2 \lor P_3^0) \land (P_2^0) \land (P_1^2 \lor P_3^0) \land (P_1^2 \lor P_2^0 \lor P_3^0) \land (P_2^0)$$ वस्तुओं के अनुरूप $$\{O_{3},O_{7},O_{10}\}$$ को सरल बनाता है $$P_1^2 P_2^0 \lor P_3^0 P_2^0$$. इससे हमें निहितार्थ मिलता है


 * $$(P_1=2 \land P_2=0) \lor (P_3=0 \land P_2=0) \to (P_{4}=1)$$

उपरोक्त निहितार्थों को निम्नलिखित नियम सेट के रूप में भी लिखा जा सकता है:



\begin{cases} (P_1=1) \to (P_{4}=1) \\ (P_2=2) \to (P_{4}=1) \\ (P_1=2) \land (P_2=0) \to (P_{4}=1) \\ (P_3=0) \land (P_2=0) \to (P_{4}=1) \end{cases} $$ यह ध्यान दिया जा सकता है कि पहले दो नियमों में से प्रत्येक को 1 का समर्थन प्राप्त है (अर्थात्, पूर्ववर्ती दो वस्तुओं से मेल खाता है), जबकि अंतिम दो नियमों में से प्रत्येक को 2 का समर्थन प्राप्त है। इस ज्ञान प्रणाली के लिए निर्धारित नियम को लिखना समाप्त करने के लिए, के मामले के लिए ऊपर दी गई समान प्रक्रिया (एक नया निर्णय मैट्रिक्स लिखने से प्रारंभ) का पालन किया जाना चाहिए $$P_{4}=2$$, इस प्रकार उस निर्णय मूल्य के लिए निहितार्थों का एक नया सेट उत्पन्न होता है (अर्थात, निहितार्थों का एक सेट) $$P_{4}=2$$ परिणाम के रूप में)। सामान्यतः, निर्णय चर के प्रत्येक संभावित मान के लिए प्रक्रिया दोहराई जाएगी।

एलईआरएस नियम प्रेरण प्रणाली
डेटा सिस्टम LERS (रफ सेट्स पर आधारित उदाहरणों से सीखना) ग्राज़ीमाला-बुसे (1997) असंगत डेटा से नियम उत्पन्न कर सकता है, अर्थात, परस्पर विरोधी वस्तुओं वाला डेटा। दो वस्तुएँ परस्पर विरोधी होती हैं जब वे सभी विशेषताओं के समान मूल्यों की विशेषता रखती हैं, किन्तुवे विभिन्न अवधारणाओं (वर्गों) से संबंधित होती हैं। एलईआरएस अन्य अवधारणाओं के साथ टकराव में सम्मिलित अवधारणाओं के लिए निचले और ऊपरी अनुमानों की गणना करने के लिए रफ सेट सिद्धांत का उपयोग करता है।

अवधारणा के निचले सन्निकटन से प्रेरित नियम निश्चित रूप से अवधारणा का वर्णन करते हैं, इसलिए ऐसे नियमों को निश्चित कहा जाता है। दूसरी ओर, अवधारणा के ऊपरी सन्निकटन से प्रेरित नियम संभवतः अवधारणा का वर्णन करते हैं, इसलिए इन नियमों को संभव कहा जाता है। नियम प्रेरण के लिए LERS तीन एल्गोरिदम का उपयोग करता है: LEM1, LEM2, और IRIM।

LERS का LEM2 एल्गोरिदम प्रायः नियम प्रेरण के लिए उपयोग किया जाता है और इसका उपयोग न केवल LERS में बल्कि अन्य प्रणालियों में भी किया जाता है, उदाहरण के लिए, RSES (बज़ान एट अल। (2004) में। LEM2 विशेषता-मूल्य जोड़े के खोज स्थान की खोज करता है। इसका इनपुट डेटा सेट एक अवधारणा का निचला या ऊपरी सन्निकटन है, इसलिए इसका इनपुट डेटा सेट हमेशा सुसंगत होता है। सामान्यतः, LEM2 एक स्थानीय कवरिंग की गणना करता है और फिर इसे एक नियम सेट में परिवर्तित करता है। हम LEM2 एल्गोरिथ्म का वर्णन करने के लिए कुछ परिभाषाएँ उद्धृत करेंगे।

LEM2 एल्गोरिथ्म एक विशेषता-मूल्य जोड़ी ब्लॉक के विचार पर आधारित है। होने देना $$X$$ निर्णय-मूल्य जोड़ी द्वारा दर्शाई गई अवधारणा का एक गैर-रिक्त निचला या ऊपरी सन्निकटन हो $$(d, w)$$. तय करना $$X$$ एक सेट पर निर्भर करता है $$T$$ विशेषता-मूल्य जोड़े का $$t = (a, v)$$ यदि और केवल अगर


 * $$\emptyset \neq [T] = \bigcap_{t \in T} [t] \subseteq X.$$

तय करना $$T$$ का एक न्यूनतम परिसर है $$X$$ यदि और केवल यदि $$X$$ पर निर्भर करता है $$T$$ और कोई उचित उपसमुच्चय नहीं $$S$$ का $$T$$ ऐसा उपस्थित है $$X$$ पर निर्भर करता है $$S$$. होने देना $$\mathbb{T}$$ विशेषता-मूल्य युग्मों के गैर-रिक्त सेटों का एक गैर-रिक्त संग्रह बनें। तब $$\mathbb{T}$$ का स्थानीय आवरण है $$X$$ यदि और केवल यदि निम्नलिखित तीन शर्तें पूरी होती हैं:

प्रत्येक सदस्य $$T$$ का $$\mathbb{T}$$ का एक न्यूनतम परिसर है $$X$$,



\bigcup_{t \in \mathbb{T}} [T] = X, $$
 * $$\mathbb{T}$$ न्यूनतम है, अर्थात, $$\mathbb{T}$$ सदस्यों की संभावित संख्या सबसे कम है।

हमारी नमूना सूचना प्रणाली के लिए, LEM2 निम्नलिखित नियमों को प्रेरित करेगा:



\begin{cases} (P_1, 1) \to (P_4, 1) \\ (P_5, 0) \to (P_4, 1) \\ (P_1, 0) \to (P_4, 2) \\ (P_2, 1) \to (P_4, 2) \end{cases} $$ अन्य नियम-सीखने के तरीके पाए जा सकते हैं, उदाहरण के लिए, पावलक (1991), स्टेफानोव्स्की (1998), बाज़न एट अल में। (2004), आदि।

अपूर्ण डेटा
अपूर्ण डेटा सेट से नियम प्रेरण के लिए रफ सेट सिद्धांत उपयोगी है। इस दृष्टिकोण का उपयोग करके हम तीन प्रकार के लुप्त विशेषता मानों के बीच अंतर कर सकते हैं: खोए हुए मान (वे मान जो रिकॉर्ड किए गए थे किन्तुवर्तमान में अनुपलब्ध हैं), विशेषता-अवधारणा मान (इन लुप्त विशेषता मानों को उसी अवधारणा तक सीमित किसी भी विशेषता मान द्वारा प्रतिस्थापित किया जा सकता है), और शर्तों की परवाह न करें (मूल मूल्य अप्रासंगिक थे)। एक अवधारणा (वर्ग) एक ही तरह से वर्गीकृत (या निदान) की गई सभी वस्तुओं का एक समूह है।

लापता विशेषता मानों वाले दो विशेष डेटा सेटों का बड़े पैमाने पर अध्ययन किया गया: पहले मामले में, सभी लापता विशेषता मान खो गए थे (स्टेफ़ानोव्स्की और त्सुकियास, 2001), दूसरे मामले में, सभी लापता विशेषता मान परवाह नहीं करने वाली स्थिति में थे (क्रिस्ज़किविज़, 1999).

किसी लुप्त विशेषता मान की विशेषता-अवधारणा मान व्याख्या में, लुप्त विशेषता मान को उस अवधारणा तक सीमित विशेषता डोमेन के किसी भी मान से प्रतिस्थापित किया जा सकता है, जिसमें लुप्त विशेषता मान वाली वस्तु संबंधित है (ग्रज़िमाला-बुसे और ग्रिज़िमाला-बुस्से, 2007) ). उदाहरण के लिए, यदि किसी मरीज के लिए किसी विशेषता तापमान का मान गायब है, तो यह मरीज फ्लू से बीमार है, और फ्लू से बीमार बाकी सभी मरीजों के लिए तापमान का मान उच्च या बहुत अधिक है, जब लापता विशेषता मान की व्याख्या का उपयोग किया जाता है विशेषता-अवधारणा मान, हम लुप्त विशेषता मान को उच्च और बहुत-उच्च से बदल देंगे। इसके अतिरिक्त, विशेषता संबंध, (उदाहरण के लिए, ग्राज़ीमाला-बुसे और ग्राज़ीमाला-बुसे, 2007 देखें) एक ही समय में सभी तीन प्रकार के लापता विशेषता मानों के साथ डेटा सेट को संसाधित करने में सक्षम बनाता है: खो गया, शर्तों की परवाह नहीं, और विशेषता-अवधारणा मूल्य.

अनुप्रयोग
रफ सेट विधियों को यंत्र अधिगम  और डेटा खनन में हाइब्रिड समाधान के एक घटक के रूप में लागू किया जा सकता है। उन्हें नियम प्रेरण और सुविधा चयन (शब्दार्थ-संरक्षण आयामीता में कमी) के लिए विशेष रूप से उपयोगी पाया गया है। रफ सेट-आधारित डेटा विश्लेषण विधियों को जैव सूचना विज्ञान, अर्थशास्त्र और वित्त, चिकित्सा, मल्टीमीडिया, वेब और  टेक्स्ट खनन, सिग्नल और इमेज प्रोसेसिंग, सॉफ्टवेयर इंजीनियरिंग, रोबोटिक्स और इंजीनियरिंग (जैसे पावर सिस्टम और नियंत्रण इंजीनियरिंग) में सफलतापूर्वक लागू किया गया है। हाल ही में रफ सेट के तीन क्षेत्रों की व्याख्या स्वीकृति, अस्वीकृति और स्थगन के क्षेत्रों के रूप में की गई है। इससे मॉडल के साथ तीन-तरफा निर्णय लेने का दृष्टिकोण बनता है जो संभावित रूप से रोचक भविष्य के अनुप्रयोगों को जन्म दे सकता है।

इतिहास
रफ सेट का विचार ज़ेडज़िस्लाव पावलक (1981) द्वारा अस्पष्ट अवधारणाओं से निपटने के लिए एक नए गणितीय उपकरण के रूप में प्रस्तावित किया गया था। कॉमर, ग्रज़ीमाला-बुस्से, इविंस्की, निमिनेन, नोवोटनी, पावलक, ओबटुलोविज़ और पोमाइकला ने रफ सेट के बीजगणितीय गुणों का अध्ययन किया है। विभिन्न बीजगणितीय शब्दार्थ पी. पगलिअर्थात, आई. डंटश, एम. के. चक्रवर्ती, एम. बनर्जी और ए. मणि द्वारा विकसित किए गए हैं; इन्हें विशेष रूप से डी. कट्टानेओ और ए. मणि द्वारा अधिक सामान्यीकृत रफ सेटों तक विस्तारित किया गया है। अस्पष्टता, अस्पष्टता और सामान्य [[अनिश्चितता]] का प्रतिनिधित्व करने के लिए रफ सेट का उपयोग किया जा सकता है।

विस्तार और सामान्यीकरण
रफ सेट के विकास के बाद से, विस्तार और सामान्यीकरण का विकास जारी रहा है। आरंभिक विकास संबंधों पर केंद्रित था - समानताएं और अंतर दोनों - अस्पष्ट सेटों के साथ। जबकि कुछ साहित्य का तर्क है कि ये अवधारणाएँ भिन्न हैं, अन्य साहित्य का मानना ​​​​है कि रफ सेट फजी सेट का सामान्यीकरण है - जैसा कि फ़ज़ी रफ सेट या रफ फ़ज़ी सेट के माध्यम से दर्शाया गया है। पावलक (1995) ने माना कि अनिश्चितता और अस्पष्टता के विभिन्न पहलुओं को संबोधित करते हुए अस्पष्ट और खुरदुरे सेटों को एक-दूसरे का पूरक माना जाना चाहिए।

क्लासिकल रफ सेट के तीन उल्लेखनीय विस्तार हैं:
 * प्रभुत्व-आधारित रफ सेट दृष्टिकोण (डीआरएसए) मल्टी-मानदंड निर्णय विश्लेषण (एमसीडीए) के लिए रफ सेट सिद्धांत का विस्तार है, जिसे ग्रीको, मातरज्जो और स्लोविंस्की (2001) द्वारा प्रस्तुत किया गया था। मौलिक रफ सेटों के इस विस्तार में मुख्य परिवर्तन एक प्रभुत्व संबंध द्वारा अविवेकपूर्ण संबंध का प्रतिस्थापन है, जो मानदंडों और वरीयता-आदेशित निर्णय वर्गों के विचार में विशिष्ट विसंगतियों से निपटने के लिए औपचारिकता की अनुमति देता है।
 * निर्णय-सैद्धांतिक रफ सेट (डीटीआरएस) याओ, वोंग और लिंग्रास (1990) द्वारा प्रस्तुत रफ सेट सिद्धांत का एक संभाव्य विस्तार है। यह न्यूनतम जोखिम वाले निर्णय लेने के लिए बायेसियन निर्णय प्रक्रिया का उपयोग करता है। तत्वों को निचले और ऊपरी सन्निकटन में इस आधार पर सम्मिलित किया जाता है कि उनकी सशर्त संभावना सीमा से ऊपर है या नहीं $$\textstyle \alpha$$ और $$\textstyle \beta$$. ये ऊपरी और निचली सीमाएँ तत्वों के लिए क्षेत्र समावेशन निर्धारित करती हैं। यह मॉडल अद्वितीय और शक्तिशाली है क्योंकि सीमा की गणना वर्गीकरण जोखिमों का प्रतिनिधित्व करने वाले छह हानि कार्यों के एक सेट से की जाती है।
 * गेम-सैद्धांतिक रफ सेट (जीटीआरएस) रफ सेट का एक गेम थ्योरी-आधारित विस्तार है जिसे हर्बर्ट और याओ (2011) द्वारा प्रस्तुत किया गया था। यह प्रभावी क्षेत्र आकार प्राप्त करने के लिए रफ सेट आधारित वर्गीकरण या निर्णय लेने के कुछ मानदंडों को अनुकूलित करने के लिए गेम-सैद्धांतिक वातावरण का उपयोग करता है।

रफ़ सदस्यता
वस्तुनिष्ठ सन्निकटन के अतिरिक्त रफ सदस्यता फ़ंक्शन को नियोजित करके, रफ सेट को सामान्यीकरण के रूप में भी परिभाषित किया जा सकता है। रफ सदस्यता फ़ंक्शन एक सशर्त संभावना व्यक्त करता है $$x$$ से संबंधित $$X$$ दिया गया $$\textstyle \R$$. इसे एक डिग्री के रूप में समझा जा सकता है $$x$$ से संबंधित $$X$$ के बारे में जानकारी के संदर्भ में $$x$$ द्वारा व्यक्त किया गया $$\textstyle \R$$.

रफ सदस्यता मुख्य रूप से फ़ज़ी सदस्यता से भिन्न होती है, जिसमें यूनियन की सदस्यता और सेटों के प्रतिच्छेदन की गणना, सामान्यतः, उनकी घटक सदस्यता से नहीं की जा सकती है, जैसा कि फ़ज़ी सेट के मामले में होता है। इसमें रफ मेंबरशिप फजी मेंबरशिप का सामान्यीकरण है। इसके अतिरिक्त, रफ सदस्यता फ़ंक्शन को फ़ज़ी सदस्यता फ़ंक्शन की पारंपरिक रूप से आयोजित अवधारणाओं की तुलना में अधिक संभावना पर आधारित किया गया है।

अन्य सामान्यीकरण
समस्याओं को हल करने के लिए रफ सेट के कई सामान्यीकरण प्रस्तुत किए गए, अध्ययन किए गए और लागू किए गए। इनमें से कुछ सामान्यीकरण यहां दिए गए हैं:


 * रफ़ मल्टीसेट्स (ग्रज़ीमाला-बुस्से, 1987)
 * फ़ज़ी रफ सेट फ़ज़ी समतुल्य वर्गों के उपयोग के माध्यम से रफ सेट अवधारणा का विस्तार करते हैं (नाकामुरा, 1988)
 * अल्फा रफ सेट थ्योरी (α-RST) - रफ सेट सिद्धांत का एक सामान्यीकरण जो फजी अवधारणाओं का उपयोग करके अनुमान लगाने की अनुमति देता है (क्वाफाफौ, 2000)
 * अंतर्ज्ञानवादी फजी रफ सेट (कॉर्नेलिस, डी कॉक और केरे, 2003)
 * सामान्यीकृत रफ फजी सेट (फेंग, 2010)
 * रफ़ अंतर्ज्ञानवादी फ़ज़ी सेट (थॉमस और नायर, 2011)
 * सॉफ्ट रफ फजी सेट और सॉफ्ट फजी रफ सेट (मेंग, झांग और किन, 2011)
 * कम्पोजिट रफ सेट (झांग, ली और चेन, 2014)

यह भी देखें

 * बीजगणितीय शब्दार्थ (गणितीय तर्क)
 * वैकल्पिक समुच्चय सिद्धांत
 * एनालॉग कंप्यूटर
 * विवरण तर्क
 * फजी लॉजिक
 * फ़ज़ी सेट सिद्धांत
 * दानेदार कंप्यूटिंग
 * सेट के पास
 * रफ फजी संकरण
 * टाइप-2 फ़ज़ी सेट और सिस्टम
 * निर्णय-सैद्धांतिक रफ सेट
 * संस्करण स्थान
 * प्रभुत्व-आधारित रफ सेट दृष्टिकोण

संदर्भ

 * Pawlak, Zdzisław Rough Sets Research Report PAS 431, Institute of Computer Science, Polish Academy of Sciences (1981)
 * Burgin M. (1990). Theory of Named Sets as a Foundational Basis for Mathematics, In Structures in mathematical theories: Reports of the San Sebastian international symposium, September 25–29, 1990 (http://www.blogg.org/blog-30140-date-2005-10-26.html)
 * Burgin, M. (2004). Unified Foundations of Mathematics, Preprint Mathematics LO/0403186, p39. (electronic edition: https://arxiv.org/ftp/math/papers/0403/0403186.pdf)
 * Burgin, M. (2011), Theory of Named Sets, Mathematics Research Developments, Nova Science Pub Inc, ISBN 978-1-61122-788-8
 * Cornelis, C., De Cock, M. and Kerre, E. (2003) Intuitionistic fuzzy rough sets: at the crossroads of imperfect knowledge, Expert Systems, 20:5, pp260–270
 * Düntsch, I. and Gediga, G. (1995) Rough Set Dependency Analysis in Evaluation Studies – An Application in the Study of Repeated Heart Attacks. University of Ulster, Informatics Research Reports No. 10
 * Feng F. (2010). Generalized Rough Fuzzy Sets Based on Soft Sets, Soft Computing, 14:9, pp 899–911
 * Grzymala-Busse, J. (1987). Learning from examples based on rough multisets, in Proceedings of the 2nd International Symposium on Methodologies for Intelligent Systems, pp. 325–332. Charlotte, NC, USA
 * Meng, D., Zhang, X. and Qin, K. (2011). Soft rough fuzzy sets and soft fuzzy rough sets, Computers & Mathematics with Applications, 62:12, pp4635–4645
 * Quafafou M. (2000). α-RST: a generalization of rough set theory, Information Sciences, 124:1–4, pp301–316.
 * Quafafou M. and Boussouf M. (2000). Generalized rough sets based feature selection. Journal Intelligent Data Analysis, 4:1 pp3 – 17
 * Nakamura, A. (1988) Fuzzy rough sets, ‘Notes on Multiple-valued Logic in Japan’, 9:1, pp1–8
 * Pawlak, Z., Grzymala-Busse, J., Slowinski, R. Ziarko, W. (1995). Rough Sets. Communications of the ACM, 38:11, pp88–95
 * Thomas, K. and Nair, L. (2011). Rough intuitionistic fuzzy sets in a lattice, International Mathematical Forum, 6:27, pp1327–1335
 * Zhang J., Li T., Chen H. (2014). Composite rough sets for dynamic data mining, Information Sciences, 257, pp81–100
 * Zhang J., Wong J-S, Pan Y, Li T. (2015). A parallel matrix-based method for computing approximations in incomplete information systems, IEEE Transactions on Knowledge and Data Engineering, 27(2): 326-339
 * Chen H., Li T., Luo C., Horng S-J., Wang G. (2015). A decision-theoretic rough set approach for dynamic data mining. IEEE Transactions on Fuzzy Systems, 23(6): 1958-1970
 * Chen H., Li T., Luo C., Horng S-J., Wang G. (2014). A rough set-based method for updating decision rules on attribute values' coarsening and refining, IEEE Transactions on Knowledge and Data Engineering, 26(12): 2886-2899
 * Chen H., Li T., Ruan D., Lin J., Hu C, (2013) A rough-set based incremental approach for updating approximations under dynamic maintenance environments. IEEE Transactions on Knowledge and Data Engineering, 25(2): 274-284
 * Burgin M. (1990). Theory of Named Sets as a Foundational Basis for Mathematics, In Structures in mathematical theories: Reports of the San Sebastian international symposium, September 25–29, 1990 (http://www.blogg.org/blog-30140-date-2005-10-26.html)
 * Burgin, M. (2004). Unified Foundations of Mathematics, Preprint Mathematics LO/0403186, p39. (electronic edition: https://arxiv.org/ftp/math/papers/0403/0403186.pdf)
 * Burgin, M. (2011), Theory of Named Sets, Mathematics Research Developments, Nova Science Pub Inc, ISBN 978-1-61122-788-8
 * Cornelis, C., De Cock, M. and Kerre, E. (2003) Intuitionistic fuzzy rough sets: at the crossroads of imperfect knowledge, Expert Systems, 20:5, pp260–270
 * Düntsch, I. and Gediga, G. (1995) Rough Set Dependency Analysis in Evaluation Studies – An Application in the Study of Repeated Heart Attacks. University of Ulster, Informatics Research Reports No. 10
 * Feng F. (2010). Generalized Rough Fuzzy Sets Based on Soft Sets, Soft Computing, 14:9, pp 899–911
 * Grzymala-Busse, J. (1987). Learning from examples based on rough multisets, in Proceedings of the 2nd International Symposium on Methodologies for Intelligent Systems, pp. 325–332. Charlotte, NC, USA
 * Meng, D., Zhang, X. and Qin, K. (2011). Soft rough fuzzy sets and soft fuzzy rough sets, Computers & Mathematics with Applications, 62:12, pp4635–4645
 * Quafafou M. (2000). α-RST: a generalization of rough set theory, Information Sciences, 124:1–4, pp301–316.
 * Quafafou M. and Boussouf M. (2000). Generalized rough sets based feature selection. Journal Intelligent Data Analysis, 4:1 pp3 – 17
 * Nakamura, A. (1988) Fuzzy rough sets, ‘Notes on Multiple-valued Logic in Japan’, 9:1, pp1–8
 * Pawlak, Z., Grzymala-Busse, J., Slowinski, R. Ziarko, W. (1995). Rough Sets. Communications of the ACM, 38:11, pp88–95
 * Thomas, K. and Nair, L. (2011). Rough intuitionistic fuzzy sets in a lattice, International Mathematical Forum, 6:27, pp1327–1335
 * Zhang J., Li T., Chen H. (2014). Composite rough sets for dynamic data mining, Information Sciences, 257, pp81–100
 * Zhang J., Wong J-S, Pan Y, Li T. (2015). A parallel matrix-based method for computing approximations in incomplete information systems, IEEE Transactions on Knowledge and Data Engineering, 27(2): 326-339
 * Chen H., Li T., Luo C., Horng S-J., Wang G. (2015). A decision-theoretic rough set approach for dynamic data mining. IEEE Transactions on Fuzzy Systems, 23(6): 1958-1970
 * Chen H., Li T., Luo C., Horng S-J., Wang G. (2014). A rough set-based method for updating decision rules on attribute values' coarsening and refining, IEEE Transactions on Knowledge and Data Engineering, 26(12): 2886-2899
 * Chen H., Li T., Ruan D., Lin J., Hu C, (2013) A rough-set based incremental approach for updating approximations under dynamic maintenance environments. IEEE Transactions on Knowledge and Data Engineering, 25(2): 274-284
 * Zhang J., Wong J-S, Pan Y, Li T. (2015). A parallel matrix-based method for computing approximations in incomplete information systems, IEEE Transactions on Knowledge and Data Engineering, 27(2): 326-339
 * Chen H., Li T., Luo C., Horng S-J., Wang G. (2015). A decision-theoretic rough set approach for dynamic data mining. IEEE Transactions on Fuzzy Systems, 23(6): 1958-1970
 * Chen H., Li T., Luo C., Horng S-J., Wang G. (2014). A rough set-based method for updating decision rules on attribute values' coarsening and refining, IEEE Transactions on Knowledge and Data Engineering, 26(12): 2886-2899
 * Chen H., Li T., Ruan D., Lin J., Hu C, (2013) A rough-set based incremental approach for updating approximations under dynamic maintenance environments. IEEE Transactions on Knowledge and Data Engineering, 25(2): 274-284

अग्रिम पठन

 * Gianpiero Cattaneo and Davide Ciucci, "Heyting Wajsberg Algebras as an Abstract Environment Linking Fuzzy and Rough Sets" in J.J. Alpigini et al. (Eds.): RSCTC 2002, LNAI 2475, pp. 77–84, 2002.

बाहरी संबंध

 * The International Rough Set Society
 * Rough set tutorial
 * Rough Sets: A Quick Tutorial
 * Rough Set Exploration System
 * Rough Sets in Data Warehousing