Грубый набор

редактировать
Аппроксимация математического набора

В информатике, грубый набор, впервые описанный польским ученым-компьютерщиком Здиславом И. Павляком, представляет собой формальное приближение четкого множества (то есть обычного множества) в терминах пара наборов, которые дают нижнее и верхнее приближения исходного набора. В стандартной версии теории грубых множеств (Pawlak 1991) наборы нижнего и верхнего приближения являются четкими наборами, но в других вариантах аппроксимирующие наборы могут быть нечеткими наборами.

Содержание
  • 1 Определения
    • 1.1 Структура информационной системы
    • 1.2 Пример: структура класса эквивалентности
    • 1.3 Определение приблизительного набора
      • 1.3.1 Нижнее приближение и положительная область
      • 1.3.2 Верхнее приближение и отрицательная область
      • 1.3.3 Граничная область
      • 1.3.4 Примерный набор
      • 1.3.5 Объективный анализ
    • 1.4 Определимость
    • 1.5 Редукция и ядро ​​
    • 1.6 Зависимость атрибутов
  • 2 Извлечение правил
    • 2.1 Матрицы решений
    • 2.2 Система индукции правил LERS
  • 3 Неполные данные
  • 4 Приложения
  • 5 История
  • 6 Расширения и обобщения
    • 6.1 Грубое членство
    • 6.2 Другие обобщения
  • 7 См. также
  • 8 Ссылки
  • 9 Дополнительная литература
  • 10 Внешние ссылки
Определения

В следующем разделе содержится обзор базовой структуры грубого набора ory, как первоначально предложил Здислав И. Павляк, вместе с некоторыми ключевыми определениями. Более формальные свойства и границы грубых множеств можно найти в Pawlak (1991) и в цитированных источниках. Первоначальную и базовую теорию грубых множеств иногда называют «грубыми множествами Павляка» или «классическими грубыми множествами», чтобы отличить их от более поздних расширений и обобщений.

Структура информационной системы

Пусть I = (U, A) {\ displaystyle I = (\ mathbb {U}, \ mathbb {A})}I = ({\ mathbb {U}}, {\ mathbb {A}}) быть информационной системой (система значений атрибутов ), где U {\ displaystyle \ mathbb {U}}{\ mathbb {U}} - непустой конечный набор объектов ( вселенная) и A {\ displaystyle \ mathbb {A}}\ mathbb {A} - непустой конечный набор атрибутов, такой что I: U → V a {\ displaystyle I: \ mathbb {U} \ rightarrow V_ {a}}{\ displaystyle I: \ mathbb {U} \ rightarrow V_ {a}} для каждого a ∈ A {\ displaystyle a \ in \ mathbb {A}}a \ in {\ mathbb {A}} . V a {\ displaystyle V_ {a}}V_{a}- это набор значений, которые может принимать атрибут a {\ displaystyle a}a . В информационной таблице каждому атрибуту присваивается значение a (x) {\ displaystyle a (x)}a (x) из V a {\ displaystyle V_ {a}}V_{a}. a {\ displaystyle a}a и объект x {\ displaystyle x}x во вселенной U {\ displaystyle \ mathbb {U}}\ mathbb {U} .

С любым P ⊆ A {\ displaystyle P \ substeq \ mathbb {A}}P \ substeq {\ mathbb {A}} существует связанное отношение эквивалентности IND (P) {\ displaystyle \ mathrm {IND} (P)}{\ mathrm {IND}} (P) :

IND (P) = {(x, y) ∈ U 2 ∣ ∀ a ∈ P, a (x) = a (y)} {\ displaystyle \ mathrm {IND} ( P) = \ left \ {(x, y) \ in \ mathbb {U} ^ {2} \ mid \ forall a \ in P, a (x) = a (y) \ right \}}{\ mathrm { IND}} (P) = \ left \ {(x, y) \ in {\ math bb {U}} ^ {2} \ mid \ forall a \ in P, a (x) = a (y) \ right \}

Отношение IND (P) {\ displaystyle \ mathrm {IND} (P)}{\ mathrm {IND}} (P) называется отношением P {\ displaystyle P}P -не различимости. Раздел U {\ displaystyle \ mathbb {U}}\ mathbb {U} представляет собой семейство всех классов эквивалентности из IND (P) {\ displaystyle \ mathrm {IND } (P)}{\ mathrm {IND}} (P) и обозначается U / IND (P) {\ displaystyle \ mathbb {U} / \ mathrm {IND} (P)}{\ mathbb {U}} / {\ mathrm {IND}} (P) (или U / P {\ displaystyle \ mathbb {U} / P}{\ mathbb {U}} / P ).

Если (x, y) ∈ IND (P) {\ displaystyle (x, y) \ in \ mathrm {IND} (P)}(x, y) \ in {\ mathrm {IND}} (P) , то x {\ displaystyle x}x и y {\ displaystyle y}y неразличимы (или неотличимы) по атрибутам из P {\ displaystyle P}P .

классы эквивалентности отношения неразличимости P {\ displaystyle P}P обозначаются [x] P {\ displaystyle [x] _ {P}}[x] _ {P} .

Пример: класс эквивалентности структура

Например, рассмотрим следующую информационную таблицу:

Пример информационной системы
ОбъектP 1 {\ displaystyle P_ {1}}P _ {{1}} P 2 {\ displaystyle P_ {2 }}P_{{2}}P 3 {\ displaystyle P_ {3}}P _ {{3}} P 4 {\ displaystyle P_ {4}}P _ {{4}} P 5 {\ displaystyle P_ {5}}P _ {{5}}
O 1 {\ displaystyle O_ {1}}O _ {{1}} 12011
O 2 {\ displaystyle O_ {2}}O _ {{2}} 12011
O 3 {\ displaystyle O_ {3}}O _ {{3}} 20010
O 4 {\ displaystyle O_ {4}}O _ {{4}} 00121
O 5 {\ displaystyle O_ {5}}O _ {{5}} 21021
O 6 {\ displaystyle O_ {6}}O _ {{6}} 00122
O 7 {\ displaystyle O_ {7}}O_{{7}}20010
O 8 {\ displaystyle O_ {8}}O _ {{8}} 01221
O 9 {\ displaystyle O_ {9}}O_{{9}}21022
O 10 {\ displaystyle O_ {10}}O _ {{10 }} 20010

Когда полный набор атрибутов P = {P 1, P 2, P 3, P 4, P 5} {\ displaystyle P = \ {P_ {1}, P_ {2}, P_ {3}, P_ {4}, P_ {5} \}}P = \ {P _ {{1}}, P _ {{2}}, P _ {{3}}, P _ {{4}}, P _ {5}} \} рассматривается, мы видим, что у нас есть следующие семь классов эквивалентности:

{{O 1, O 2} {O 3, O 7, O 10} {O 4} {O 5} {O 6} {O 8} {O 9} {\ displaystyle {\ begin {cases} \ {O_ {1}, O_ {2} \} \\\ {O_ {3}, O_ {7}, O_ {10} \} \\\ {O_ {4} \} \\\ {O_ {5} \} \\\ {O_ {6} \} \\\ {O_ {8} \} \\\ {O_ {9} \} \ end {cases}}}{\ begin {case} \ {O _ {{1}}, O _ {{2}} \} \\\ {O _ {{3}}, O _ {{7}}, O _ {{10}} \} \\\ {O _ {{4}} \} \\\ {O _ {{5}} \} \\\ {O _ {{6}} \} \\\ {O_ {{8}} \} \\\ {O _ {{9}} \} \ end {case}}

Таким образом, два объекта в первом классе эквивалентности, { O 1, O 2} {\ displaystyle \ {O_ {1}, O_ {2} \}}\ {O _ {{1}}, O _ {{2}} \} , нельзя отличить друг от друга на основе доступных атрибутов, и три объекта в пределах второй эквивалентности class, {O 3, O 7, O 10} {\ displaystyle \ {O_ {3}, O_ {7}, O_ {10} \}}\ {O _ {{3}}, O _ {{7}}, O _ {{10} } \} , нельзя отличить друг от друга на основе доступных атрибутов. Остальные пять объектов можно отличить от всех остальных.

Очевидно, что выбор различных подмножеств атрибутов, как правило, приводит к разным классам неразличимости. Например, если выбран только атрибут P = {P 1} {\ displaystyle P = \ {P_ {1} \}}P = \ {P _ {{1}} \} , мы получим следующую, гораздо более грубую структуру классов эквивалентности :

{{O 1, O 2} {O 3, O 5, O 7, O 9, O 10} {O 4, O 6, O 8} {\ displaystyle {\ begin {cases} \ {O_ {1}, O_ {2} \} \\\ {O_ {3}, O_ {5}, O_ {7}, O_ {9}, O_ {10} \} \\\ {O_ {4}, O_ {6}, O_ {8} \} \ end {cases}}}{\ begin {case} \ {O _ {{1}}, O _ {{2}} \} \\\ {O _ {{ 3}}, O _ {{5}}, O _ {{7}}, O _ {{9}}, O _ {{10}} \} \\\ {O _ {{4}}, O _ {{6}}, O _ {{8}} \} \ end {cases}}

Определение приблизительного набора

Пусть X ⊆ U {\ displaystyle X \ substeq \ mathbb {U}}X \ substeq {\ mathbb { U}} быть целевым набором, который мы хотим представить с помощью подмножества атрибутов P {\ displaystyle P}P ; то есть нам говорят, что произвольный набор объектов X {\ displaystyle X}X составляет один класс, и мы хотим выразить этот класс (т. е. это подмножество), используя классы эквивалентности, индуцированные по подмножеству атрибутов P {\ displaystyle P}P . В общем, X {\ displaystyle X}X не может быть выражено точно, потому что набор может включать и исключать объекты, которые невозможно различить на основе атрибутов P {\ displaystyle P}P .

Например, рассмотрим целевой набор X = {O 1, O 2, O 3, O 4} {\ displaystyle X = \ {O_ {1}, O_ {2}, O_ {3}, O_ { 4} \}}X = \ {O _ {{1 }}, O _ {{2}}, O _ {{3}}, O _ {{4}} \} , и пусть подмножество атрибутов P = {P 1, P 2, P 3, P 4, P 5} {\ displaystyle P = \ {P_ {1}, P_ {2}, P_ {3}, P_ {4}, P_ {5} \}}P = \ {P _ {{1}}, P _ {{2}}, P _ {{3}}, P _ {{4}}, P _ {5}} \} , полный доступный набор функций. Набор X {\ displaystyle X}X не может быть выражен точно, потому что в [x] P, {\ displaystyle [x] _ {P},}[x] _ {P}, , объекты {O 3, O 7, O 10} {\ displaystyle \ {O_ {3}, O_ {7}, O_ {10} \}}\ {O _ {{3}}, O _ {{7}}, O _ {{10} } \} неразличимы. Таким образом, невозможно представить любой набор X {\ displaystyle X}X , который включает O 3 {\ displaystyle O_ {3}}O _ {{3}} , но исключает объекты O 7 {\ displaystyle O_ {7}}O_{{7}}и O 10 {\ displaystyle O_ {10}}O _ {{10 }} .

Однако целевой набор X {\ displaystyle X}X можно аппроксимировать, используя только информацию, содержащуюся в P {\ displaystyle P}P , построив P {\ displaystyle P}P -ниже и P {\ displaystyle P}P - верхнее приближение X {\ displaystyle X}X :

P _ X = {x ∣ [x] P ⊆ X} {\ displaystyle {\ подчеркивание {P}} X = \ {x \ mid [x] _ {P} \ substeq X \}}{\ underline P} X = \ {x \ mid [x] _ {P} \ substeq X \}
P ¯ X = {x ∣ [x] P ∩ X ≠ ∅} {\ displaystyle {\ overline {P}} X = \ {x \ mid [x] _ {P} \ cap X \ neq \ emptyset \}}{\ overline P} X = \ {x \ mid [x] _ {P } \ cap X \ neq \ emptyset \}

Нижнее приближение и положительная область

P {\ displaystyle P}P -низкое приближение или положительная область - это объединение всех классов эквивалентности в [x] P {\ displaystyle [x] _ {P}}[x] _ {P} , которые являются содержится в (т. е. являются подмножествами) целевого набора - в этом примере P _ X = {O 1, O 2} ∪ {O 4} {\ displaystyle {\ underline {P}} X = \ {O_ { 1}, O_ {2} \} \ cup \ {O_ {4} \}}{\ underline P} X = \ {O _ {{1}}, O _ {{2}} \} \ cup \ {O _ {{4}} \} , объединение двух классов эквивалентности в [x] P {\ displaystyle [x] _ { P}}[x] _ {P} , которые содержатся в целевом наборе. Нижнее приближение - это полный набор объектов в U / P {\ displaystyle \ mathbb {U} / P}{\ mathbb {U}} / P , которые можно положительно (то есть однозначно) классифицировать как принадлежащие целевому набору X {\ displaystyle X}X .

Верхнее приближение и отрицательная область

Верхнее приближение P {\ displaystyle P}P представляет собой объединение всех классов эквивалентности в [x] P {\ displaystyle [x] _ {P}}[x] _ {P} , которые имеют непустое пересечение с целевым набором - в примере, P ¯ X = {O 1, O 2 } ∪ {O 4} ∪ {O 3, O 7, O 10} {\ displaystyle {\ overline {P}} X = \ {O_ {1}, O_ {2} \} \ cup \ {O_ {4} \} \ cup \ {O_ {3}, O_ {7}, O_ {10} \}}{\ overline P} X = \ {O _ {{1}}, O _ {{2}} \} \ cup \ {O _ {{4} } \} \ cup \ {O _ {{3}}, O _ {{7}}, O _ {{10}} \} , объединение трех классов эквивалентности в [x] P {\ displaystyle [x ] _ {P}}[x] _ {P} , которые имеют непустое пересечение с целевым набором. Верхнее приближение - это полный набор объектов, которые в U / P {\ displaystyle \ mathbb {U} / P}{\ mathbb {U}} / P не могут быть положительно (т. Е. Однозначно) классифицированы как принадлежащие к дополнительному ( X ¯ {\ displaystyle {\ overline {X}}}{\ overline {X}} ) целевого набора X {\ displaystyle X}X . Другими словами, верхнее приближение - это полный набор объектов, которые, возможно, являются членами целевого набора X {\ displaystyle X}X .

Набор U - P ¯ X {\ displaystyle \ mathbb {U } - {\ overline {P}} X}{\ mathbb {U}} - {\ overline P} X , следовательно, представляет отрицательную область, содержащую набор объектов, которые могут быть определенно исключены как члены целевого набора.

Граничная область

Граничная область, заданная заданной разностью P ¯ X - P _ X {\ displaystyle {\ overline {P}} X - {\ underline {P} } X}{\ overline P} X - {\ underline P} X , состоит из тех объектов, которые нельзя ни исключить, ни исключить в качестве членов целевого набора X {\ displaystyle X}X .

Таким образом, нижнее приближение цели набор - это консервативное приближение, состоящее только из тех объектов, которые могут быть положительно идентифицированы как члены набора. (Эти объекты не имеют неразличимых «клонов», которые исключены целевым набором.) Верхнее приближение - это либеральное приближение, которое включает все объекты, которые могут быть членами целевого набора. (Некоторые объекты в верхнем приближении могут не входить в целевой набор.) С точки зрения U / P {\ displaystyle \ mathbb {U} / P}{\ mathbb {U}} / P нижнее приближение содержит объекты которые являются членами целевого набора с уверенностью (вероятность = 1), в то время как верхнее приближение содержит объекты, которые являются членами целевого набора с ненулевой вероятностью (вероятность>0).

Примерный набор

Кортеж ⟨P _ X, P ¯ X⟩ {\ displaystyle \ langle {\ underline {P}} X, {\ overline {P}} X \ rangle}\ langle {\ underline P} X, {\ overline P} X \ rangle , состоящий из нижнего и верхнего приближения, называется грубым набором; таким образом, приблизительный набор состоит из двух четких наборов, один представляет нижнюю границу целевого набора X {\ displaystyle X}X , а другой представляет верхнюю границу целевого набора X {\ displaystyle X}X .

Точность приблизительного представления набора X {\ displaystyle X}X может быть выражена (Pawlak 1991) следующим образом:

α P (X) = | P _ X | | P ¯ X | {\ displaystyle \ alpha _ {P} (X) = {\ frac {\ left | {\ underline {P}} X \ right |} {\ left | {\ overline {P}} X \ right |}}}\ alpha _ {{P}} (X) = {\ frac {\ left | {\ underline P} X \ right |} {\ left | {\ над чертой P} X \ right |}}

То есть точность представления приблизительного набора X {\ displaystyle X}X , α P (X) {\ displaystyle \ alpha _ {P} (X)}\ alpha _ {{P}} (X) , 0 ≤ α P (X) ≤ 1 {\ displaystyle 0 \ leq \ alpha _ {P} (X) \ leq 1}0 \ leq \ alpha _ {{P}} (X) \ leq 1 , это отношение количества объектов, которые могут быть положительно помещены в X {\ displaystyle X}X к количеству объектов, которые могут быть размещены в X {\ displaystyle X}X - это дает меру того, насколько близко приблизительный набор целевой набор. Ясно, что когда верхнее и нижнее приближения равны (т. Е. Граничная область пуста), тогда α P (X) = 1 {\ displaystyle \ alpha _ {P} (X) = 1}\ alpha _ {{P}} (X) = 1 , и приближение идеальное; с другой стороны, когда нижнее приближение пусто, точность равна нулю (независимо от размера верхнего приближения).

Объективный анализ

Теория грубых множеств - один из многих методов, которые можно использовать для анализа неопределенных (в том числе неопределенных) систем, хотя и менее распространен, чем более традиционные методы вероятности, статистика, энтропия и теория Демпстера – Шейфера. Однако ключевое отличие и уникальная сила использования классической грубой теории множеств заключается в том, что она обеспечивает объективную форму анализа (Pawlak et al. 1995). В отличие от других методов, приведенных выше, классический анализ приблизительного набора не требует дополнительной информации, внешних параметров, моделей, функций, оценок или субъективных интерпретаций для определения принадлежности к набору - вместо этого он использует только информацию, представленную в данных (Düntsch and Gediga, 1995).). Более поздние адаптации теории приблизительных множеств, такие как основанные на преобладании, теоретико-решающие и нечеткие грубые множества, сделали анализ более субъективным.

Определимость

В общем, верхнее и нижнее приближения не равны; в таких случаях мы говорим, что целевой набор X {\ displaystyle X}X не может быть определен или приблизительно определен для набора атрибутов P {\ displaystyle P}P . Когда верхнее и нижнее приближения равны (т. Е. Граница пуста), P ¯ X = P _ X {\ displaystyle {\ overline {P}} X = {\ underline {P}} X}{\ overline P} X = {\ underline P} X , то целевой набор X {\ displaystyle X}X может быть определен в наборе атрибутов P {\ displaystyle P}P . Мы можем выделить следующие особые случаи неопределенности:

  • Set X {\ displaystyle X}X внутренне не определяется, если P _ X = ∅ {\ displaystyle {\ underline {P} } X = \ emptyset}{\ underline P} X = \ emptyset и P ¯ X ≠ U {\ displaystyle {\ overline {P}} X \ neq \ mathbb {U}}{\ overline P} X \ neq {\ mathbb {U}} . Это означает, что в наборе атрибутов P {\ displaystyle P}P нет объектов, которые, как мы можем быть уверены, принадлежат целевому набору X {\ displaystyle X}X , но есть объекты, которые мы можем окончательно исключить из набора X {\ displaystyle X}X .
  • Set X {\ displaystyle X}X внешне неопределимо, если P _ X ≠ ∅ {\ displaystyle {\ underline {P}} X \ neq \ emptyset}{\ underline P} X \ neq \ emptyset и P ¯ X = U {\ displaystyle {\ overline {P}} X = \ mathbb {U} }{\ overline P} X = {\ mathbb {U}} . Это означает, что в наборе атрибутов P {\ displaystyle P}P есть объекты, которые, как мы можем быть уверены, принадлежат целевому набору X {\ displaystyle X}X , но нет объектов, которые мы могли бы окончательно исключить из набора X {\ displaystyle X}X .
  • Set X {\ displaystyle X}X полностью неопределимо, если P _ X = ∅ {\ displaystyle {\ underline {P}} X = \ emptyset}{\ underline P} X = \ emptyset и P ¯ X = U {\ displaystyle {\ overline {P}} X = \ mathbb {U}}{\ overline P} X = {\ mathbb {U}} . Это означает, что в наборе атрибутов P {\ displaystyle P}P нет объектов, которые, как мы можем быть уверены, принадлежат целевому набору X {\ displaystyle X}X , и нет объектов, которые мы могли бы окончательно исключить из набора X {\ displaystyle X}X . Таким образом, при наборе атрибутов P {\ displaystyle P}P мы не можем решить, является ли какой-либо объект членом X {\ displaystyle X}X .

Reduct и core

Интересный вопрос заключается в том, есть ли в информационной системе атрибуты (таблица значений атрибутов), которые более важны для знаний, представленных в структуре класса эквивалентности, чем другие атрибуты. Часто мы задаемся вопросом, существует ли подмножество атрибутов, которое само по себе полностью характеризует знания в базе данных; такой набор атрибутов называется редукцией.

Формально сокращение - это подмножество атрибутов RED ⊆ P {\ displaystyle \ mathrm {RED} \ substeq P}{\ mathrm {RED}} \ substeq P таких, что

  • [x] RED {\ displaystyle [x] _ {\ mathrm {RED}}}[x] _ {{{\ mathrm {RED}}}} = [x] P {\ displaystyle [x] _ {P}}[x] _ {P} , то есть классы эквивалентности, вызванные сокращенным набором атрибутов RED {\ displaystyle \ mathrm {RED}}{\ mathrm {RED}} такие же, как структура класса эквивалентности, вызванная полным набором атрибутов P {\ displaystyle P}P .
  • набором атрибутов КРАСНЫЙ {\ displaystyle \ mathrm {RED}}{\ mathrm {RED}} минимален в том смысле, что [x] (RED - {a}) ≠ [x] P {\ displaystyle [x] _ { (\ mathrm {RED} - \ {a \})} \ neq [x] _ {P}}[x] _ {{({\ mathrm {RED}} - \ {a \})}} \ neq [x] _ {P} для любого атрибута a ∈ RED {\ displaystyle a \ in \ mathrm {RED} }a \ in {\ mathrm {RED}} ; другими словами, ни один атрибут не может быть удален из набора RED {\ displaystyle \ mathrm {RED}}{\ mathrm {RED}} без изменения классов эквивалентности [x] P {\ displaystyle [x] _ { P}}[x] _ {P} .

Редукт можно рассматривать как достаточный набор функций, то есть достаточный для представления структуры категорий. В приведенном выше примере таблицы набор атрибутов {P 3, P 4, P 5} {\ displaystyle \ {P_ {3}, P_ {4}, P_ {5} \}}\ {P_ {3}, P_ {4}, P_ {5} \} равен редукция - информационная система, проецируемая только на эти атрибуты, обладает той же структурой классов эквивалентности, что и выраженная полным набором атрибутов:

{{O 1, O 2} {O 3, O 7, O 10} {O 4 } {O 5} {O 6} {O 8} {O 9} {\ displaystyle {\ begin {cases} \ {O_ {1}, O_ {2} \} \\\ {O_ {3}, O_ { 7}, O_ {10} \} \\\ {O_ {4} \} \\\ {O_ {5} \} \\\ {O_ {6} \} \\\ {O_ {8} \} \ \\ {O_ {9} \} \ end {cases}}}{\ begin {case} \ {O _ {{1}}, O _ {{2}} \} \\\ {O _ {{3}}, O _ {{7}}, O _ {{10}} \} \\\ {O _ {{4}} \} \\\ {O _ {{5}} \} \\\ {O _ {{6}} \} \\\ {O_ {{8}} \} \\\ {O _ {{9}} \} \ end {case}}

Набор атрибутов {P 3, P 4, P 5} {\ displaystyle \ {P_ {3}, P_ {4}, P_ {5} \}}\ {P_ {3}, P_ {4}, P_ {5} \} является сокращением, потому что удаление любого из этих атрибутов вызывает коллапс структуры класса эквивалентности, в результате чего [x] RED ≠ [x] P {\ displaystyle [x] _ {\ mathrm {RED}} \ neq [x] _ {P}}[x] _ {{{\ mathrm {RED}}}} \ neq [x] _ {P} .

Редукция информационной системы не уникальна: может быть много подмножеств атрибутов, которые сохраняют структуру класса эквивалентности (т. е., знания), выраженные в информационной системе. В приведенном выше примере информационной системы другое сокращение: {P 1, P 2, P 5} {\ displaystyle \ {P_ {1}, P_ {2}, P_ {5} \}}\ {P_ {1}, P_ {2}, P_ {5} \} , создавая ту же структуру класса эквивалентности, что и [x] P {\ displaystyle [x] _ {P}}[x] _ {P} .

Набор атрибутов, который является общим для всех редукций, называется ядром: ядро ​​- это набор атрибутов, которым обладает каждый редукт, и поэтому состоит из атрибутов, которые нельзя удалить из информационной системы, не вызывая коллапса структуры класса эквивалентности. Ядро можно представить как набор необходимых атрибутов, то есть необходимых для представления структуры категории. В этом примере единственный такой атрибут - {P 5} {\ displaystyle \ {P_ {5} \}}\ {P_ {5} \} ; любой из других атрибутов может быть удален по отдельности, не повреждая структуру класса эквивалентности, и, следовательно, все они необязательны. Однако удаление {P 5} {\ displaystyle \ {P_ {5} \}}\ {P_ {5} \} само по себе изменяет структуру класса эквивалентности, и поэтому {P 5} {\ displaystyle \ {P_ {5} \}}\ {P_ {5} \} - непременный атрибут этой информационной системы и, следовательно, ее ядро.

Ядро может быть пустым, что означает отсутствие обязательного атрибута: любой отдельный атрибут в такой информационной системе может быть удален без изменения структуры класса эквивалентности. В таких случаях нет существенного или необходимого атрибута, который требуется для представления структуры класса.

Зависимость атрибутов

Одним из наиболее важных аспектов анализа базы данных или сбора данных является обнаружение зависимостей атрибутов; то есть мы хотим выяснить, какие переменные сильно связаны с какими другими переменными. Как правило, именно эти прочные связи требуют дальнейшего исследования и, в конечном итоге, могут быть использованы при прогнозном моделировании.

В грубой теории множеств понятие зависимости определяется очень просто. Возьмем два (непересекающихся) набора атрибутов, установим P {\ displaystyle P}P и установим Q {\ displaystyle Q}Qи выясним, в какой степени между ними возникает зависимость. Каждый набор атрибутов индуцирует (неразличимость) структуру классов эквивалентности, классы эквивалентности индуцируются с помощью P {\ displaystyle P}P , задаваемого [x] P {\ displaystyle [x] _ {P }}[x] _ {P} , и классы эквивалентности, индуцированные Q {\ displaystyle Q}Q, заданные [x] Q {\ displaystyle [x] _ {Q}}[xght_{Q}.

Пусть [x] Q = {Q 1, Q 2, Q 3,…, QN} {\ displaystyle [x] _ {Q} = \ {Q_ {1}, Q_ {2}, Q_ {3}, \ dots, Q_ {N} \}}[x] _ {Q} = \ {Q_ {1}, Q_ {2}, Q_ {3}, \ точки, Q_ {N} \} , где Q i {\ displaystyle Q_ {i}}Q_ {i} - заданный класс эквивалентности из эквивалентности - структура класса вызвана набором атрибутов Q {\ displaystyle Q}Q. Затем зависимость набора атрибутов Q {\ displaystyle Q}Qот набора атрибутов P {\ displaystyle P}P , γ P (Q) {\ displaystyle \ gamma _ {P } (Q)}\ gamma _ {{P}} (Q) , определяется как

γ P (Q) = ∑ i = 1 N | P _ Q i | | U | ≤ 1 {\ displaystyle \ gamma _ {P} (Q) = {\ frac {\ sum _ {i = 1} ^ {N} \ left | {\ underline {P}} Q_ {i} \ right |} { \ left | \ mathbb {U} \ right |}} \ leq 1}\ gamma _ {{P}} (Q) = {\ frac {\ sum _ {{i = 1}} ^ {N} \ left | {\ underline P} Q_ {i } \ right |} {\ left | {\ mathbb {U}} \ right |}} \ leq 1

То есть для каждого класса эквивалентности Q i {\ displaystyle Q_ {i}}Q_ {i} в [x] Q {\ displaystyle [x] _ {Q}}[xght_{Q}, мы складываем размер его нижнего приближения по атрибутам в P {\ displaystyle P}P , то есть P _ Q i {\ displaystyle {\ underline {P}} Q_ {i}}{\ underline P} Q_ {i} . Это приближение (как указано выше, для произвольного набора X {\ displaystyle X}X ) представляет собой количество объектов, которые в наборе атрибутов P {\ displaystyle P}P могут быть положительно идентифицировано как принадлежащее целевому набору Q i {\ displaystyle Q_ {i}}Q_ {i} . Добавленный по всем классам эквивалентности в [x] Q {\ displaystyle [x] _ {Q}}[xght_{Q}, числитель выше представляет общее количество объектов, которые - на основе набора атрибутов P {\ displaystyle P}P - может быть положительно отнесен к категории согласно классификации, индуцированной атрибутами Q {\ displaystyle Q}Q. Таким образом, коэффициент зависимости выражает долю (в пределах всей вселенной) таких классифицируемых объектов. Зависимость γ P (Q) {\ displaystyle \ gamma _ {P} (Q)}\ gamma _ {{P}} (Q) "можно интерпретировать как долю таких объектов в информационной системе, для которых достаточно знать значения атрибутов в P {\ displaystyle P}P для определения значений атрибутов в Q {\ displaystyle Q}Q".

Другой, интуитивно понятный способ рассмотрения зависимости состоит в том, чтобы принять раздел, индуцированный Q, в качестве целевого класса C, и рассматривать P как набор атрибутов, который мы хотим использовать для «воссоздания» целевого класса. C. Если P может полностью восстановить C, то Q полностью зависит от P; если P приводит к плохой и, возможно, случайной реконструкции C, то Q вообще не зависит от P.

Таким образом, этот показатель зависимости выражает степень функциональной (т.е. детерминированной) зависимости набора атрибутов Q {\ displaystyle Q}Qот набора атрибутов P {\ стиль отображения P}P ; это не симметрично. Связь этого понятия атрибутивной зависимости с более традиционными теоретико-информационными (т. Е. Энтропийными) понятиями атрибутивной зависимости обсуждалась в ряде источников (например, Pawlak, Wong, Ziarko 1988; Yao Yao 2002; Wong, Ziarko, Ye 1986, Quafafou Boussouf 2000).

Извлечение правил

Все описанные выше представления категорий являются экстенсиональными по своей природе; то есть категория или сложный класс - это просто сумма всех своих членов. Таким образом, представление категории - это просто возможность перечислить или идентифицировать все объекты, принадлежащие этой категории. Однако экстенсиональные представления категорий имеют очень ограниченное практическое применение, потому что они не дают представления о том, являются ли новые (никогда ранее не замеченные) объекты членами категории.

Обычно желательно преднамеренное описание категории, представление категории на основе набора правил, описывающих область действия категории. Выбор таких правил не уникален, и в этом заключается проблема индуктивного смещения. Подробнее об этой проблеме см. Пространство версий и Выбор модели.

Есть несколько методов извлечения правил. Мы начнем с процедуры извлечения правил, основанной на Ziarko Shan (1995).

Матрицы решений

Допустим, мы хотим найти минимальный набор согласованных правил (логических следствий ), которые характеризуют нашу систему-образец. Для набора атрибутов условия P = {P 1, P 2, P 3,…, P n} {\ displaystyle {\ mathcal {P}} = \ {P_ {1}, P_ {2}, P_ {3}, \ dots, P_ {n} \}}{\ mathcal {P}} = \ {P_ {1}, P_ {2}, P_ {3}, \ dots, P_ {n} \} и атрибут решения Q, Q ∉ P {\ displaystyle Q, Q \ notin {\ mathcal {P}}}Q, Q \ notin {\ mathcal {P}} эти правила должны иметь вид P ia P jb… P kc → Q d {\ displaystyle P_ {i} ^ {a} P_ {j} ^ {b} \ dots P_ {k} ^ {c} \ to Q ^ {d}}P_ {i} ^ {a} P_ {j} ^ {b} \ dots P_ {k} ^ {c} \ to Q ^ {d} , или, по буквам,

(P i = a) ∧ (P j = b) ∧ ⋯ ∧ (P k = c) → ( Q = d) {\ displaystyle (P_ {i} = a) \ land (P_ {j} = b) \ land \ dots \ land (P_ {k} = c) \ to (Q = d)}{\ displaystyle (P_ {i} = a) \ land (P_ {j} = b) \ land \ dots \ land (P_ {k} = c) \ to (Q = d) }

где {a, b, c,…} {\ displaystyle \ {a, b, c, \ dots \}}\ {a, b, c, \ dots \} - допустимые значения из доменов соответствующих атрибутов. Это типичная форма для правил ассоциации, а количество элементов в U {\ displaystyle \ mathbb {U}}\ mathbb {U} , которые соответствуют условию / предшествующему, называется поддержкой. за правило. Метод извлечения таких правил, приведенный в Ziarko Shan (1995), заключается в формировании матрицы решений, соответствующей каждому отдельному значению d {\ displaystyle d}d атрибута решения Q {\ displaystyle Q}Q. Неформально матрица решений для значения d {\ displaystyle d}d атрибута решения Q {\ displaystyle Q}Qперечисляет все пары атрибут-значение, которые различаются между объектами. имея Q = d {\ displaystyle Q = d}Q = d и Q ≠ d {\ displaystyle Q \ neq d}Q \ neq d .

Это лучше всего объяснить на примере (который также позволяет избежать обозначений). Рассмотрим таблицу выше, и пусть P 4 {\ displaystyle P_ {4}}P _ {{4}} будет переменной решения (т. Е. Переменная в правой части импликаций), и пусть {P 1, P 2, P 3} {\ displaystyle \ {P_ {1}, P_ {2}, P_ {3} \}}\ {P_ {1}, P_ {2}, P_ {3} \} - условные переменные (в левой части импликации). Отметим, что переменная решения P 4 {\ displaystyle P_ {4}}P _ {{4}} принимает два разных значения, а именно {1, 2} {\ displaystyle \ {1,2 \} }\ {1, 2 \ } . Мы рассматриваем каждый случай отдельно.

Сначала мы смотрим на случай P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1и делим U {\ displaystyle \ mathbb {U}}\ mathbb {U} на объекты с P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1и те, которые имеют P 4 ≠ 1 {\ стиль отображения P_ {4} \ neq 1}P_ { {4}} \ neq 1 . (Обратите внимание, что объекты с P 4 ≠ 1 {\ displaystyle P_ {4} \ neq 1}P_ { {4}} \ neq 1 в данном случае - это просто объекты с P 4 = 2 {\ displaystyle P_ { 4} = 2}P _ {{4}} = 2 , но в целом P 4 ≠ 1 {\ displaystyle P_ {4} \ neq 1}P_ { {4}} \ neq 1 будет включать все объекты, имеющие любое значение для P 4 {\ displaystyle P_ {4}}P _ {{4}} кроме P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1, и таких классов может быть несколько объектов (например, имеющих P 4 = 2, 3, 4 и т. д. {\ displaystyle P_ {4} = 2,3,4 и т. д.}P _ {{4}} = 2,3,4 и т. д. ).) В этом случае объекты, имеющие P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1, являются {O 1, O 2, O 3, O 7, O 10} {\ displaystyle \ {O_ {1}, O_ {2}, O_ {3}, O_ {7}, O_ {10} \}}\ {O_ {1}, O_ {2}, O_ {3}, O_ {7}, O_ { {10}} \} , а объекты с P 4 ≠ 1 {\ displaystyle P_ {4} \ neq 1}P_ { {4}} \ neq 1 равны {O 4, O 5, O 6, O 8, O 9} {\ displaystyle \ {O_ {4}, O_ {5}, O_ {6}, O_ {8}, O_ {9} \}}\ {O_ {4}, O_ {5 }, O_ {6}, O_ {8}, O_ {9} \} . В матрице решений для P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1перечислены все различия между объектами, имеющими P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1и имеющие P 4 ≠ 1 {\ displaystyle P_ {4} \ neq 1}P_ { {4}} \ neq 1 ; то есть матрица решений перечисляет все различия между {O 1, O 2, O 3, O 7, O 10} {\ displaystyle \ {O_ {1}, O_ {2}, O_ {3}, O_ {7}, O_ {10} \}}\ {O_ {1}, O_ {2}, O_ {3}, O_ {7}, O_ { {10}} \} и {O 4, O 5, O 6, O 8, O 9} {\ displaystyle \ {O_ {4}, O_ { 5}, O_ {6}, O_ {8}, O_ {9} \}}\ {O_ {4}, O_ {5 }, O_ {6}, O_ {8}, O_ {9} \} . Мы помещаем «положительные» объекты (P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1) как строки, а «отрицательные» объекты P 4 ≠ 1 { \ displaystyle P_ {4} \ neq 1}P_ { {4}} \ neq 1 в качестве столбцов.

Матрица решений для P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1
ObjectO 4 {\ displaystyle O_ {4}}O _ {{4}} O 5 {\ displaystyle O_ { 5}}O _ {{5}} O 6 {\ displaystyle O_ {6}}O _ {{6}} O 8 {\ displaystyle O_ {8}}O _ {{8}} O 9 {\ displaystyle O_ {9}}O_{{9}}
O 1 {\ displaystyle O_ {1}}O _ {{1}} P 1 1, P 2 2, P 3 0 {\ displaystyle P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0} P 1 1, P 2 2 {\ displaystyle P_ {1} ^ {1}, P_ {2} ^ {2}}P_ {1} ^ {1}, P_ {2} ^ {2} P 1 1, P 2 2, P 3 0 {\ displaystyle P_ {1 } ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0} P 1 1, P 2 2, P 3 0 {\ displaystyle P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0} P 1 1, P 2 2 {\ displaystyle P_ {1} ^ {1}, P_ {2} ^ {2}}P_ {1} ^ {1}, P_ {2} ^ {2}
О 2 {\ displaystyle O_ {2}}O _ {{2}} P 1 1, P 2 2, P 3 0 {\ displaystyle P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3 } ^ {0}}P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0} P 1 1, P 2 2 {\ displaystyle P_ {1} ^ {1}, P_ {2} ^ {2}}P_ {1} ^ {1}, P_ {2} ^ {2} P 1 1, P 2 2, P 3 0 {\ displaystyle P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0} P 1 1, P 2 2, P 3 0 {\ displaystyle P_ { 1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {1}, P_ {2} ^ {2}, P_ {3} ^ {0} P 1 1, P 2 2 {\ displaystyle P_ {1} ^ {1}, P_ {2 } ^ {2}}P_ {1} ^ {1}, P_ {2} ^ {2}
O 3 {\ displaystyle O_ {3}}O _ {{3}} P 1 2, P 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {3} ^ {0} P 2 0 {\ displaystyle P_ {2} ^ {0}}P_ {2} ^ {0} P 1 2, P 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {3} ^ {0} P 1 2, P 2 0, P 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {2} ^ { 0}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {2} ^ {0}, P_ {3} ^ {0} P 2 0 {\ displaystyle P_ {2} ^ {0}}P_ {2} ^ {0}
O 7 {\ displaystyle O_ {7}}O_{{7}}P 1 2, П 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {3} ^ {0} P 2 0 {\ displaystyle P_ {2} ^ {0}}P_ {2} ^ {0} P 1 2, P 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {3} ^ {0} P 1 2, P 2 0, P 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {2} ^ {0}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {2} ^ {0}, P_ {3} ^ {0} P 2 0 {\ displaystyle P_ {2} ^ {0}}P_ {2} ^ {0}
O 10 {\ displaystyle O_ {10}}O _ {{10 }} P 1 2, P 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {3} ^ {0} P 2 0 {\ displaystyle P_ {2} ^ {0}}P_ {2} ^ {0} П 1 2, п 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {3} ^ {0} P 1 2, P 2 0, P 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {2} ^ {0}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {2} ^ {0}, P_ {3} ^ {0} P 2 0 {\ displaystyle P_ {2} ^ {0}}P_ {2} ^ {0}

Чтобы прочитать эту матрицу решений, посмотрите, например, на пересечении строки O 3 {\ displaystyle O_ {3}}O _ {{3}} и столбца O 6 {\ displaystyle O_ {6}}O _ {{6}} , показаны P 1 2, P 3 0 {\ displaystyle P_ {1} ^ {2}, P_ {3} ^ {0}}P_ {1} ^ {2}, P_ {3} ^ {0} в ячейке. Это означает, что в отношении значения решения P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1, объект O 3 {\ displaystyle O_ {3}}O _ {{3}} отличается от объекта O 6 {\ displaystyle O_ {6}}O _ {{6}} по атрибутам P 1 {\ displaystyle P_ {1}}P_ {1} и P 3 {\ displaystyle P_ {3}}P_ {3} , а конкретные значения этих атрибутов для положительного объекта O 3 {\ displaystyle O_ {3}}O _ {{3}} равны P 1 = 2 {\ displaystyle P_ {1} = 2}P_ {1} = 2 и P 3 = 0 {\ displaystyle P_ {3} = 0}P_ {3} = 0 . Это говорит нам о том, что правильная классификация O 3 {\ displaystyle O_ {3}}O _ {{3}} как принадлежащего к классу решений P 4 = 1 {\ displaystyle P_ {4} = 1}P_{{4}}=1опирается на атрибуты P 1 {\ displaystyle P_ {1}}P_ {1} и P 3 {\ displaystyle P_ {3}}P_ {3} ; хотя один или другой может быть незаменимым, мы знаем, что по крайней мере один из этих атрибутов является незаменимым.

Затем из каждой матрицы решений мы формируем набор логических выражений, по одному выражению для каждой строки матрицы. Элементы в каждой ячейке объединяются дизъюнктивно, а затем отдельные ячейки объединяются вместе. Таким образом, для приведенной выше таблицы мы имеем следующие пять булевых выражений:

{(P 1 1 ∨ P 2 2 ∨ P 3 0) ∧ (P 1 1 ∨ P 2 2) ∧ (P 1 1 ∨ P 2 2 ∨ P 3 0) ∧ (P 1 1 ∨ P 2 2 ∨ P 3 0) ∧ (P 1 1 ∨ P 2 2) (P 1 1 ∨ P 2 2 ∨ P 3 0) ∧ (P 1 1 ∨ P 2 2) ∧ (P 1 1 ∨ P 2 2 ∨ P 3 0) ∧ (P 1 1 ∨ P 2 2 ∨ P 3 0) ∧ (P 1 1 ∨ P 2 2) (P 1 2 ∨ P 3 0) ∧ (P 2 0) ∧ (P 1 2 ∨ P 3 0) ∧ (P 1 2 ∨ P 2 0 ∨ P 3 0) ∧ (P 2 0) (P 1 2 ∨ P 3 0) ∧ (P 2 0) ∧ (P 1 2 ∨ P 3 0) ∧ (P 1 2 ∨ P 2 0 ∨ P 3 0) ∧ (P 2 0) (P 1 2 ∨ P 3 0) ∧ (P 2 0) ∧ (P 1 2 ∨ п 3 0) ∧ (п 1 2 ∨ п 2 0 ∨ п 3 0) ∧ (п 2 0) {\ displaystyle {\ begin {cases} (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \\ (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1 } \ lor P_ {2} ^ {2}) \\ (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {2} ^ {0} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \\ (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {2} ^ {0} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \\ (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {2} ^ {0} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \ end {cases}}}{\ displaystyle {\ begin {cases} (P_ {1} ^ {1 } \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \ land (P_ {1 } ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lo r P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \\ (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \\ (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {2 } ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {2} ^ {0} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \\ (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {2 } ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {2} ^ {0} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \\ (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {2 } ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {2} ^ {0} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \ end {ases}}}

Каждый оператор здесь, по сути, представляет собой очень конкретное (возможно, слишком конкретное) правило, регулирующее членство в классе P 4 = 1 {\ displaystyle P_ {4 } = 1}P_{{4}}=1соответствующего объекта. Например, последний оператор, соответствующий объекту O 10 {\ displaystyle O_ {10}}O _ {{10 }} , утверждает, что должны выполняться все следующие условия:

  1. Либо P 1 {\ displaystyle P_ {1}}P_ {1} должен иметь значение 2 или P 3 {\ displaystyle P_ {3}}P_ {3} должен иметь значение 0 или оба значения.
  2. P 2 {\ displaystyle P_ {2}}P_ {2} должен иметь значение 0.
  3. Либо P 1 {\ displaystyle P_ {1}}P_ {1} должно иметь значение 2, либо P 3 {\ displaystyle P_ {3}}P_ {3} должно иметь значение 0, либо оба значения.
  4. Либо P 1 {\ displaystyle P_ {1}}P_ {1} должно иметь значение 2 или P 2 {\ displaystyle P_ {2}}P_ {2} должно иметь значение 0, или P 3 {\ displaystyle P_ {3}}P_ {3} должен иметь значение 0 или любую их комбинацию.
  5. P 2 {\ displaystyle P_ {2}}P_ {2} должен иметь значение 0.

Понятно, что существует большая сумма избыточности здесь, и следующий шаг - упростить использование традиционной булевой алгебры. Выражение (P 1 1 ∨ P 2 2 ∨ P 3 0) ∧ (P 1 1 ∨ P 2 2) ∧ (P 1 1 ∨ P 2 2 ∨ P 3 0) ∧ (P 1 1 ∨ P 2 2 ∨ п 3 0) ∧ (п 1 1 ∨ п 2 2) {\ displaystyle (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ земля (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ { 0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ { 2} ^ {2})}{\ displaystyle (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3}) ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {1} \ lor P_ {2} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ { 1} \ lor P_ {2} ^ {2})} , соответствующие объектам {O 1, O 2} {\ displaystyle \ {O_ {1}, O_ {2} \}}\ {O _ {{1}}, O _ {{2}} \} упрощается до P 1 1 ∨ P 2 2 {\ displaystyle P_ {1} ^ {1} \ lor P_ {2} ^ {2}}{\ displaystyle P_ {1} ^ {1} \ lor P_ {2} ^ {2}} , что дает импликацию

(P 1 = 1) ∨ (P 2 = 2) → (P 4 = 1) {\ displaystyle (P_ {1} = 1) \ lor (P_ { 2} = 2) \ to (P_ {4} = 1)}{\ displaystyle (P_ {1} = 1) \ lor (P_ {2} = 2) \ to (P_ {4} = 1)}

Аналогично, утверждение (P 1 2 ∨ P 3 0) ∧ (P 2 0) ∧ (P 1 2 ∨ P 3 0) ∧ (P 1 2 ∨ P 2 0 ∨ P 3 0) ∧ (P 2 0) {\ displaystyle (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {2 } ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {2} ^ {0} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0})}{\ displaystyle (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {3} ^ {0}) \ land (P_ {1} ^ {2} \ lor P_ {2} ^ {0} \ lor P_ {3} ^ {0}) \ land (P_ {2} ^ {0})} соответствующий объектам {O 3, O 7, O 10} {\ displaystyle \ { O_ {3}, O_ {7}, O_ {10} \}}\ {O _ {{3}}, O _ {{7}}, O _ {{10} } \} упрощается до P 1 2 P 2 0 ∨ P 3 0 P 2 0 {\ displaystyle P_ {1} ^ { 2} P_ {2} ^ {0} \ lor P_ {3} ^ {0} P_ {2} ^ {0}}{\ displaystyle P_ {1} ^ {2} P_ {2} ^ {0} \ lor P_ {3} ^ {0} P_ {2} ^ { 0}} . Это дает нам импликацию

(P 1 = 2 ∧ P 2 = 0) ∨ (P 3 = 0 ∧ P 2 = 0) → (P 4 = 1) {\ displaystyle (P_ {1} = 2 \ land P_ {2} = 0) \ lor (P_ {3} = 0 \ land P_ {2} = 0) \ to (P_ {4} = 1)}{\ displaystyle (P_ {1} = 2 \ land P_ {2} = 0) \ lor (P_ {3} = 0 \ land P_ {2} = 0) \ to (P_ {4} = 1)}

Вышеупомянутые последствия также можно записать в виде следующего правила установить:

{(P 1 = 1) → (P 4 = 1) (P 2 = 2) → (P 4 = 1) (P 1 = 2) ∧ (P 2 = 0) → (P 4 = 1) (п 3 знак равно 0) ∧ (п 2 = 0) → (п 4 = 1) {\ displaystyle {\ begin {cases} (P_ {1} = 1) \ to (P_ {4} = 1) \ \ (P_ {2} = 2) \ to (P_ {4} = 1) \\ (P_ {1} = 2) \ land (P_ {2} = 0) \ to (P_ {4} = 1) \ \ (P_ {3} = 0) \ land (P_ {2} = 0) \ to (P_ {4} = 1) \ end {cases}}}{\ displaystyle {\ begin {cases} (P_ {1 } = 1) \ to (P_ {4} = 1) \\ (P_ {2} = 2) \ to (P_ {4} = 1) \\ (P_ {1} = 2) \ land (P_ {2 } = 0) \ to (P_ {4} = 1) \\ (P_ {3} = 0) \ land (P_ {2} = 0) \ to (P_ {4} = 1) \ end {case s}}}

Можно отметить, что каждое из первых двух правил имеет поддержку 1 (т. е. антецедент соответствует двум объектам), в то время как каждое из последних двух правил имеет поддержку 2. Чтобы закончить запись набора правил для этой системы знаний, выполните ту же процедуру, что и выше (начиная с написания нового матрица решений) должна соблюдаться для случая P 4 = 2 {\ displaystyle P_ {4} = 2}P _ {{4}} = 2 , таким образом давая новый набор последствий для этого решения v alue (т. е. набор импликаций с P 4 = 2 {\ displaystyle P_ {4} = 2}P _ {{4}} = 2 в качестве следствия). В общем, процедура будет повторяться для каждого возможного значения переменной решения.

Система индукции правил LERS

Система данных LERS (обучение на примерах на основе грубых наборов) Grzymala-Busse (1997) может вводить правила на основе несовместимых данных, то есть данных с конфликтующими объектами. Два объекта конфликтуют, когда они характеризуются одинаковыми значениями всех атрибутов, но принадлежат к разным концепциям (классам). LERS использует приблизительную теорию множеств для вычисления нижних и верхних приближений для концепций, находящихся в конфликте с другими концепциями.

Правила, порожденные нижним приближением концепции, безусловно, описывают концепцию, поэтому такие правила называются определенными. С другой стороны, правила, индуцированные из верхнего приближения понятия, описывают понятие возможно, поэтому эти правила называются возможными. Для индукции правил LERS использует три алгоритма: LEM1, LEM2 и IRIM.

Алгоритм LEM2 LERS часто используется для индукции правил и используется не только в LERS, но и в других системах, например, в RSES (Bazan et al. (2004). LEM2 исследует пространство поиска пары атрибут-значение. Его набор входных данных является нижним или верхним приближением концепции, поэтому его набор входных данных всегда согласован. В общем, LEM2 вычисляет локальное покрытие, а затем преобразует его в набор правил. Мы процитируем несколько определений для описания алгоритма LEM2.

Алгоритм LEM2 основан на идее блока пары атрибут-значение. Пусть X {\ displaystyle X}X быть непустым нижним или верхним приближением концепции, представленной парой решение-значение (d, w) {\ displaystyle (d, w)}(d, w) . Установить X {\ displaystyle X }X зависит от набора T {\ displaystyle T}T пар атрибут-значение t = (a, v) {\ displaystyle t = (a, v)}t = (a, v) тогда и только тогда, когда

∅ ≠ [T] = ⋂ t ∈ T [t] ⊆ X. {\ Displaystyle \ emptyset \ neq [T] = \ bigcap _ {t \ in T} [t] \ substeq X.}\ emptyset \ neq [T] = \ bigcap _ {{t \ in T}} [t] \ substeq X.

Набор T {\ displaystyle T}T - минимальный комплекс X {\ displaystyle X}X тогда и только тогда, когда X {\ displaystyle X}X зависит от T {\ displaystyle T}T и нет собственное подмножество S {\ displaystyle S}S из T {\ displaystyle T}T существует такое, что X {\ displaystyle X}X зависит от S {\ displaystyle S}S . Пусть T {\ displaystyle \ mathbb {T}}\ mathbb {T} будет непустой коллекцией непустых наборов пар атрибут-значение. Тогда T {\ displaystyle \ mathbb {T}}\ mathbb {T} является локальным покрытием X {\ displaystyle X}X тогда и только тогда, когда выполняются следующие три условия :

каждый член T {\ displaystyle T}T из T {\ displaystyle \ mathbb {T}}\ mathbb {T} является минимальным комплексом Икс {\ Displaystyle X}X ,

⋃ T ∈ T [T] = X, {\ Displaystyle \ bigcup _ {t \ in \ mathbb {T}} [T] = X,}\ bigcup _ {{t \ in {\ mathbb {T}}}} [T ] = X,
T {\ displaystyle \ mathbb {T}}\ mathbb {T} минимально, то есть T {\ displaystyle \ mathbb {T}}\ mathbb {T} имеет наименьшее возможное количество членов.

Для наших пример информационной системы, LEM2 вызовет следующие правила:

{(P 1, 1) → (P 4, 1) (P 5, 0) → (P 4, 1) (P 1, 0) → (P 4, 2) (P 2, 1) → (P 4, 2) {\ displaystyle {\ begin {cases} (P_ {1}, 1) \ to (P_ {4}, 1) \\ (P_ {5 }, 0) \ to (P_ {4}, 1) \\ (P_ {1}, 0) \ to (P_ {4}, 2) \\ (P_ {2}, 1) \ to (P_ {4 }, 2) \ end {cases}}}{\ begin {cases} (P_ {1}, 1) \ to (P_ {4 }, 1) \\ (P_ {5}, 0) \ to (P_ {4}, 1) \\ (P_ {1}, 0) \ to (P_ {4}, 2) \\ (P_ {2 }, 1) \ to (P_ {4}, 2) \ end {cases}}

Другие методы обучения правилам можно найти, например, в Pawlak (1991), Stefanowski (1998), Bazan et al. (2004) и т. Д.

Неполные данные

Теория грубых множеств полезна для индукции правил из неполных наборов данных. Используя этот подход, мы можем различать три типа отсутствующих значений атрибутов: потерянные значения (значения, которые были записаны, но в настоящее время недоступны), значения атрибута-концепции (эти отсутствующие значения атрибута могут быть заменены любым значением атрибута, ограниченным той же концепцией), и условия "безразлично" (исходные значения не имели значения). Понятие (класс) - это совокупность всех объектов, классифицируемых (или диагностируемых) одинаково.

Два специальных набора данных с отсутствующими значениями атрибутов были тщательно изучены: в первом случае все отсутствующие значения атрибутов были потеряны (Stefanowski and Tsoukias, 2001), во втором случае все отсутствующие значения атрибутов были «не условия ухода (Kryszkiewicz, 1999).

При интерпретации значений концепции атрибута отсутствующего значения атрибута, отсутствующее значение атрибута может быть заменено любым значением домена атрибута, ограниченным концепцией, к которой принадлежит объект с отсутствующим значением атрибута (Grzymala-Busse и Grzymala-Busse, 2007). Например, если для пациента значение атрибута Температура отсутствует, этот пациент болен гриппом, а все оставшиеся пациенты, больные гриппом, имеют высокие или очень высокие значения для Температуры при использовании интерпретации отсутствующего значения атрибута как attribute-concept value, мы заменим отсутствующее значение атрибута на высокое и очень высокое. Кроме того, характеристическое отношение (см., Например, Grzymala-Busse and Grzymala-Busse, 2007) позволяет обрабатывать наборы данных со всеми тремя типами отсутствующих значений атрибутов одновременно: потерянными, условиями «безразлично» и атрибутами -концепция ценностей.

Приложения

Методы грубого набора могут применяться как компонент гибридных решений в машинном обучении и интеллектуальном анализе данных. Было обнаружено, что они особенно полезны для индукции правил и выбора признаков (сохранение семантики уменьшение размерности ). Методы грубого анализа данных на основе наборов успешно применяются в биоинформатике, экономике и финансах, медицине, мультимедиа, сети и интеллектуальном анализе текста, обработке сигналов и изображений, разработка программного обеспечения, робототехника и инженерия (например, энергетические системы и техника управления ). В последнее время три области грубых наборов интерпретируются как области принятия, отклонения и отсрочки. Это приводит к трехстороннему подходу к принятию решений с помощью модели, которая потенциально может привести к интересным будущим приложениям.

История

Идея приблизительного набора была предложена Павляком (1981) как новый математический инструмент для работы с неопределенными концепциями. Комер, Гжимала-Буссе, Ивински, Ниеминен, Новотны, Павляк, Обтулович и Помыкала изучали алгебраические свойства грубых множеств. Различную алгебраическую семантику разработали П. Паглиани, И. Дунч, М. К. Чакраборти, М. Банерджи и А. Мани; они были распространены на более общие грубые множества, в частности, Д. Каттанео и А. Мани. Приблизительные наборы могут использоваться для представления неоднозначности, неопределенности и общей неопределенности.

Расширения и обобщения

С момента разработки приблизительных наборов, расширений и обобщений продолжали развиваться. Первоначальные разработки были сосредоточены на взаимосвязи - как сходстве, так и различии - с нечеткими наборами. В то время как в одной литературе утверждается, что эти концепции различны, в другой литературе считается, что грубые множества являются обобщением нечетких множеств, представленных либо через нечеткие грубые множества, либо через грубые нечеткие множества. Pawlak (1995) считал, что нечеткие и грубые множества следует рассматривать как дополняющие друг друга, обращаясь к различным аспектам неопределенности и нечеткости.

Три важных расширения классических приблизительных множеств:

  • Основанный на доминировании подход грубых множеств (DRSA) является расширением теории приблизительных множеств для многокритериального анализа решений ( MCDA), представленный Греко, Матараццо и Словински (2001). Основным изменением в этом расширении классических грубых множеств является замена отношения неразличимости отношением доминирования, что позволяет формализму иметь дело с несогласованностями, типичными для рассмотрения критериев и классов решений, упорядоченных по предпочтениям.
  • Теоретико-решающие грубые множества (DTRS) - вероятностное расширение теории грубых множеств, введенное Яо, Вонгом и Линграсом (1990). Он использует байесовскую процедуру принятия решений для принятия решений с минимальным риском. Элементы включаются в нижнее и верхнее приближения в зависимости от того, превышает ли их условная вероятность пороговые значения α {\ displaystyle \ textstyle \ alpha}\ textstyle \ alpha и β {\ displaystyle \ textstyle \ beta}\ textstyle \ beta . Эти верхний и нижний пороги определяют включение области для элементов. Эта модель уникальна и эффективна, поскольку сами пороги вычисляются из набора из шести функций потерь, представляющих риски классификации.
  • Теоретико-игровые приблизительные наборы (GTRS) - это расширение приблизительного набора, основанное на теории игр, которое было введено Герберта и Яо (2011). Он использует теоретико-игровую среду для оптимизации определенных критериев классификации или принятия решений на основе приблизительных наборов с целью получения эффективных размеров области.

Приблизительное членство

Приблизительные наборы также могут быть определены в качестве обобщения следующим образом: использование приблизительной функции принадлежности вместо объективного приближения. Грубая функция принадлежности выражает условную вероятность того, что x {\ displaystyle x}x принадлежит X {\ displaystyle X}X при R {\ displaystyle \ стиль текста \ mathbb {R}}\ textstyle \ mathbb {R} . Это можно интерпретировать как степень, в которой x {\ displaystyle x}x принадлежит X {\ displaystyle X}X с точки зрения информации о x { \ displaystyle x}x выражается как R {\ displaystyle \ textstyle \ mathbb {R}}\ textstyle \ mathbb {R} .

Грубое членство в первую очередь отличается от нечеткого членства тем, что членство в объединении и пересечении множеств не может, в общем, вычисляться по их составным частям, как в случае нечетких множеств. В этом случае грубое членство является обобщением нечеткого членства. Более того, грубая функция принадлежности основывается больше на вероятности, чем традиционные концепции нечеткой функции принадлежности.

Другие обобщения

Было введено, изучено и применено несколько обобщений грубых множеств для решения задач. Вот некоторые из этих обобщений:

  • грубые мультимножества (Grzymala-Busse, 1987)
  • нечеткие грубые множества расширяют концепцию грубых множеств за счет использования нечетких классов эквивалентности (Nakamura, 1988)
  • Теория грубых альфа-множеств (α-RST) - обобщение теории грубых множеств, которое допускает аппроксимацию с использованием нечетких концепций (Quafafou, 2000)
  • интуиционистские нечеткие грубые множества (Cornelis, De Cock and Kerre, 2003)
  • обобщенные грубые нечеткие множества (Feng, 2010)
  • грубые интуиционистские нечеткие множества (Thomas and Nair, 2011)
  • мягкие грубые нечеткие множества и мягкие нечеткие грубые множества (Meng, Zhang and Qin, 2011)
  • составные грубые множества (Zhang, Li and Chen, 2014)
См. также
Ссылки
  • Pawlak, Zdzisław (1982). «Грубые наборы». Международный журнал параллельного программирования. 11 (5): 341–356. doi : 10.1007 / BF01001956. S2CID 9240608.
  • Базан, Янв; Щука, Марцин; Война, Аркадиуш; Войнарский, Марцин (2004). Об эволюции системы геологоразведочных работ. Труды РНТЦ 2004. Конспект лекций по информатике. 3066 . С. 592–601. CiteSeerX 10.1.1.60.3957. DOI : 10.1007 / 978-3-540-25929-9_73. ISBN 978-3-540-22117-3.
  • Dubois, D.; Прад, Х. (1990). «Грубые нечеткие множества и нечеткие грубые множества». Международный журнал общих систем. 17 (2–3): 191–209. doi : 10.1080 / 03081079008935107.
  • Herbert, J.P.; Яо, Дж. Т. (2011). "Теоретико-игровые грубые множества". Fundamenta Informaticae. 108 (3–4): 267–286. doi : 10.3233 / FI-2011-423.
  • Греко, Сальваторе; Матараццо, Бенедетто; Словинский, Роман (2001). «Теория грубых множеств для многокритериального анализа решений». Европейский журнал операционных исследований. 129 (1): 1–47. doi : 10.1016 / S0377-2217 (00) 00167-3.
  • Grzymala-Busse, Jerzy (1997). «Новая версия системы индукции правил LERS». Fundamenta Informaticae. 31 : 27–39. doi : 10.3233 / FI-1997-3113.
  • Гржимала-Буссе, Ежи; Гжимала-Буссе, Витольд (2007). Экспериментальное сравнение трех приблизительных подходов к отсутствию значений атрибутов. Сделки по грубым множествам. Конспект лекций по информатике. 6 . С. 31–50. DOI : 10.1007 / 978-3-540-71200-8_3. ISBN 978-3-540-71198-8.
  • Kryszkiewicz, Marzena (1999). «Правила в неполных системах». Информационные науки. 113 (3–4): 271–292. doi : 10.1016 / S0020-0255 (98) 10065-8.
  • Pawlak, Zdzisław Rough Sets Research Report PAS 431, Институт компьютерных наук Польской академии наук (1981)
  • Павляк, Здислав; Вонг, С. К. М.; Зярко, Войцех (1988). «Грубые множества: вероятностный подход против детерминированного». Международный журнал человеко-машинных исследований. 29 : 81–95. doi : 10.1016 / S0020-7373 (88) 80032-4.
  • Павляк, Здзислав (1991). Грубые множества: теоретические аспекты рассуждений о данных. Дордрехт: Kluwer Academic Publishing. ISBN 978-0-7923-1472-1.
  • Слезак, Доминик; Вроблевски, Якуб; Иствуд, Виктория; Сынак, Петр (2008). «Brighthouse: аналитическое хранилище данных для специальных запросов» (PDF). Труды эндаумента VLDB. 1 (2): 1337–1345. doi : 10.14778 / 1454159.1454174.
  • Стефановски, Ежи (1998). «О приближенных подходах к индукции решающих правил». В Полковски, Лех; Сковрон, Анджей (ред.). Грубые наборы в открытии знаний 1: Методология и приложения. Гейдельберг: Physica-Verlag. С. 500–529.
  • Стефановски, Ежи; Цукиас, Алексис (2001). Неполные информационные таблицы и приблизительная классификация. Вычислительный интеллект. 17 . С. 545–566. doi : 10.1111 / 0824-7935.00162.
  • Wong, S.K.M.; Зярко, Войцех; Е, Р. Ли (1986). «Сравнение приблизительных и статистических методов в индуктивном обучении». Международный журнал человеко-машинных исследований. 24 : 53–72. doi : 10.1016 / S0020-7373 (86) 80033-5.
  • Yao, J. T.; Яо, Ю. Ю. (2002). «Индукция правил классификации с помощью гранулярных вычислений». Труды Третьей Международной конференции по грубым множествам и текущим тенденциям в вычислительной технике (TSCTC'02). Лондон, Великобритания: Springer-Verlag. С. 331–338.
  • Ziarko, Wojciech (1998). «Грубые наборы как методология интеллектуального анализа данных». Грубые наборы в открытии знаний 1: методология и приложения. Гейдельберг: Physica-Verlag. стр. 554–576.
  • Ziarko, Wojciech; Шан, Нин (1995). «Обнаружение отношений атрибутов, зависимостей и правил с помощью грубых наборов». Материалы 28-й ежегодной Гавайской международной конференции по системным наукам (HICSS'95). Гавайи. С. 293–299.
  • Павляк, Здислав (1999). «Правила принятия решений, правило Байеса и приблизительные наборы». Новое направление в грубых множествах, интеллектуальном анализе данных и гранулярно-мягких вычислениях: 1–9.
  • Павляк, Здзислав. «Непростые отношения, отчеты». Институт компьютерных наук. 435 .
  • Орловска Э. (1987). «Рассуждения о неясных понятиях». Вестник Польской академии наук. 35 : 643–652.
  • Польковски Л. (2002). «Грубые множества: математические основы». Достижения в мягких вычислениях.
  • Скоурон, А. (1996). «Грубые множества и расплывчатые понятия». Fundamenta Informaticae: 417–431.
  • Бургин М. (1990). Теория именованных множеств как фундаментальная основа математики, В структурах математических теорий: отчеты международного симпозиума в Сан-Себастьяне, 25–29 сентября 1990 г. (http://www.blogg.org/blog-30140-date -2005-10-26.html )
  • Burgin, M. (2004). Unified Foundations of Mathematics, Preprint Mathematics LO / 0403186, p39. (Электронное издание: https://arxiv.org/ftp/math /papers/0403/0403186.pdf )
  • Бургин, М. (2011), Теория именованных множеств, Разработки математических исследований, Nova Science Pub Inc, ISBN 978-1- 61122-788-8
  • Корнелис, К., Де Кок, М. и Керр, Э. (2003) Интуиционистские нечеткие грубые множества: на перекрестке несовершенного знания, Expert Systems, 20: 5, pp260–270
  • Дюнч, И. и Гедига, Г. (1995) Анализ зависимостей грубого набора в оценочных исследованиях - приложение в исследовании повторных сердечных приступов. Университет Ольстера, Отчет об исследованиях в области информатики № 10
  • Фэн Ф. (2010). Обобщенные грубые нечеткие множества на основе мягких множеств, Sof t Computing, 14: 9, pp 899–911
  • Grzymala-Busse, J. (1987). Изучение примеров, основанных на грубых мультимножествах, в материалах 2-го Международного симпозиума по методологиям интеллектуальных систем, стр. 325–332. Шарлотта, Северная Каролина, США,
  • Менг, Д., Чжан, X. и Цинь, К. (2011). Мягкие грубые нечеткие множества и мягкие нечеткие грубые множества, Computers Mathematics with Applications, 62:12, pp4635–4645
  • Quafafou M. (2000). α-RST: обобщение теории грубых множеств, Информационные науки, 124: 1–4, стр. 301–316.
  • Квафафу М. и Буссуф М. (2000). Обобщенные грубые наборы на основе выбора признаков. Journal Intelligent Data Analysis, 4: 1, стр. 3–17
  • Накамура, А. (1988) Нечеткие грубые множества, «Заметки о многозначной логике в Японии», 9: 1, стр. 1–8
  • Павляк, З., Гжимала-Буссе, Дж., Словински, Р. Зярко, В. (1995). Грубые наборы. Сообщения ACM, 38:11, pp88–95
  • Томас, К. и Наир, Л. (2011). Грубые интуиционистские нечеткие множества в решетке, Международный математический форум, 6:27, pp1327–1335
  • Чжан Дж., Ли Т., Чен Х. (2014). Составные грубые наборы для динамического интеллектуального анализа данных, Информационные науки, 257, стр. 81–100
  • Чжан Дж., Вонг Дж. С., Пан И, Ли Т. (2015). Метод на основе параллельных матриц для вычисления приближений в неполных информационных системах, IEEE Transactions on Knowledge and Data Engineering, 27 (2): 326-339
  • Chen H., Li T., Luo C., Horng SJ., Ван Г. (2015). Подход с применением приблизительного набора теоретических решений для динамического интеллектуального анализа данных. Транзакции IEEE по нечетким системам, 23 (6): 1958-1970
  • Чен Х., Ли Т., Ло К., Хорнг С.-Дж., Ван Г. (2014). Приблизительный метод на основе наборов для обновления правил принятия решений по огрублению и уточнению значений атрибутов, IEEE Transactions on Knowledge and Data Engineering, 26 (12): 2886-2899
  • Chen H., Li T., Ruan D., Лин Дж., Ху С. (2013) Инкрементальный подход, основанный на приблизительном наборе, для обновления приближений в средах динамического обслуживания. IEEE Transactions on Knowledge and Data Engineering, 25 (2): 274-284
Дополнительная литература
  • Джанпьеро Каттанео и Давиде Чуччи, «Алгебры Гейтинга Вайсберга как абстрактная среда, связывающая нечеткие и грубые множества» в J.J. Alpigini et al. (Ред.): RSCTC 2002, LNAI 2475, стр. 77–84, 2002. doi : 10.1007 / 3-540-45813-1_10
Внешние ссылки
Последняя правка сделана 2021-06-04 11:07:54
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте