Основные сведения о теории возможностей

Теория возможностей была введена Заде [1] и получила дальнейшее развитие Дюбуа и Праде [2] с целью предложить четко определенное и формальное математическое представление для лингвистических утверждений, которое позволяет обрабатывать неточную или расплывчатую информацию. Например, слову дешево можно присвоить большой набор значений в соответствии с субъективным определением каждого и контекстом дешевизны.

Значения вероятности можно интерпретировать как степени возможности возникновения события.

Важным отличием от теории вероятностей является то, что значения высокой вероятности неинформативны, в то время как значения высокой вероятности информативны. Действительно, очень высокая вероятность события A означает, что если A произойдет или нет, нас это не удивит. Если A имеет очень высокую вероятностную массу, то мы были бы удивлены, что A не происходит. И наоборот, низкие значения вероятности и вероятности являются информативными, поскольку оба они указывают на то, что появление A маловероятно.

Теория возможностей также связана с теорией функций доверия, поскольку можно доказать, что если функция масс согласна (т. Е. Она имеет вложенные фокальные элементы), то она находится в биективном соответствии с распределением возможностей. В более общем смысле возможности — это особый класс неточных вероятностей, который представляет собой структуру, в которой значения вероятности могут быть заключены в скобки только двумя границами. В самом деле, неопределенность события в возможностной структуре лучше определяется парой значений (возможность и необходимость), которые можно рассматривать как границы вероятности.

Теория возможностей уходит своими корнями в теорию нечетких множеств. В самом деле, предположим, что T — это набор событий B ⊆ Ω, которые истинны, а U — это набор событий, которые не определены (те, которые не являются ни истинными, ни ни ложных). Предположим также, что T и U являются нечеткими, тогда необходимость — это функция принадлежности T, а возможность — функция принадлежности Т∪У.

Распределение возможностей

В теории возможностей распределения возможностей — это простейший класс объектов, которые полностью охватывают всю информацию о нашей неопределенности. Распределение возможностей π отображает каждый элемент во вселенной дискурса на единичный интервал [0,1], крайние значения которого соответствуют невозможным и полностью возможным состояниям. Множество допустимых распределений вероятностей с верхними и нижними граничными ограничениями, индуцированными возможностью π, обозначается как P(π) ⊆ P(Ω).

Если какое-либо состояние cΩ имеет степень возможности, равную 1, то это состояние (т.е. этот класс) вполне возможно и по соглашению распределение возможностей π называется нормированным. Неточная интерпретация вероятностей действительна только в том случае, если распределения возможностей являются нормальными, иначе мы имели бы p(Ω)‹1 для некоторого распределения вероятностей p в P (π).

Мы можем выделить две конкретные ситуации нулевой и полной уверенности при работе с распределением возможностей:

1. Полная достоверность: ∃ a ∈ Ω, π(a)=1 и π(b)=0, ∀a b.

2. Нулевая достоверность (незнание): π(a)=1∀ a∈ Ω.

Меры возможности и необходимости

Типичным аспектом теории возможностей и других теорий, совместимых с неточными вероятностями, является наличие двух мер для описания неопределенности: необходимости и возможности.

Необходимая мера учитывает обоснованную степень уверенности в каждом событии в свете доступной информации.

Соответствующая мера возможности оценивает, в какой степени можно сказать, что событие возможно при отсутствии какой-либо противоречивой информации.

Меры необходимости и возможности - это соответственно нижняя и верхняя вероятности в неточной интерпретации вероятности.

Учитывая подмножество A множества Ω, мера возможности задается следующим образом:

что означает, что вероятность подмножества A равна максимальной степени возможности в этом подмножестве. Таким образом, мера возможности максимальна:

Π(A∪B) =max(Π(A),Π(B)) в отличие от суммирующих мер вероятности.

Обратите внимание, что это свойство объясняет тот факт, что распределение возможностей дает достаточно информации для вычисления меры вероятности любого подмножества.

Мера необходимости определяется:

Мера необходимости такова, что: N(A ∩ B) = min(N(A),N(B)) и в нормализованном случае имеем, что Π(Ω) = N(Ω) = 1 и Π(∅) = N(∅) = 0.

Преобразование вероятности-возможности

Предположим, мы имеем дело с объективными распределениями вероятностей и стремимся преобразовать их в распределения возможностей. Таким образом, рекомендуемым выбором является преобразование Дюбуа и Прада [3], которое сохраняет статистическую информацию, содержащуюся в вероятностях.

Рассматривая дискретное распределение вероятностей p на Ω, мы всегда можем переставить индексы элементов Ω так, чтобы набор значений вероятности был отсортирован в порядке убывания:

Преобразование гласит:

Это преобразование обратимо [4] (в том смысле, что p можно восстановить из π). Он дает нормализованное распределение возможностей. Если p равномерно, то p отображается в константу π. Если p — масса Дирака, то p отображается сама на себя. Он также обладает тремя важными свойствами [5]:

  1. согласованность: ∀ A ⊆ Ω, Π(A) ≥ p(A ) где Π — мера возможности, натянутая на π. Итак, Π — хорошо определенная верхняя вероятность.
  2. сохранение предпочтений: ∀ (a,b) ∈ Ω², p(a )› p(b) ⇔ π(a) › π(b), поэтому существует форма совместимости между предпочтениями, закодированными π, и предпочтениями, закодированными p.
  3. максимальная специфичность: π достигает максимальной специфичности среди тех распределений возможностей, которые согласуются и сохраняют предпочтения с p. Рассмотрим два распределения возможностей π1 и π2. Распределение возможностей π1 считается более информативным, чем π2, если:

Вывод

Это было краткое введение в теорию возможностей. Как описано выше, он был задуман для обработки расплывчатой ​​и неточной информации в лингвистических высказываниях. В первом разделе мы предоставили базовую информацию, а затем представили распределения возможностей вместе с мерами возможности и необходимости, которые вычисляются на основе этих распределений. Затем мы ввели преобразование вероятность-возможность, которое соответствует объективным вероятностям. Лично я использовал эту структуру (возможностную структуру) в своей докторской диссертации по комбинации классификаторов, где я комбинировал распределения возможностей, используя функции Tnorm.

ссылка на мою кандидатскую диссертацию:

ссылка на соответствующую статью:

Использованная литература:

[1] Заде, Лотфи Аскер. «Нечеткие множества как основа теории возможности». Нечеткие множества и системы 1.1 (1978): 3–28.

[2] Дюбуа, Дидье и Анри Прад. Теория возможностей: подход к компьютеризированной обработке неопределенностей. Springer Science & Business Media, 2012.

[3] Дюбуа, Дидье и Анри Прад. «О нескольких представлениях неопределенной совокупности доказательств. Нечеткая информация и процессы принятия решений, 167–181, Гупта и Санчес». (1982).

[4] Дюбуа, Дидье и Анри Прад. «Теория возможностей и ее приложения: где мы находимся?». Справочник Springer по вычислительному интеллекту. Springer, Берлин, Гейдельберг, 2015. 31–60.

[5] Дюбуа, Дидье и др. «Преобразования вероятности-возможности, треугольные нечеткие множества и вероятностные неравенства». Надежные вычисления 10.4 (2004): 273–297.