АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Квадратичный индекс нечеткости

Читайте также:
  1. B) Индивидуальный индекс цен
  2. Агрегатная форма индекса и индексы в средней арифметической и средней гармонической формах
  3. Агрегатные индексы. Система индексов
  4. Агрегатный индекс цен: особенности построения с учетом разных весов
  5. ВВП и методы его расчета (по доходам, по расходам, по добавленной стоимости). Номинальный и реальный ВВП. Дефлятор ВВП. Индексы цен.
  6. Границы и условия применения индексного метода
  7. Запрет индексирования некоторых страниц (файл robots.txt)
  8. Индекс как показатель центральной тенденции (индекс средний из индивидуальных)
  9. Индекс нищеты населения для развивающихся стран (ИНН-1)
  10. Индекс последнего отрицательного элемента
  11. Индекс развития человеческого потенциала
  12. Индекс рентабельности

,0 < d(A) < 1.

Здесь e(A, A) - квадратичное (евклидово) расстояние.

Замечания.

1. Мы ввели линейный и квадратичный индексы нечеткости, используя понятие расстояния и понятие обычного множества, ближайшего к нечеткому. Эти же индексы можно определить, используя операцию дополнения, следующим образом:

- линейный индекс,

- квадратичный индекс.

2. Отметим следующие свойства, связанные с ближайшим обычным множеством:
А
ÇВ = А Ç В,
АÈВ = А È В;

а также "xÎE:|mA(xi)-m A (xi)|=, откуда для линейного индекса нечеткости имеем:

,

т.е. в этом представлении становится очевидным, что d(A)=d().

3. Нечеткое множество с функцией принадлежности иногда называют векторным индикатором нечеткости

 

Рассмотрев общематематическое понятие «множество» и ряд понятий, с ним связанных, перейдем к его непосредственному применению в сфере безопасности.

Основой образования и результатом распада систем являются множества, представляющие собой совокупность элементов (объектов или субъектов) некоторой общности (находящихся в некоторых отношениях).

Итак, пусть имеется некоторое множество А

аi A = {ai}, i=1(1)N,

состоящее из N элементов ai(Ri,Wi), каждый из которых имеет свой ресурс Ri и свою цель Wi. Допустим, что это самая насущная цель – безопасность, тогда жизнестойкость (вероятность выживания) множества независимых элементов будет определяться

P(W) = P(W1)P(W2)…P(WN) = (1.7)

произведением вероятностей достижения данной цели для каждого элемента.

При этом вероятность – математическая числовая характеристика степени возможности появления какого-либо случайного события.

Вероятность - фундаментальное понятие теории вероятностей, науки, изучающей математические модели случайных явлений (событий).

Существуют различные определения вероятности: философское, интуитивное, статистическое, аксиоматическое и др. Однако ни одно из них не дает исчерпывающего определения реального содержания понятия вероятности, являясь лишь приближе­ниями ко все более полному его раскрытию.

Математическая вероятность - это числовая характеристика степени возможности появления какого-либо определенного явления при определенных, могущих повторяться неограниченное число раз условиях.

Численное значение вероятности в некоторых случаях получается как отношение числа случаев «благоприятствующих» данному явлению, к общему числу «равновозможных» случаев.

В более сложных случаях определение численного значения вероятности требует так называемого статистического подхода, в соответствии с которым под вероятностью события А понимается

Р(А) = m/n,

где m - число появлений события А; n – общее число опытов; если при

п → ∞ (m/и) → const, т.е. выполняется закон больших чисел (теорема Бернулли).

Поясним суть этого определения с помощью следующего примера.

Предположим, что мы хотим оценить удачность некоторой атаки. Если, сделав 100 выстрелов, в 39 случаях атака удалась, то вероятность р реализации атаки приближенно равна 0,4. Отношение числа случаев т, в которых данное событие появилось, к общему числу испытаний и, так называемая частота т/п, дает приближение к вероятности р, тем лучше, чем больше п.

В рассмотренном примере m =39, n = 100. В то же время, если из пяти первых атак две реализованы, то мы сильно рискуем ошибиться, утверждая, что 40% атак окажутся удачными.

По вероятности, вычисленной статистическим способом, т.е. приближенно, могут быть вычислены по правилам теории вероятностей новые вероятности.

Например, для ранее рассмотренного примера с атаками вероятность того, что хотя бы один из двух будет реализована равна 1 – (1 – 0,4)2 = 0,64.

Для многих практических применений статистическое определение вероятности оказывается вполне достаточным. Из определения вероятности как частоты следует, что вероятность р любого события есть некоторое постоянное число, удовлетворяющее условию 0 <р< 1.

Важное значение статистического определения заключается в том, что оно дает нам принцип физического выбора величины вероятности и требует учитывать данные опыта.

Логически непротиворечивым математическим определением вероятности является аксиоматическое определение, которое устраняет некоторую неопределенность статистического определения.

В общем случае вероятность р, может иметь более широкую трактовку и использоваться не в строгом смысле, принятом в теории вероятностей, справедливом для стохастических, повторяющихся явлений, а характеризовать единичные явления, события, появление которых нельзя предсказать на основе представительной выборки.

В условии взаимозависимости элементов жизнестойкость их совокупности будет определяться

P(W) = P(W1)P(W2/W1)P(W3/W1∩W2)…P(WN/ ) (1.8)

произведением условных вероятностей достижения цели для k-го элемента при условии совместного достижения целей для всех элементов от 1 до (k-1), т.е.

P(W)= , (1.9)

где условная вероятность – вероятность одного события при условии совершения другого события.

Отсюда, мотив образования системы, прежде всего, состоит в том, что для большинства k имеет место неравенство (1.10)

>P(Wk), (1.10)

т.е. для k-го элемента вероятность достижения его цели Wk выше в случае достижения целей других (k-1) элементов. Элементы способствуют друг другу в достижении своих целей. Очевидно жизнестойкость их совокупности (при наличии устойчивых связей это уже прообраз системы) в целом также повышается (1.8) в сравнении с вариантом (1.7) взаимной независимости элементов.

С другой стороны, обратное неравенство (1.11)

<P(Wk) (1.11)

является мотивом для распада системы. В этом случае элементы своими взаимосвязями (1.8) осложняют друг другу достижение своих целей (конфликтность целей).

Условная вероятность (1.9) свидетельствует о наличии связей между элементами. Их характер: негативный (конфликтность целей элементов) или позитивный (союзность целей элементов) мотивирует распад (1.11) или образование (1.10) систем (на рассматриваемом множестве элементов).


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.004 сек.)