Общее свойство (условной) независимости переменных — узлов в байесовой сети получило название d-разделения (d-separation).
Две переменные A и B в байесовой сети являются d-разделенными, если на каждом пути, соединяющем эти две вершины на графе, найдется промежуточная переменная V, такая что:
1. соединение с V последовательное или дивергентное и значение V известно, либо
2. соединение конвергентное и нет свидетельств ни о значении V, ни о каждом из ее потомков.
Так, в сети задачи Шерлока Холмса (рис. 1) переменные «Полив?» и «Трава у дома Ватсона?» являются d-разделенными. Граф содержит на пути между этими переменными конвергентное соединение с переменной «Трава у дома Холмса?».
(a)
(b)
(c)
Рисунок 2 Три типа отношений между переменными
(a) Последовательное соединение. Влияние информации может распространяться от A к C и обратно, пока значение B не конкретизировано. (b) Дивергентное соединение. Влияние может распространяться между потомками узла A, пока его значение не конкретизировано. (c) Конвергентное соединение. Если об A ничего не известно, кроме того, что может быть выведено из информации о его предках B,C,... ,E, то эти переменные предки являются разделенными. При уточнении A открывается канал взаимного влияния между его предками.
Свойство d-разделимости соответствует особенностям логики эксперта-человека, поэтому крайне желательно, чтобы в рассуждениях машин относительно двух d-разделенных переменных новая информация об одной из них не изменяла степень детерминированности второй переменной. Формально, для переменных A и C, независимых при условии B, имеет место соотношение P(A | B) = P(A | B, C).
Отметим, что интуитивное восприятие условной зависимости и независимости иногда, даже в простых случаях, оказывается затрудненным, так как сложно из всех исходов событий мысленно выделить только те события, в которых значение обусловливающей переменной определено, и далее в рассуждения оперировать только ими.
Вот простой пример, поясняющий эту трудность: в некотором сообществе мужчины среднего возраста и молодые женщины оказались материально более обеспеченными, чем остальные люди. Тогда при условии фиксированного повышенного уровня обеспеченности пол и возраст человека оказываются условно зависимыми друг от друга!
Еще один классический пример, связанный с особенностями условных вероятностей. Рассмотрим некоторый колледж, охотно принимающий на обучение сообразительных и спортивных молодых людей (и тех, кто обладает обоими замечательными качествами!). Разумно считать, что среди всех молодых людей студенческого возраста спортивные и интеллектуальные показатели независимы. Теперь если вернуться к множеству зачисленных в колледж, то легко видеть, что высокая сообразительность эффективно понижает вероятность спортивности и наоборот, так как каждого из этих свойств по-отдельности достаточно для приема в колледж. Таким образом, спортивность и умственные показатели оказались зависимыми при условии обучения в колледже.
На практике нам необходимы распределения интересующих нас переменных, взятые по отдельности. Они могут быть получены из соотношения для полной вероятности при помощи маргинализации — суммирования по реализациям всех переменных, кроме, выбранных.
Приведем пример точных вычислений в простой байесовой сети, моделирующей задачу Шерлока Холмса. Обозначения и смысл переменных в сети : R —был ли дождь, S — включена ли поливальная установка, C — влажная ли трава у дома Холмса, и W — влажная ли трава у дома Ватсона.
Все четыре переменные принимают булевы значения 0 — ложь, (f) или 1 — истина (t). Совместная вероятность P(R, S, C, W), таким образом, дается совокупной таблицей из 16 чисел. Таблица вероятностей нормирована, так что
Зная совместное распределение, легко найти любые интересующие нас условные и частичные распределения. Например, вероятность того, что ночью не было дождя при условии, что трава у дома Ватсона — влажная, дается простым вычислением:
Из теоремы об умножении вероятностей полная вероятность представляется цепочкой условных вероятностей:
P(R, S, C, W) = P(R) * P(S | R) * P(C |R,S)*P(W | R, S, C).
В описанной ранее байесовой сети ориентированные ребра графа отражают суть вероятностей, которые реально имеют место в задаче. Поэтому формула для полной вероятности существенно упрощается:
P(R, S, C, W) = P(R) *P(S) * P(C |R,S)*P(W | R).
Порядок следования переменных в соотношении для полной вероятности, вообще говоря, может быть любым. Однако на практике целесообразно выбирать такой порядок, при котором условные вероятности максимально редуцируются. Это происходит, если начинать с переменных-«причин», постепенно переходя к «следствиям». При этом полезно представлять себе некоторую «историю», согласно которой причины влияют на следствия.
Рассматриваем небольшую яблочную плантацию «яблочного Джека». Однажды Джек обнаружил, что его прекрасное яблочное дерево лишилось листвы. Теперь он хочет выяснить, почему это случилось. Он знает, что листва часто опадает, если:
дерево засыхает в результате недостатка влаги; или дерево болеет.
Данная ситуация может быть смоделирована байесовской сетью доверия, содержащей 3 вершины: «Болеет», «Засохло» и «Облетело».
Рис.1. Пример байесовской сети доверия с тремя событиями.
В данном простейшем случае рассмотрим ситуацию, при которой каждая вершина может принимать всего лишь два возможных состояний и, как следствие находится в одном из них, а именно:
Вершина (событие) БСД | Состояние 1 | Состояние 2 |
“Болеет” | «болеет» | «нет» |
“Засохло” | «засохло» | «нет» |
“Облетело” | «да» | «нет» |
Вершина “Болеет” говорит о том, что дерево заболело, будучи в состоянии «болеет», в противном случае она находится в состоянии «нет». Аналогично для других двух вершин. Рассматриваемая байесовская сеть доверия, моделирует тот факт, что имеется причинно-следственная зависимость от события “Болеет” к событию “Облетело” и от события “Засохло” к событию “Облетело”. Это отображено стрелками на байесовской сети доверия.
Когда есть причинно-следственная зависимость от вершины А к другой вершине B, то мы ожидаем, что когда A находится в некотором определённом состоянии, это оказывает влияние на состояние B. Следует быть внимательным, когда моделируется зависимость в байесовских сетях доверия. Иногда совсем не очевидно, какое направление должна иметь стрелка.
Например, в рассматриваемом примере, мы говорим, что имеется зависимость от “Болеет” к “Облетело”, так как когда дерево болеет, это может вызывать опадание его листвы. Опадание листвы является следствием болезни, а не болезнь – следствием опадания листвы.
На приведенном выше рисунке дано графическое представление байесовской сети доверия. Однако, это только качественное представление байесовской сети доверия. Перед тем, как назвать это полностью байесовской сетью доверия необходимо определить количественное представление, то есть множество таблиц условных вероятностей:
Априорная вероятность p(“Болеет”) | Априорная вероятность p(“Засохло”) | ||
Болеет = «болеет» | Болеет = «нет» | Засохло = «засохло» | Засохло = «нет» |
0,1 | 0,9 | 0,1 | 0,9 |
Таблица условных вероятностей p(“Облетело” | ”Болеет”, ”Засохло”) | ||||
Засохло = «засохло» | Засохло = «нет» | |||
Болеет = «болеет» | Болеет = «нет» | Болеет = «болеет» | Болеет = «нет» | |
Облетело = «да» | 0,95 | 0,85 | 0,90 | 0,02 |
Облетело = «нет» | 0,05 | 0,15 | 0,10 | 0,98 |
Приведенные таблицы иллюстрируют ТУВ для трёх вершин байесовской сети доверия. Заметим, что все три таблицы показывают вероятность пребывания некоторой вершины в определённом состоянии, обусловленным состоянием её родительских вершин. Но так как вершины Болеет и Засохло не имеют родительских вершин, то их вероятности являются маргинальными, т.е. не зависят (не обусловлены) ни от чего.
На данном примере мы рассмотрели, что и как описывается очень простой байесовской сетью доверия. Современные программные средства (такие как MSBN, Hugin и др.) обеспечивают инструментарий для построения таких сетей, а также возможность использования байесовских сетей доверия для введения новых свидетельств и получения решения (вывода) за счёт пересчёта новых вероятностей во всех вершинах, соответствующих вновь введенным свидетельствам.