Р1 + Р2 + … Р6 = 1/6 + 1/6 + … + 1/6 = 1
6 раз
В рассматриваемом нами процессе обучения, приводящем к дифференцировке значений вероятностей реакций Pi , составляющих полную группу N, условие (3.8) свидетельствует о том, что увеличение вероятностей каких -то реакций может происходить только за счет уменьшения всех остальных вероятностей (чтобы сумма была по-прежнему равна 1, см. рис. 1, случай б).
В предельном случае одна из N вероятностей может возрасти до 1, тогда все остальные вероятности станут равны 0 (рис. 1).
В случае текста предельному случаю дифференцировки соответствует вероятность одной буквы (например, «е»), равная 1. Вероятности всех остальных букв при этом равна нулю. Это значит, что текст вырождается в повторение одной буквы
е е е е е ...
Этот случай соответствует жесткой детерминации (незатухающий строго периодический процесс).
Соответствующее жесткой детерминации распределение вероятностей, при котором некая вероятность Рк равна 1, а все остальные - равны 0, в общем виде запишется как
Рк=1 (3.9)
Р1 = Р2 = . . .= Рк-1 = Рк+1=. . .= 0 (3.10)
а) |
Р1 Р2 |
Pn |
б) |
в) |
Равномерное распределение вероятностей Нr = Hmax Дифференцировка вероятностей при соблюдении условия i=N S pi = 1 i=1 Hmax > Hr > 0 Предельный случай дифференцировки вероятностей Нr = 0 |
Рис. 1 |
При подстановке этих значений в функцию энтропии :
Hr = | i = N | pi log pi | (3.11) |
S | |||
i = 1 |
получаем :
Hr=0 (3.12)
Подставляя (3.9) в (3.4), получаем :
D IS = Hmax (3.13)
п | 1 | 2 | 3 | 4 | 5 | 6 |
Диаметры витков в см. | 1 | 6 | 36 | 216 | 1296 | 7776 |
Таблица 2 дает наглядное представление о степени прогрессивности роста информационной емкости по мере перехода на вышележащие витки. Нетрудно заметить, что при n = 3 , размеры витка (36 см.) близки к размерам раскрытой книжки, при n = 5 – к размерам довольно просторной залы (с диаметром 12,96 м ) , а при п = 6 – к размерам городской площади (с диаметром 77,76 м ).
Вследствие роста информационной емкости система, поднимаясь в процессе развития на все более высокие уровни иерархической спирали и постоянно стремясь к состоянию жесткой детерминации, оказывается тем дальше от этого состояния (в смысле потенциальной возможности накопления информации), чем больше витков в этой спирали ей удается пройти.
Как уже отмечалось, системы в своем развитии, как правило, не достигают состояния жесткой детерминации. Условием их динамичного равновесия оказывается сочетание частично детерминированных , а частично вариабельных (вероятностых) внутренних связей. Соотношение степени детерминации и вариабельности внутренних связей может быть выражено количественно как отношение величины остаточной энтропии Нr к количеству накопленной и сохраняемой структурной информации D IS: