В отдельных случаях системного анализа приходится решать вопрос о связях нескольких (более 2) случайных величин или вопрос о множественной корреляции.
Пусть X, Y и Z - случайные величины, по наблюдениям над которыми мы установили их средние Mx, My,Mz и среднеквадратичные отклонения Sx, Sy, Sz.
Тогда можно найти парные коэффициенты корреляции Rxy, Rxz, Ryz по приведенной выше формуле. Но этого явно недостаточно - ведь мы на каждом из трех этапов попросту забывали о наличии третьей случайной величины! Поэтому в случаях множественного корреляционного анализа иногда требуется отыскивать т. н. частные коэффициенты корреляции — например, оценка виляния Z на связь между X и Y производится с помощью коэффициента
Rxy.z = {2 - 13}
И, наконец, можно поставить вопрос — а какова связь между данной СВ и совокупностью остальных? Ответ на такие вопросы дают коэффициенты множественной корреляции Rx.yz, Ry.zx, Rz.xy, формулы для вычисления которых построены по тем же принципам — учету связи одной из величин со всеми остальными в совокупности.
На сложности вычислений всех описанных показателей корреляционных связей можно не обращать особого внимания - программы для их расчета достаточно просты и имеются в готовом виде во многих ППП современных компьютеров.
Достаточно понять главное — если при формальном описании элемента сложной системы, совокупности таких элементов в виде подсистемы или, наконец, системы в целом, мы рассматриваем связи между отдельными ее частями, — то степень тесноты этой связи в виде влияния одной СВ на другую можно и нужно оценивать на уровне корреляции.
В заключение заметим еще одно — во всех случаях системного анализа на корреляционном уровне обе случайные величины при парной корреляции или все при множественной считаются "равноправными" — т. е. речь идет о взаимном влиянии СВ друг на друга.
Так бывает далеко не всегда - очень часто вопрос о связях Y и X ставится в иной плоскости — одна из величин является зависимой (функцией) от другой (аргумента).
В тех случаях, когда из природы процессов в системе или из данных наблюдений над ней следует вывод о нормальном законе распределения двух СВ - Y и X, из которых одна является независимой, т. е. Y является функцией X, то возникает соблазн определить такую зависимость “формульно”, аналитически.
В случае успеха нам будет намного проще вести системный анализ — особенно для элементов системы типа "вход-выход”. Конечно, наиболее заманчивой является перспектива линейной зависимости типа Y = a + b·X .
Подобная задача носит название задачи регрессионного анализа и предполагает следующий способ решения.
Выдвигается следующая гипотеза:
H0: случайная величина Y при фиксированном значении величины X распределена нормально с математическим ожиданием
My = a + b·X и дисперсией Dy, не зависящей от X. {2 - 14}
При наличии результатов наблюдений над парами Xi и Yi предварительно вычисляются средние значения My и Mx, а затем производится оценка коэффициента b в виде
b = = Rxy {2 - 15}
что следует из определения коэффициента корреляции {2 - 11}.
После этого вычисляется оценка для a в виде
a = My - b MX {2 - 16}
и производится проверка значимости полученных результатов. Таким образом, регрессионный анализ является мощным, хотя и далеко не всегда допустимым расширением корреляционного анализа, решая всё ту же задачу оценки связей в сложной системе.
Что такое - статистическое решение? В качестве простейшего примера рассмотрим ситуацию, в которой вам предлагают сыграть в такую игру:
· вам заплатят 2 доллара, если подброшенная монета упадет вверх гербом;
· вы заплатите 1 доллар, если она упадет гербом вниз.
Скорее всего, вы согласитесь сыграть, хотя понимаете степень риска. Вы сознаете, "знаете" о равновероятности появления герба и "вычисляете" свой выигрыш 0.5 · 1- 0.5 · 1= + $0.5.
Усложним игру — вы видите, что монета несколько изогнута и возможно будет падать чаще одной из сторон. Теперь решение играть или не играть по-прежнему зависит от вероятности выигрыша, которая не может быть заранее (по латыни — apriori) принята равной 0.5.
Человек, знакомый со статистикой, попытается оценить эту вероятность с помощью опытов, если конечно они возможны и стоят не очень дорого. Немедленно возникает вопрос - сколько таких бросаний вам будет достаточно?
Пусть с вас причитается 5 центов за одно экспериментальное бросание, а ставки в игре составляют $2000 против $1000. Скорее всего, вы согласитесь сыграть, заплатив сравнительно небольшую сумму за 100..200 экспериментальных бросков. Вы, наверное, будете вести подсчет удачных падений и, если их число составит 20 из 100, прекратите эксперимент и сыграете на ставку $2000 против $1000, так как ожидаемый выигрыш оценивается в 0.8·2000 + 0.2·1000 -100·0.05=$1795.
В приведенных примерах главным для принятия решения была вероятность благоприятного исхода падения монетки. В первом случае — априорная вероятность, а во втором — апостериорная. Такую информацию принято называть данными о состоянии природы.
Приведенные примеры имеют самое непосредственное отношение к существу нашего предмета. В самом деле — при системном управлении приходится принимать решения в условиях, когда последствия таких решений заранее достоверно неизвестны. При этом вопрос: играть или не играть — не стоит! "Играть" надо, надо управлять системой. Вы спросите - а как же запрет на эксперименты? Ответ можно дать такой — само поведение системы в обычном ее состоянии может рассматриваться как эксперимент, из которого при правильной организации сбора и обработки информации о поведении системы можно ожидать получения данных для выяснения особенности системного подхода к решению задач управления.
В большинстве случаев практического применения системного анализа для исследования свойств и последующего оптимального управления системой можно выделить следующие основные этапы: · Содержательная постановка задачи