где С0, С1, С2, … , Сm – неизвестные числовые параметры (коэффициенты модели).
Например, часто используется функция
в виде обобщенного полинома (линейной комбинации заданных базисных функций y = jj(x), ): . (4.8)Если выбрать систему базисных функций jj(x) = x j,
, то функция будет представлять собой обычный алгебраический полином: .Аналогично, функция (4.8) может описывать тригонометрические, экспоненциальные полиномы и т.д.
При использовании аппроксимирующей функции в виде (4.8) задача нахождения коэффициентов Cj,
называется линейной задачей дискретной среднеквадратической аппроксимации или линейной задачей МНК.Наилучшими значениями параметров С0, С1, С2, … , Сm считают те, для которых сумма квадратов уклонений функции
в точках xi от экспериментальных значений yi ( ) является минимальной, т.е. функция (4.9)достигает минимума. Таким образом, в методе наименьших квадратов минимизируется сумма квадратов разностей между значениями функции
и измеренными значениями yi в точках xi: , (4.10)где ei – разность в i-ой точке значений функции
и yi. Величина e называется среднеквадратической ошибкой. Выбор функции ошибки в виде (4.10) удобен с практической точки зрения, так как делает функцию , построенную по экспериментальным данным, нечувствительной к случайным ошибкам измерений.Получим уравнения для вычисления коэффициентов Cj,
по методу наименьших квадратов. Минимизируемая ошибка является функцией неизвестных коэффициентов Cj :e = f (С0, С1, … , Сm).
Как известно, минимум функции нескольких переменных достигается в точке, где равны нулю все частные производные этой функции:
. (4.11)Дифференцируя функцию ошибки (4.9) по переменным С0, С1, … , Сm, согласно (4.11), получим систему уравнений следующего вида
(4.12)Заметим, что в общем случае система (4.12) является нелинейной.
Далее будем полагать, что функция
является линейной относительно параметров С0, С1, … , Сm, т.е. имеет вид (4.8).Из (4.8) следует, что
. С учетом этого система (4.12) примет следующий вид (общий множитель 2 в уравнениях опустим): (4.13)Полученная система уравнений является системой (m+1) линейных алгебраических уравнений с (m+1) неизвестным С0, С1, … , Сm и называется нормальной системой. Ее решение определяет искомые коэффициенты функции y=
.При решении систем линейных уравнений на ЭВМ обычно используют стандартные подпрограммы. В этом случае систему уравнений необходимо представить в стандартной матричной форме:
А*С=В, (4.14)
где А – квадратная матрица размером (m+1)´(m+1), составленная из коэффициентов системы линейных уравнений; С – вектор-столбец, содержащий (m+1) неизвестных переменных С0, С1, … , Сm; В – вектор-столбец свободных членов системы линейных уравнений.
Представим (4.13) в матричном виде (4.14). Для этого сгруппируем слагаемые в уравнениях (4.13) таким образом, чтобы каждое уравнение с номером j (
) приняло следующий вид: В результате получим систему уравнений, представляющую собой развернутую запись системы (4.14): (4.15)Здесь
- элементы матрицы А; первый индекс (j) коэффициента ajk равен номеру уравнения, а второй (k) – номеру соответствующей неизвестной переменной; – элементы вектора–столбца свободных членов B; .Система линейных уравнений (4.15) при невысоком порядке может быть решена вручную по правилу Крамера или с помощью метода подстановки. Решение же систем линейных уравнений на ЭВМ чаще всего проводится с использованием метода исключения неизвестных (методы Гаусса или LU-разложения).
Изучим подробнее случай, когда аппроксимирующая зависимость (4.7) имеет два неизвестных коэффициента: y = j(x, С0, С1). Используя выражения (4.12) и опуская несложные выкладки, получим систему двух уравнений с двумя неизвестными С0, С1:
(4.16)Рассмотрим, в частности аппроксимацию экспериментальных данных с помощью линейной функции (см. рис. 4.3)
y = j(x, С0, С1) = С0+ С1 x. (4.17)
В этом случае, очевидно,
, и система (4.16) примет вид: - (4.18)Систему (4.18) можно записать в матричном виде (4.14), где
Теперь коэффициенты С0, С1 легко могут быть найдены из решения (4.18) по методу Крамера.
Среднеквадратичная аппроксимация с помощью линейной функции (прямой линии) j(x) = С0+ С1 x целесообразна, очевидно, тогда, когда экспериментальные данные (xi, yi) приближенно описывают линейную зависимость y от x (об этом можно судить непосредственно по расположению точек (xi, yi) на координатной плоскости).
Однако подобная аппроксимация может быть использована и для более сложных зависимостей, если применить замену переменных. В этом случае выбирают новые переменные
X=y1(x, y); Y=y2(x, y) (4.19)
так, чтобы преобразованные экспериментальные данные
Xi=y1(xi, yi); Yi=y2(xi, yi) (4.20)
в новой системе координат X, Y давали точки (Хi, Yi), менее отклоняющиеся от линейной зависимости. Для аппроксимирующей прямой в новой системе координат
коэффициенты
и можно определить из уравнений (4.18), где вместо (xi, yi) подставляют соответствующие значения (Хi, Yi). Нахождение подходящих зависимостей (4.20) называют выравниванием экспериментальных данных.После нахождения функции
находят функцию y = j(x, С0, С1), выполнив обратную замену переменных. Функция y = j(x) определена неявно уравнением .Явное выражение для j(x) получают их этого уравнения, решая его относительно y (заметим, что это возможно не всегда).