Доказательство. Доказательство повторяет доказательство принципа сжимающих отображений, поскольку эта теорема является частным случаем этого принципа.
Отметим, что для сходимости достаточно выполнение неравенства для какой-то одной нормы. Это условие является легко проверяемым, хотя лишь достаточным. Необходимое и достаточное условие сходимости является проверяется более сложным образом и дается следующим утверждением.
Теорема 4 (Необходимое и достаточное условие сходимости). Для сходимости итерационного метода необходимо и достаточно выполнения неравенства
ρ(G) < 1.
Доказательство. Из соображений краткости, ограничимся случаем, когда собственные векторы матрицы G образуют базис в Rn. Это всегда так, например, если G – симметрична. Очевидно, что сходимость итерационного метода эквивалентная сходимости к нулю последовательности {ε(k)}.
1. Докажем достаточность. Пусть ρ(G) < 1. Рассмотрим произвольное начальное приближение и разложим его по базису собственных векторов
.Тогда
.По условиям теоремы все собственные числа по модулю меньше единицы, поэтому c учетом |λi|k| → 0 при k → ∞ (i = 1,2,...,n) выполняются соотношения kε(k)k = kλk1ε(0)1 e1 + ... + λknε(0)n enk ≤
≤ |λ1|k|ε(0)1 | + ... + |λn|k|ε(0)n | → 0, k → ∞.
2. Докажем необходимость. Пусть итерационный метод сходитсяпри любом начальном приближении. Предположим противное, т.е. что ρ(G) ≥ 1. Это значит, что существует как минимум один собственный вектор e, такой, что Ge = λe c |λ| ≡ ρ(G) ≥ 1. Выберем начальное приближение так: ε(0) = e. Тогда имеем
ε(k) = Gkε(0) = λke.
Поскольку |λ| ≥ 1, последовательность {ε(k)} не сходится к нулю при данном начальном приближении, т.к. kε(k)k = |λ|k ≥ 1. Полученное противоречие и доказывает необходимость.
Важным свойством итерационного метода является его симметризуемость. В частности, она используется для его ускорения (т.е. модификации, позволяющей достичь той же точности за меньшее число итераций).
Определение 9. Итерационный метод является симметризуемым, если существует такая невырожденная матрица W (матрица симметризации), что W(E − G)W−1 является симметричной и положительно определенной.
Для симметризуемого метода выполняются свойства:
1. собственные числа матрицы перехода G вещественны;
2. наибольшее собственное число матрицы G меньше единицы;
3. множество собственных векторов матрицы перехода G образует базис векторного пространства.
Для симметризуемого метода всегда существует так называемый экстраполированный метод, который сходится всегда, независимо от сходимости исходного метода. Он дается формулой x(k+1) = Gγx(k) + gγ, Gγ = γG + (1 − γ)E, gγ = γg.
Оптимальное значение параметра γ определяется соотношением
,где M(G) и m(G) – максимальное и минимальное собственные числа G.
Рассмотрим далее классические итерационные методы.
3.2 Метод простой итерации
Метод простой итерации является простейшим примером итерационных методов. Он дается формулой x(k+1) = (E − A)x(k) + b, G = E − A, Q = E.
Сходится при M(A) < 2.
Для симметричной положительно определенной матрицы A) симметризуем и экстраполированный метод имеет вид
x
.3.3 Метод Якоби
Метод Якоби определяется формулой
. (4)Запишем его в матричных обозначениях (в безиндексном виде). Представим матрицу A в виде
где D – диагональная матрица, CL – верхняя треугольная, а CU – нижняя треугольная. Если A имеет вид
a11 a12 a13 ... a1n
a21 a22 a23 ... a2n
A = a31 a32 a33 ... a3n ,
... ...
an1 an2 an3 ... ann
то D, CL и CU даются формулами
0 0 0 ... ann
0 0 0 ... 0 0 a12 a13 ... a1n
a21 0 0 ... 0 0 0 a23 ... a2n
C .Используя матричные обозначения, формулу метода Якоби можно записать так: x(k+1) = Bx(k) + g,
где матрица перехода B дается формулой
а g = D−1b.
Достаточным условием сходимости метода Якоби является диагональное преобладание. Если A – положительно определенная симметричная матрица, то метод Якоби симметризуем.
3.4 Метод Гаусса-Зейделя
Запишем последовательность формул метода Якоби более подробно
, | |
, | |
= −a31x(1k) − a32x(2k) − ... − a3nx(2k) + b3, ... | |
. |
Если посмотреть внимательно на них, то видно, что при вычислении последних компонент вектора x(k+1) уже известны предыдущие компоненты x(k+1), но они не используются. Например, для последней компоненты имеется формула
.В ней в левой части присутствует n − 1 компонент
предыдущей итерации, но к этому моменту уже вычислены компоненты текущей итерации . Естественно их использовать при вычислении . Перепишем эти формулы следующим образом, заменяя в левой части уравнений компоненты x(k) на уже найденные компоненты x(k+1):a11x(1k+1) | , |
, | |
= −a31x(1k+1) − a32x(2k+1) − ... − a3nx(2k) + b3, ... | |
. |
Эти формулы лежат в основе метода Гаусса–Зейделя:
. (5)В матричном виде метод Гаусса–Зейделя записывается таким образом:
x(k+1) = Lx(k) + g,
где L = (E − L)−1U, g = (E − L)−1D−1b, L = D−1CL, U = D−1CU.
В общем случае метод несимметризуем.
Есть интересный исторический комментарий [Д2]: метод был неизвестен Зейделю, а Гаусс относился к нему достаточно плохо.
Замечание. Хотя для положительно определенных симметричных матриц метод Гаусса-Зейделя сходится почти в два раза быстрее метода Якоби, для матриц общего вида существуют примеры, когда метод Якоби сходится, а метод Гаусса-Зейделя расходится.
3.5 Метод последовательной верхней релаксации (SOR) Дается формулами