Смекни!
smekni.com

Использование нечеткой искусственной нейронной сети TSK Takagi Sugeno Kanga в задаче прогнозирования (стр. 2 из 14)

где

,

Нечеткая нейронная сеть TSK задается многослойной структурной сетью, представленной на рисунке 1. В такой сети выделяют 5 слоев.

1. Первый слой выполняет раздельную фаззификацию каждой переменной

,
, определяя для каждого
-го правила вывода значение ФП
в соответствии с функцией фаззификации. Это параметрический слой с параметрами
, которые подлежат адаптации в процессе обучения.

2. Второй слой выполняет агрегирование отдельных переменных

, определяя результирующую степень принадлежности
для вектора
условиям
-го правила. Это не параметрический слой.

3. Третий слой представляет собой генератор функции TSK, в котором рассчитывается значения

. В этом слое также происходит умножение функции
на
, сформированных на предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные параметры (веса),
для
,
, определяющие функции последствий правил.

4. Четвертый слой составляют 2 нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов

, а второй определяет сумму весов
.

5. Пятый слой состоит из одного единственного нейрона. В нем веса подлежат нормализации и вычисляется выходной сигнал

в соответствием с выражением

Это так же не параметрический слой.

Из приведенного описания следует, что нечеткая сеть TSK содержит только 2 параметрических слоя (первый и третий), параметры которых уточняются в процессе обучения. Параметры первого слоя (

) будем называть нелинейными, а параметры третьего слоя
- линейными весами.

Общее выражение для функциональной зависимости для сети TSK задается так:


Рисунок 1. Структура ННС TSK


3.3 Алгоритм обучения

Рассмотрим гибридный алгоритм обучения. В гибридном алгоритме параметры, подлежащие адаптации, делятся на 2 группы. Первая из них состоит из линейных параметров

третьего слоя, а вторая группа – из параметров нелинейной ФП первого слоя. Уточнение параметров происходит в 2 этапа.

На первом этапе при фиксации отдельных значений параметров функции принадлежности, решая систему линейных уравнений, рассчитываются линейные параметры

полинома TSK. При известных значениях ФП зависимость для выхода можно представить в виде линейной формы относительно параметра
:

, где
,

При размерности обучающей выборки

,
и замене выходного сигнала сети ожидаемым значением
получим систему из
линейных уравнений вида

где

означает уровень активации (вес) условия
-го правила при предъявлении
-го входного вектора
. Это выражение можно записать в матричном виде

Размерность матрицы

равняется
. При этом количество строк
обычно бывает значительно больше количества столбцов
. Решение этой системы уравнений можно получить как обычными методами, так и за один шаг, используя псевдо инверсию матрицы
:

,

где

- псевдо инверсная матрица.

На втором этапе после фиксации значения линейных параметров

рассчитываются фактические выходные сигналы
,
, для этого используется линейная зависимость:

После этого рассчитывается вектор ошибки

и критерий

Сигналы ошибок направляются через сеть в обратном порядке согласно методу BackPropagation вплоть до первого слоя, где могут быть рассчитаны компоненты

. После вычисления вектора градиента делается шаг спуска градиентным методом. Соответствующие формулы обучения (для самого простого метода быстрого спуска) принимают вид:

,

,

,

где

- номер итерации.

После уточнения нелинейных параметров снова запускается процесс адаптации линейных параметров функции TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл продолжается до тех пор пока не стабилизируются все параметры процесса.

В курсовой работе использовалась обобщенная колоколообразная функция принадлежности

соответствующие формулы градиентного метода целевой функции для одной пары данных

принимают вид:

,

,


Соответствующие производные

принимают следующий вид:

,

,

для

,