
где

,

Нечеткая нейронная сеть TSK задается многослойной структурной сетью, представленной на рисунке 1. В такой сети выделяют 5 слоев.
1. Первый слой выполняет раздельную фаззификацию каждой переменной

,

, определяя для каждого

-го правила вывода значение ФП

в соответствии с функцией фаззификации. Это параметрический слой с параметрами

, которые подлежат адаптации в процессе обучения.
2. Второй слой выполняет агрегирование отдельных переменных

, определяя результирующую степень принадлежности

для вектора

условиям

-го правила. Это не параметрический слой.
3. Третий слой представляет собой генератор функции TSK, в котором рассчитывается значения

. В этом слое также происходит умножение функции

на

, сформированных на предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные параметры (веса),

для

,

, определяющие функции последствий правил.
4. Четвертый слой составляют 2 нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов

, а второй определяет сумму весов

.
5. Пятый слой состоит из одного единственного нейрона. В нем веса подлежат нормализации и вычисляется выходной сигнал

в соответствием с выражением

Это так же не параметрический слой.
Из приведенного описания следует, что нечеткая сеть TSK содержит только 2 параметрических слоя (первый и третий), параметры которых уточняются в процессе обучения. Параметры первого слоя (

) будем называть нелинейными, а параметры третьего слоя

- линейными весами.
Общее выражение для функциональной зависимости для сети TSK задается так:

Рисунок 1. Структура ННС TSK
3.3 Алгоритм обучения
Рассмотрим гибридный алгоритм обучения. В гибридном алгоритме параметры, подлежащие адаптации, делятся на 2 группы. Первая из них состоит из линейных параметров
третьего слоя, а вторая группа – из параметров нелинейной ФП первого слоя. Уточнение параметров происходит в 2 этапа.На первом этапе при фиксации отдельных значений параметров функции принадлежности, решая систему линейных уравнений, рассчитываются линейные параметры
полинома TSK. При известных значениях ФП зависимость для выхода можно представить в виде линейной формы относительно параметра
:
, где
, 
При размерности обучающей выборки
,
и замене выходного сигнала сети ожидаемым значением
получим систему из
линейных уравнений вида 
где
означает уровень активации (вес) условия
-го правила при предъявлении
-го входного вектора
. Это выражение можно записать в матричном виде 
Размерность матрицы
равняется
. При этом количество строк
обычно бывает значительно больше количества столбцов
. Решение этой системы уравнений можно получить как обычными методами, так и за один шаг, используя псевдо инверсию матрицы
:
,где
- псевдо инверсная матрица.На втором этапе после фиксации значения линейных параметров
рассчитываются фактические выходные сигналы
,
, для этого используется линейная зависимость: 
После этого рассчитывается вектор ошибки
и критерий 
Сигналы ошибок направляются через сеть в обратном порядке согласно методу BackPropagation вплоть до первого слоя, где могут быть рассчитаны компоненты
. После вычисления вектора градиента делается шаг спуска градиентным методом. Соответствующие формулы обучения (для самого простого метода быстрого спуска) принимают вид:
,
,
,где
- номер итерации.После уточнения нелинейных параметров снова запускается процесс адаптации линейных параметров функции TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл продолжается до тех пор пока не стабилизируются все параметры процесса.
В курсовой работе использовалась обобщенная колоколообразная функция принадлежности

соответствующие формулы градиентного метода целевой функции для одной пары данных
принимают вид:
,
, 
Соответствующие производные

принимают следующий вид:
,
, 
для
,