Смекни!
smekni.com

Комплекс моделей енергоспоживання регіонами України (стр. 8 из 15)

За допомогою дискримінантного аналізу виробляємо класифікацію залишилися регіонів на дві групи з передкризової і кризовою ситуацією.

Перш ніж приступити до розгляду алгоритму аналізу дискримінанта, звернемося до його геометричної інтерпретації. На рис. 2.1. зображені об'єкти, що належать двом різній множини М1 і М2.


Рис. 2.1. Геометрична інтерпретація дискримінантних функцій та дискримінантних змінних

Адаптований алгоритм розрахунку коефіцієнтів дискримінантної функції представленої у третьому розділі дозволить поетапно стежити за виконанням розрахунків.

Кожен об'єкт характеризується в даному випадку двома змінними і . Якщо розглядати проекції об'єктів (точок) на кожну вісь, то ці множини перетинаються, тобто по кожній змінній окремо деякі об'єкти обох великих кількостей мають схожі характеристики. Щоб якнайкраще розділити дві дані множини, треба побудувати відповідну лінійну комбінацію змінних і . Для двовимірного простору це завдання зводиться до визначення нової системи координат. Причому нові осі L і З мають бути розташовані так, щоб проекції об'єктів, що належать різним множинам на вісь L, були максимально розділені. Вісь С перпендикулярна осі L і розділяє дві "хмари" точок якнайкраще, Тобто щоб множини виявилися по різні сторони від цієї прямої. При цьому вірогідність помилки класифікації має бути мінімальною. Сформульовані умови мають бути враховані при визначенні коефіцієнтів і наступною:

F(x) =

+

Функція F(x) називається канонічною функцією дискримінанта, а величини і - змінними дискримінантів.

Позначимо - середнє значення j -ої ознаки у об'єктів i -ої великої кількості (класу). Тоді для множини М1 середнє значення функції буде рівне:

(x) =
+
;

Для множини М2 середнє значення функції рівне:

(x) =
+
;

Геометрична інтерпретація цих функцій - дві паралельні прямі, що проходять через центри класів як на рис.2.2.

Рис. 2.2. Центри великих кількостей, що розділяються, і константа дискримінації

Функція дискримінанта може бути як лінійною, так і нелінійною. Вибір її виду залежить від геометричного розташування класів, що розділяються, в просторі змінних дискримінантів. Для спрощення викладень надалі розглядається лінійна функція дискримінанта. Коефіцієнти функції дискримінанта визначаються так, щоб значення функцій якомога більше розрізнялися між собою, тобто щоб для двох множин (класів) було максимальним вираження:

Основними проблемами дискримінантного анализу являються, по-перше, знахедження дискримінантних змінних, по-друге, вибір виду дискримінантной функції. Існують різноманітні критерії послідовного відбіру змінних, що дозволяють отримати найкращі відмінності у множин. Також можна скористатися алгоритмом поступового дискримінантного анализу, котрий в літературі описаний дуже добре.

2.3 Метод аналізу із застосуванням карт Кохонена

Аналізуючи найбільш відомі на даний час розробки нейромереж, слід зазначити, що самим поширеним варіантом архітектури є багатошарові мережі зазначені на рис. 2.3. Нейрони в даному випадку об'єднуються у прошарки з єдиним вектором сигналів входів. Зовнішній вхідний вектор подається на вхідний прошарок нейронної мережі (рецептори). Виходами нейронної мережі є вихідні сигнали останнього прошарку (ефектори). Окрім вхідного та вихідного прошарків, нейромережа має один або декілька прихованих прошарків нейронів, які не мають контактів із зовнішнім середовищем.

Таким чином, звичайні нейронні мережі виявляють закономірності між вхідними даними і прогнозованою величиною. Якщо такі закономірності є, то нейромережа їх виділить, і прогноз буде успішним.


Рис. 2.3. Багатошаровий тип з'єднання нейронів

Мережі прямого поширення відносять до статичних, так як на задані входи нейронів надходить не залежний від попереднього стану мережі вектор вхідних сигналів. Рекурентні мережі вважаються динамічними, тому що за рахунок зворотних зв'язків (петель) входи нейронів модифікуються в часі, що приводить до змін станів мережі.

Оригінальність нейромереж, як аналога біологічного мозку, полягає у здібності до навчання за прикладами, що складають навчальну множину. Процес навчання нейромереж розглядається як налаштування архітектури та вагових коефіцієнтів синаптичних зв'язків відповідно до даних навчальної множини так, щоб ефективно вирішити поставлену задачу. Виділяють варіанти контрольованого та неконтрольованого навчання.

Величезна більшість рішень отримана від нейромереж з контрольованим навчанням, де біжучий вихід постійно порівнюється з бажаним виходом. Ваги на початку встановлюються випадково, але під час наступних ітерації коректуються для досягнення близької відповідності між бажаним та біжучим виходом. Створені методи навчання націлені на мінімізації біжучих похибок всіх елементів обробки, яке створюється за якийсь час неперервною зміною синаптичних ваг до досягнення прийнятної точності мережі.

Перед використанням, нейромережа з контрольованим навчанням повинна бути навченою. Фаза навчання може тривати багато часу, зокрема, у прототипах систем, з невідповідною процесорною потужністю навчання може займати декілька годин. Навчання вважається закінченим при досягненні нейромережею визначеного користувачем рівня ефективності. Цей рівень означає, що мережа досягла бажаної статистичної точності, оскільки вона видає бажані виходи для заданої послідовності входів. Після навчання ваги з'єднань фіксуються для подальшого застосування. Деякі типи мереж дозволяють під час використання неперервне навчання, з набагато повільнішою оцінкою навчання, що допомагає мережі адаптуватись до повільно змінюючихся умов.

Навчальні множини повинні бути досить великими, щоб містити всю необхідну інформацію для виявлення важливих особливостей і зв'язків. Але і навчальні приклади повинні містити широке різноманіття даних. Якщо мережа навчається лише для одного прикладу, ваги старанно встановлені для цього прикладу, радикально змінюються у навчанні для наступного прикладу. Попередні приклади при навчанні наступних просто забуваються. В результаті система повинна навчатись всьому разом, знаходячи найкращі вагові коефіцієнти для загальної множини прикладів. Наприклад, у навчанні системи розпізнавання піксельних образів для десяти цифр, які представлені двадцятьма прикладами кожної цифри, всі приклади цифри "сім" не доцільно представляти послідовно. Краще надати мережі спочатку один тип представлення всіх цифр, потім другий тип і так далі.

Головною компонентою для успішної роботи мережі є представлення і кодування вхідних і вихідних даних. Штучні мережі працюють лише з числовими вхідними даними, отже, необроблені дані, що надходять із зовнішнього середовища повинні перетворюватись. Додатково необхідне масштабування, тобто нормалізація даних відповідно до діапазону всіх значень. Попередня обробка зовнішніх даних, отриманих за допомогою сенсорів, у машинний формат спільна для стандартних комп'ютерів і є легко доступною.

Якщо після контрольованого навчання нейромережа ефективно опрацьовує дані навчальної множини, важливим стає її ефективність при роботі з даними, які не використовувались для навчання. У випадку отримання незадовільних результатів для тестової множини, навчання продовжується. Тестування використовується для забезпечення запам'ятовування не лише даних заданої навчальної множини, але і створення загальних образів, що можуть міститись в даних.

Неконтрольоване навчання може бути великим надбанням в майбутньому. Воно проголошує, що комп'ютери можуть самонавчатись у справжньому роботизованому сенсі. На даний час, неконтрольоване навчання використовується мережах відомих, як самоорганізовані карти (self organizing maps), що знаходяться в досить обмеженому користуванні, але доводячи перспективність самоконтрольованого навчання. Мережі не використовують зовнішніх впливів для коректування своїх ваг і внутрішньо контролюють свою ефективність, шукаючи регулярність або тенденції у вхідних сигналах та роблять адаптацію згідно навчальної функції. Навіть без повідомлення правильності чи неправильності дій, мережа повинна мати інформацію відносно власної організації, яка закладена у топологію мережі та навчальні правила.

Алгоритм неконтрольованого навчання скерований на знаходження близькості між групами нейронів, які працюють разом. Якщо зовнішній сигнал активує будь-який вузол в групі нейронів, дія всієї групи в цілому збільшується. Аналогічно, якщо зовнішній сигнал в групі зменшується, це приводить до гальмуючого ефекту на всю групу.

Конкуренція між нейронами формує основу для навчання. Навчання конкуруючих нейронів підсилює відгуки певних груп на певні сигнали. Це пов'язує групи між собою та відгуком. При конкуренції змінюються ваги лише нейрона-переможця.