5.Процедура закінчується при знаходженні максимуму КФЕ в робочій області його визначення:
Таким чином, базовий алгоритм навчання :
На рис.2.4.1 наведено структурну схему базового алгоритму навчання. Тут показано такі вхідні дані: {Y[J,I,K]} - масив навчальних вибірок, J=1..NM - змінна кількості випробувань, де NM - мінімальний обсяг репрезентативної навчальної вибірки, I=1..N - змінна кількості ознак розпізнавання, K=1..M - змінна кількості класів розпізнавання; {NDK[I]}, {VDK[I]} - масиви нижніх і верхніх контрольних допусків на ознаки відповідно. Результатом реалізації алгоритму є: {DOPT[K]} - цілий масив оптимальних значень радіусів контейнерів класів розпізнавання у кодовій відстані Хеммінга; {EV[K]} - масив еталонних двійкових векторів класів розпізнавання; {EM[K]} - дійсний масив максимальних значень інформаційного КФЕ процесу навчання; {D1[K]}, {A[K]}, {B[K]}, {D2[K]} - дійсні масиви оцінок екстремальних значень точнісних характеристик процесу навчання для відповідних класів розпізнавання: перша вірогідність, помилки першого та другого роду і друга вірогідність відповідно.
Змінна D є робочою змінною кроків навчання, на яких послідовно збільшується значення радіуса контейнера. У структурній схемі алгоритму (рис. 2.4.1) блок 3 формує масив навчальних двійкових вибірок {X[J,I,K]} шляхом порівняння значень елементів масиву {Y[J,I,K]} з відповідними контрольними допусками за правилом (1) і формує масив еталонних двійкових векторів {EV[K]} шляхом статистичного усереднення стовпців масиву {X[J,I,K]} за правилом (2) при відповідному рівні селекції, який за умовчанням дорівнює
|
Рисунок 2.4.1 - Структурна схема базового алгоритму навчання
ня інформаційного КФЕ і оцінки точнісних характеристик процесу навчання. При невиконанні умови блоку порівняння 12 блок 13 оцінює належність поточного значення критерію
Алгоритми екзамену за МФСВ можуть мати різну структуру залежно від розподілу реалізацій образу, що розпізнаються. Обов’язковою умовою їх реалізації є забезпечення однакових структурованості і параметрів формування як для навчальної, так і для екзаменаційної матриць.
Для нечіткого розбиття алгоритм екзамену за МФСВ ґрунтується на аналізі значень функції належності, яка має вигляд (2.5.1) і обчислюється для кожної реалізації, що розпізнається. Розглянемо кроки реалізації алгоритму екзамену при нечіткому розбитті:
1. Формування лічильника
2. Формування лічильника числа реалізацій, що розпізнаються:
3. Обчислення кодової відстані
4. Обчислення функції належності за виразом:
5. Порівняння: якщо j n , то виконується крок 2, інакще – крок 6.
6. Порівняння: якщо m M, то виконується крок 1, інакще – крок 7.
7. Визначення класу
Для перетворення зображення в полярних координатах [23] сформуємо матрицю яскравості
1. За допомогою матриці яскравості знаходимо прямокутник, в який вписано рукописну літеру, наприклад, А (рис.3.1).
Рисунок 3.1 – Пошук геометричного центру літери
2. Із розмірів прямокутника знаходимо значення координат на рецепторному полі, що відповідають центру кола, в яке вписано літеру (центр кола знаходиться на перетині діагоналей прямокутника; довжину діагоналі знаходимо, використовуючи теорему Піфагора).
3. Формуємо вектор
де
На рис.3.2 наведено графік спектру зміни яскравостідля однієї з реалізацій літери А в полярних координатах.
Рисунок 3.2 – Графік спектру зміни яскравості літери А в полярних координатах
Для перетворення зображення в декартових координатах, використано ідею дискретного перетворення Гільберта (ДПГ) [24].
Якщо зображення відобразити у вигляді матриці дискретних відрізків яскравості, тоді
ДПГ такого сигналу характеризується виразом
При перетворенні зображення в декартових координатах, спочатку формуємо матрицю яскравості
4. елементи
5. елементи
6. якщо значення суми різниць яскравості приймає нульове значення, то відповідні елементи