Смекни!
smekni.com

Исследование магнитного поля рассеяния при вихретоковом контроле (стр. 4 из 5)

В процессе обучения сеть в определенном порядке просматривает обучающую выборку. Порядок просмотра может быть последовательным, случайным и т. д. Некоторые сети, обучающиеся без учителя, например, сети Хопфилда просматривают выборку только один раз. Другие, например сети, обучающиеся с учителем, просматривают выборку множество раз, при этом один полный проход по выборке называется эпохой обучения. При обучении с учителем набор исходных данных делят на две части — обучающую выборку и тестовые данные; принцип разделения может быть произвольным. Обучающие данные подаются сети для обучения, а проверочные используются для расчета ошибки сети (проверочные данные никогда для обучения сети не применяются). Таким образом, если на проверочных данных ошибка уменьшается, то сеть действительно выполняет обобщение. Если ошибка на обучающих данных продолжает уменьшаться, а ошибка на тестовых данных увеличивается, значит, сеть перестала выполнять обобщение и просто «запоминает» обучающие данные. Это явление называется переобучением сети или оверфиттингом. В таких случаях обучение обычно прекращают.

Даже в случае успешного, на первый взгляд, обучения сеть не всегда обучается именно тому, чего от неё хотел создатель. Таким образом, сеть «понимает» не то, что от неё требовалось, а то, что проще всего обобщить.

В ходе анализа результатов сетей мной было отдано предпочтение структуре трехслойного персептрона, так как он обладает наименьшей погрешностью обучения, его архитектура достаточно проста, а так же вероятность оверфиттинга сведена к минимуму. Далее будут приведены выбранные архитектуры сетей и их основные параметры.

5.3 Архитектуры выбранных сетей и их основные параметры

Искусственная нейронная сеть для определения глубины дефекта

Архитектура сети МП 6:6-9-1:1

Рисунок 17. Архитектура сети

Производительность обучения 0,193377
Контрольная производительность 0,190212
Ошибка обучения 0,054221
Контрольная ошибка 0,055778
Входы 6
Скрытые(1) 9
Скрытые(2) 0
Среднее данных 0,000800
Ст. отклик данных 0,000283
Среднее ошибки -0,000001
Ст. отклик ошибки 0,000055
Среднее абсолютной ошибки 0,000043
Отношение ст. отклик 0,193778
Корреляция 0,981070

Прогнозирование

После обучения сети был проведен ряд тестовых испытаний, в ходе которых были получены следующие прогнозы:

прогноз истинное значение
1 0,000786 0,000700
2 0,000752 0,000700
3 0,000806 0,000900
4 0,000845 0,000900
5 0,000749 0,000700

Искусственная нейронная сеть для определения раскрытия дефекта

Архитектура сети МП 8:8-7-1:1

Рисунок 18. Архитектура сети

Среднее данных 0,000500 Ст. отклик данных 0,000283 Среднее ошибки -0,000002 Ст. отклик ошибки 0,000070 Среднее абсолютной ошибки 0,000054 Отношение ст. отклик 0,245855 Корреляция 0,969317

Прогнозирование

прогноз истинное значение
1 0,000419 0,000400
2 0,000419 0,000400
3 0,000763 0,000600
4 0,000409 0,000400
5 0,000678 0,000600

6. Погрешности

Составляющими погрешностей в данной работе являются:

· мешающие факторы

· моделирование

· расчеты

· настройка нейронных сетей

К мешающим факторам относятся: неоднородности материалов, неточное задание характеристик, неплотное прилегание датчика к объекту контроля, краевые эффекты – однако все эти факторы мы не учитываем, в силу того, что рассматриваем идеальный случай.

Погрешности моделирования складываются из неточности задания геометрии модели, шага разбиения сетки, движения дефекта (считаем, что скорость движения не превышает 0,5 м/с). Данную составляющую общей погрешности считаем не значительной, так как компьютерные средства позволяют создавать модель с высокой точностью.

В ходе получения сигналов и их обработки возникает погрешность расчетов, которая в основном обусловлена шагом, с которым мы снимаем показания. Так как этот процесс автоматизирован и рассматривается идеальная модель, эта составляющая не сильно влияет на конечный результат.

Основной составляющей погрешности является погрешность, с которой созданная нейронная сеть классифицирует дефекты и делает прогнозы. Рассмотрим ее подробнее.

Были рассмотрены три различные структуры искусственных нейронных сетей:

· многослойный персептрон

· вероятностная или обобщенная регрессионная нс

· радиальная базисная функция

Стояла задача выбрать тип сети с наименьшей погрешностью на выходе.

Погрешность определения раскрытия дефекта.

Рисунок 19

На диаграмме (рис. 19) видим, что среднее значение абсолютной погрешности многослойного персептрона минимальное. И хотя все три сети удовлетворяют требованиям к определению раскрытия, преимущество у персептрона.

В табл. 3 приведены значения средней, максимальной и минимальной погрешностей посчитанных по результатам обучения всех трех сетей. Для каждой сети было использовано 100 различных значений.

error pers rbf orns
average 0,054 0,061 0,063
max 0,238 0,253 0,4
min 0,001 0 0

Погрешность определения глубины дефекта.

Рисунок 20

Значение среднего значения абсолютной погрешности в данном случае (рис.20) минимальна у обобщенной регрессионной нейронной сети, однако ее за основу не стоит брать. В процессе выбора архитектуры сети данного типа, сеть с наименьшей ошибкой имеет 8 входов, 62 элемента на 1 скрытом слое и 2 элемента на 2 скрытом слое. Вероятность того, что сеть с такой архитектурой при имеющемся количестве сигналов для обучения, просто запомнит сигналы, а не обучится, возрастает. Поэтому для нас предпочтительнее выбрать сеть типа персептрон.

В табл. 4 приведены значения средней, максимальной и минимальной погрешностей посчитанных по результатам обучения всех трех сетей. Для каждой сети было использовано 100 различных значений.

error pers rbf orns
average 0,043 0,052 0,04
max 0,144 0,251 0,205
min 0 0,002 0

Погрешность, имеющая в данном случае интерес и максимально влияющая на результаты, является погрешностью выбранной нейронной сети. Для нас важна точность, с которой она сможет определять дефекты.

Заключение

В ходе проведенной работы была разработана, конечно элементная модель, позволяющая определять продольные и поперечные трещины. Сформирована база сигналов, по которой были рассчитаны информативные признаки, а также выявлены зависимости фазы и амплитуды от различных параметров дефекта и от нескольких частот.

С использованием информативных признаков был проведен корреляционный анализ, показавший наиболее коррелирующие признаки с параметрами дефектов. По результатам данного анализа были выбраны признаки, использованные для обучения нейронных сетей.

Полученные результаты не противоречат фундаментальным физическим законам и принципам. Погрешности лежат в допустимых пределах.

Полученные нейронные сети, могут быть использованы в дальнейших экспериментальных исследованиях по контролю продольные и поперечные дефекты труб.


Литература

1. Brudar B. How to Distinguish Surface and Subsurface Cracks // Electromagnetic NDT Methods: NDT International, Vol. 17, August 1984, p 221-223.

2. Brudar B. Magnetic Leakage Fields Calculated by the Method of Finite Differences// Electromagnetic NDT Methods: NDT International, Vol. 18, No.6, December 1985, p 353-357.

3. В.И. Егоров. Применение ЭВМ для решения задач теплопроводности. Санкт-Петербург, 2006.

4. С.Н. Бозиев. MATLAB 2006a в примерах. РГУ нефти и газа им. И.М. Губкина, 2006.

5. Song S-J. Model-based interpretation of experimental eddy current signals obtained from steam generator tubes by bobbin probe. // Insight. 2003. №5.


Приложение 1

Программа, написанная в среде MatLab для создания базы сигналов.

% параметры геометрии объекта контроля и катушек

air1H=10e-3; %толщина слоя воздуха над ОК

L=50e-3; %длинна трубы

air2H=6.5e-3; %толщина слоя воздуха под ОК

OKH=1.5e-3; %толщина трубы

OKD=8e-3; %внешний диаметр трубы

H_k=2e-3; %высота катушки

l_k=3e-3; %ширина катушки

delta_k=1e-3; %зазор между ОК и катушками

D_k = 3e-3; %расстояние между катушками

delta_izm=0.5e-3; %зазор между ОК и измерительной катушкой

r=0.01; %радиус вторичной катушки для расчетов

%Параметры геометрии дефекта по умолчанию

ld_def=1e-3; %длинна дефекта

x_def=(L/2)-ld_def; %положение центра дефекта по длине ОК

hd_def=1e-3; %глубина дефекта

fd_def=1; %форма - отношение меньшего основания к большему

%fd = 1 - прямоугольник,

%1<fd<0.01 - трапеция

%fd<0.001 -> треугольник

%Параметры эксперимента

x_start=20e-3; %начало зоны контроля

x_end=0e-3; %конец зоны контроля

x_step=-0.5e-3; %шаг съема данных

hd_start=0.4e-3; %начальная глубина дефекта

hd_end=1.2e-3; %конечная глубина дефекта

hd_step=0.2e-3; %шаг по глубине

ld_start=0.1e-3; %начальная протяженность дефекта

ld_end=1.0e-3; %конечная протяженность дефекта

ld_step=0.2e-3; %шаг по ротяженности

fd=[1,0.01,0.3,0.7]; %формы

f=[25e3,100e3,200e3,400e3]; %частоты, в герцах