Нейро-сетевые методы дешифрования космических изображений для анализа воздействий на лесные массивы аварий на газо- и нефтепроводах

В настоящее время искусственные нейронные сети (ИНС) все чаще используются для классификации и кластеризации космических изображений лесов и других объектов. Особенностью ИНС-алгоритмов является высокое требование, предъявляемое к быстродействию и оперативной памяти компьютеров в процессе обучения ИНС.

ИНС состоит из большого числа обрабатывающих элементов или нейронов, упорядоченных по иерархическим слоям, в которых выходная переменная одного нейрона является входной переменной нейрона следующего слоя. Нейронные сети различаются способом соединения нейронов между собой, конструкцией промежуточных слоев и структурой сети. Среди различных структур ИНС чаще других применяются классические ИНС прямого распространения сигнала с обратным распространением ошибки, которые получили название сетей прямого распространения. Типичная ИНС прямого распространения включает входной слой, промежуточные скрытые слои и выходной слой. Пример нейронной сети показан на рис.2.2.14.

Поясним работу ИНС на примере простейшей нейронной сети с к входными нейронами, одним скрытым слоем с р нейронами и выходным слоем, состоящим из одного нейрона. Каждый нейрон скрытого слоя получает сигнал от нейронов входного слоя следующего вида: /; = '^WijXi, где i - номер узла входного слоя, j - номер узла скрытого слоя, Xt - сигнал от /-го нейрона входного слоя, Wy - весовые коэффициенты связи нейронов скрытого и входного слоев.

Входной сигнал нейрона скрытого слоя 7, может быть преобразован в выходной сигнал Vj при помощи различных нелинейных функций. Чаще других используются преобразования в виде логистических кривых или логист с монотонно возрастающим от нуля до единицы выходным сигналом следующего вида:

Выходной нейрон суммирует входные сигналы от нейронов скрытого слоя и нормализует результат при помощи собственной передаточной функции. Обучающая выборка, включающая входные и известные результирующие выходные данные, используется для настройки весовых коэффициентов сети, т.е. для обучения ИНС. При этом данные, полученные с выходного слоя, сравниваются с заранее известными экспериментальными результатами, и рассчитывается ошибка рассогласования.

Эта ошибка передается по нейронной сети в обратном направлении, что позволяет корректировать весовые коэффициенты в соответствии с используемым в данной ИНС алгоритмом минимизации рассогласования или ошибки. Многослойные ИНС, в которых для настройки весовых коэффициентов используется, описанный выше алгоритм, получили название "сетей с обратным распространением ошибки", а сама процедура настройки получила название "процедуры обучения ИНС". Процесс обучения сети заканчивается либо при уменьшении ошибки рассогласования ниже заданного порога, либо при выходе итерационного процесса на установившийся режим. В случае нечетких образов, характерных для космических изображений лесов, ИНС могут быть эффективны лишь при условии использования достаточно большого количества нейронов.

Трехслойная нейронная сеть прямого распространения

Рис.2.2.14. Трехслойная нейронная сеть прямого распространения

В настоящее время большой популярностью для целей кластеризации космических изображений пользуется метод самоорганизующихся ИНС. Эти ИНС были разработаны Центром исследований искусственных нейронных сетей и Лабораторией информационных и компьютерных исследований Технологического университета города Хельсинки (Финляндия) и получили название самоорганизующихся ИНС Кохонена.

В своей простейшей форме сеть Кохонена (функционирует по правилу «победитель получает все»). Для данного входного вектора один и только один нейрон Кохонена выдает единичный сигнал, все остальные выдают нулевые сигналы. Выход каждого нейрона Кохонена является просто суммой взвешенных элементов входных сигналов:

где Sj — выходу'-го нейрона Кохонена; Wj = (wy, w2j,... wnj) - вектор весову'-го нейрона Кохонена; X- (xj,x2,.., х) - вектор входного сигнала, или в векторноматричной форме:

где S — вектор выходов слоя Кохонена.

Нейрон Кохонена с максимальным значением Sj является «победителем». Его выход равен единице, у остальных нейронов он равен нулю.

Обучение слоя Кохонена осуществляется следующим образом. Слой Кохонена классифицирует входные векторы в группы схожих векторов. Это достигается с помощью такой подстройки весов, что близкие входные векторы активизируют один и тот же нейрон данного слоя. Слой Кохонена обучается без учителя (самообучается). В результате обучения слой приобретает способность разделять несхожие входные векторы. Какой именно нейрон будет активизироваться при предъявлении конкретного входного сигнала, заранее трудно предсказать.

При обучении слоя Кохонена на вход подается входной вектор, и вычисляются его скалярные произведения с векторами весов всех нейронов. Скалярное произведение является мерой сходства между входным вектором и вектором весов. Нейрон с максимальным значением скалярного произведения объявляется «победителем», и его веса подстраиваются (весовой вектор приближается к входному). Уравнение, описывающее процесс обучения, имеет вид:

где w„ - новое значение веса, соединяющего входной компонент х с выигравшим нейроном, ws - предыдущее значение этого веса, 77 - коэффициент скорости обучения.

Каждый вес, связанный с нейроном-победителем, изменяется пропорционально разности между его величиной и величиной входа, к которому он присоединен. Направление изменения минимизирует разность между весом и соответствующим элементом входного сигнала.

Коэффициент скорости обучения ИНС - 77 вначале обычно полагается равным 0,7 и может затем постепенно уменьшаться в процессе обучения. Это позволяет делать большие начальные шаги для быстрого грубого обучения и меньшие шаги при подходе к окончательной величине.

Если бы с каждым нейроном Кохонена ассоциировался один входной вектор, то слой Кохонена мог бы быть обучен с помощью одной коррекции на вес (77 = 1). Как правило, обучающее множество включает много сходных между собой входных векторов, и сеть должна быть обучена активизировать один и тот же нейрон Кохонена для каждого из них. Веса этого нейрона должны получаться усреднением входных векторов, которые должны его активизировать.

В качестве меры сходства между входными векторами и весовыми коэффициентами в алгоритмах ИНС могут быть использованы различные метрики расстояния. Так при необходимости включения в число критериев дополнительных экспертных оценок может быть использована Манхэттенская метрика, так как при сравнении двух лингвистических оценок обычно используют их дискретные численные аналоги, что легче реализовать в Манхэттенской метрике.

Основной проблемой на данном этапе обработки космических изображений является выбор таксационных показателей или комплексных характеристик, которые являются наиболее перспективными для целей классификации лесов по космическим изображениям.

Следует отметить, что, несмотря на то значение, которое имеет процедура разделения покрытых лесом земель на отдельные кластеры, большой интерес представляет изучение и анализ дерева классов (дендрограммы). Дендрограмма позволяет исследовать степень подобия лесных участков с различной степенью техногенной деградации, попадающих в различные кластеры на космических изображениях. Информация о подкластерах данного кластера позволяет вводить дополнительную дифференциацию участков внутри кластера, что позволяет проводить более точные оценки биологического и экономического ущербов, нанесенных аварийными ситуациями на газо- и нефтепроводах. С другой стороны вхождение конкретного кластера в кластеры более высокого уровня позволяют оценить степень сходства между отдельными кластерами.

 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ     След >