Сеть с симметричной функцией преобразования нейронов для подавления искажений и восстановления изображения

Автор: Малыхина Г.Ф., Меркушева А.В.

Журнал: Научное приборостроение @nauchnoe-priborostroenie

Рубрика: Информационно-измерительные системы

Статья в выпуске: 2 т.18, 2008 года.

Бесплатный доступ

Исследован и описан метод восстановления изображения, искажения которого удаляются на основе использования сети с симметричной функцией преобразования нейронов. Рассмотрены модификации сети, которые после обучения представляют нелинейный фильтр, способный удалять нелинейные искажения изображения.

Короткий адрес: https://sciup.org/14264545

IDR: 14264545   |   УДК: 621.391;519.21;519.245

Network with symmetric function of neuron transformation for noise distortion elimination and image reconstruction

The method is investigated and described for image reconstruction, distortion of which is eliminated by means of using the network having symmetric transformation function for neurons. Networks modifications are considered that after learning form nonlinear filter which is capable to suppress or eliminate the image nonlinear noise.

Текст научной статьи Сеть с симметричной функцией преобразования нейронов для подавления искажений и восстановления изображения

При решении ряда исследовательских и прикладных задач все более широкое применение находят сети с различными видами функции преобразования нейронов. Это — сети с функцией преобразования нейронов, построенной на основе время-частотного распределения (ВЧР) Габора и некоторых других ВЧР (Вигнера—Вилле, кратковременного преобразования Фурье) [1–4].1) В последнее время появляются варианты структуры нейронных сетей с функцией преобразования нейронов, построенной на основе аффинных преобразований (Бертрана и вейвлет [5–8]) и сети с автоподстройкой функции преобразования нейронов (ФПН) [9]. Несмотря на то что для таких сетей получение самих значений ФПН сложнее, чем при традиционном ("сигмоидном")2) виде, при их использовании обычно требуется существенно меньшее количество нейронов и они оказываются более экономичными по числу параметров, подлежащих подстройке в процессе обучения сети. Это особенно важно при ограниченном объеме данных, которые требуется распределять на обучающую и тестирующую выборки.

В полной мере указанные соображения относятся к сетям с симметричной функцией преобразования нейронов (СФПН) [4, 10–12]. Особенность структуры таких нейронных сетей (НС) состоит в локализации элементов скрытого слоя в многомерном векторном пространстве (размер- ность которого идентична размерности входной информации) и в наличии СФПН, зависящей от (метрической) нормы разности векторов локализации элементов скрытого слоя и входного век-тор-сигнала. Сниженное количество параметров, определяющих функционирование сети, сравнительно с другими структурами (при равной размерности данных) обеспечивает сетям с СФПН определенное преимущество при решении задач аппроксимации функций, идентификации и классификации объектов, создании контроллеров.3) Кроме того, оказывается возможным применение сети с СФПН для адаптивного метода снижения шума в многомерном измерительном сигнале и решения задачи восстановления изображения по его измерительному образу, искаженному группой факторов, сопутствующих регистрации.

ПОСТАНОВКА ЗАДАЧИ

При обработке и анализе изображения оно (сравнительно с первичным регистрируемым видом) оказывается искаженным за счет различных причин, среди которых шум (свойственный любому сигналу), элементы интерференции и размытие, вызванное неточной фокусировкой, движением и нелинейностью пленки (при фотографической регистрации).4) В качестве общей модели (в дис- кретном времени) такого "искаженного" изображения могут быть приняты соотношения:

y ( m , n ) = g [ x ( m , n ) ] + n ( m , n ), (1) ^ ^

X ( m , n ) = Z Z- h ( m , n ; k , l ) s ( k , l ), (2) k =—^ l =—^

n ( m , n ) = f ( X ( m , n ) ) П '( m , n ) + П "( m , n ), (3) где использованы обозначения: s ( m , n ) — фактическое изображение; ( m , n ) — наблюдаемое (искаженное) изображение; n '( m , n ) и n "( m , n ) — сигналы (процессы) шума; h ( m , n ; k , l ) — импульсный отклик на линейно воздействующее изображение s ( k , l ); g (...) и f (...) — это функции, одна из которых ( g ) представляет характеристики детектора зарегистрированного изображения, а другая ( f ) отражает механизмы формирования шума, связанного с регистрацией изображения. Шум n ( m , n ) моделируется как сумма зависимой от изображения компоненты f ( x ( m , n ) ) x Х П '( m , n ) и независимой от изображения компоненты n "( m , n ).

Метод восстановления изображения включает максимально приближенное к реальности моделирование процессов искажения и применение приближенно обратного процесса к искаженному изображению { y ( m , n ) } , чтобы реконструировать первоначальное фактическое изображение { s ( m , n ) } .5) Эффективность метода восстановления изображения зависит от доступности и полноты знания о процессе искажения и от структуры процедур обработки, используемых для получения первичного фактического изображения. После выбора такой структуры и критерия качества реконструкции изображения может осуществляться оптимальная оценка первоначального изображения.

Для восстановления изображения (ВИ) применялись как линейные методы обработки (использующие фильтр Винера или рекурсивный фильтр Калмана [16] и основанные на линейной модели формирования искажений), так и нелинейные методы (метод максимального правдоподобия, или максимальной апостериорной вероятности [17, 18]). Эти методы отличаются друг от друга моделью формирования искажения и набором процедур, ведущих к восстановлению изображения. Однако каждый из этих методов основывается на до- вольно детальном представлении о модели искажения изображения.

Сравнительно недавно для ВИ были использованы нелинейные фильтры, основанные на порядковых статистиках (ПС) и способные подавлять независимый аддитивный импульсный шум. Но относительно искажений, зависящих от изображения, эти фильтры также оказываются неэффективными. Таким образом, традиционное использование как линейных, так и нелинейных методов обработки изображения базируется на корректном и полном представлении о виде модели искажений. Поэтому неадекватность или неполнота представлений о модели (в частности, при зависимости искажений от самого изображения) приводит к неудовлетворительному качеству ВИ.

Утверждение справедливо для различных подходов к ВИ, в том числе для метода, основанного на обучении с использованием образцов изображений. Так, если исходное изображение { s ( k , l )} за счет неизвестного механизма искажения переходит в { y ( k , l )}, то оценка { s ( k , l )} по критерию минимума среднеквадратичной ошибки (МСКО) является оценкой условного среднего. Практически в этом случае часто используется "окно" (2 K +1)(2 L +1) отсчетов искаженного изображения { y ( k , l )}, которое имеет центром пиксель ( m , n ). Оценка s( m , n ) по критерию МСКО с ограничением выражается соотношением:

■$( m , n ) = E ( s ( m , n )| YK , L ( m , n ) ) , (4) где6)

Y K , L ( m , n ) = ‘ y ( m - k , n - l )

k = — K , - K + 1,..., K ;

l = — L , L + 1,..., L

Кроме специального случая, когда сигнал и шум гауссовы и аддитивны, эта оценка является нелинейной функцией от Y KL ( m , n ). Поэтому из-за неполноты знания процессов искажения функционал (4) обычно неизвестен.

Новые возможности решения задачи ВИ открывает использование нейронных сетей (НС). НС способны аппроксимировать нелинейные зависимости сигналов в многомерном. пространстве, обучаться на основе предъявления выборок, отражающих специфику входной информации, и таким образом адаптироваться к виду данных, поступающих на вход НС [19-21]. В частности, при достаточной статистической информации в виде примеров — аналогов изображений НС может быть обучена аппроксимировать нелинейное отображение (4). В этом направлении исследована возможность реализации задачи ВИ с нелинейными вида- ми искажения на основе использования сети с СФПН.

СЕТЬ С СИММЕТРИЧНОЙ ФУНКЦИЕЙ ПРЕОБРАЗОВАНИЯ НЕЙРОНОВ:

ЕЕ ОБУЧЕНИЕ И МОДИФИКАЦИИ

Структура сети с СФПН включает слой входных узлов (с числом, равным размерности входных векторов), скрытый слой с СФПН и выходной слой с линейной ФПН. 7) Нейроны с СФП характеризуются (многомерным) вектором своего положения и зависимостью реакции на входное воздействие в виде функции (ФП), зависящей от расстояния (нормы разности) между входным вектором и вектором положения нейрона [11, 12, 22].

Сеть размера М (по числу центров с СФПН), принимающая на входе X е R N ex и получающая на выходе Y е R М вых . , выполняет отображение y ( x ): R N ex . ^ R N6MX . , согласно соотношению

M

y ( x ) = Е w j й - c j || ) ,           (5)

j = 1

где М — число центров с СФПН; ^(...) — нелинейная функция преобразования нейронов (ФПН); ||…|| — символ L2 -нормы; вектор весов выхода сети — wj е RN6MX• (1 < j < M); параметры, называемые центрами сети с СФПН,   — c j е RNex. (1 < j < M).

Наиболее часто в качестве ФПН используется гауссиан — функция f Г ( x ): R Nex ^ R N6 x - , которая выполняет отображение

M fГ(x) = Еwj exp(-II x-cj II2 /°2) , j=1

где σ j — параметр, определяющий область определения ФПН (ее "размытие" относительно точки c j ). По сравнению с персептроном сеть с СФПН обучается быстрее, дает лучшее представление о поведении сети при обучении и управлении им, но для задач с размерностью входного пространства Nex 10 имеет несколько большее число центров скрытого слоя.

Обучение сети (с настройкой всех ее параметров) осуществляется методом МСКО на основе стохастического градиента (СГ): по входу x n , вы-

ходу y n и желаемому выходу d n на момент n (времени обучения) формируется ошибка e n = d n y n , и каждая составляющая θ i вектора θ параметров сети подстраивается по алгоритму СГ в соответствии с соотношением

9                и d || e n || 2

в- - 1 " в- - u д.

,

где u i — скорость обучения для параметра 9 in (величина u i уменьшается по мере обучения сети).

Параметры сети w j , c j , g j настраиваются в соответствии с соотношениями (7):

A w j , n = w j , n - 1 - w j , n

Act = g — g = j, n        j, n+1        j, n

T

= U ° e n w j , n

|| x n - c , n ||2

Ac = с и — c = j , n       j , n + 1       7, n

= U c e n w j , n

|| x n - c j , n ||2

g 3

= U w exp

exp

exp

- || x n - c j , n ||2 2

- 11 x n - c j , n ||2 ) 2

Перед обучением производится инициализация параметров:

  • — весам { w j , j = 1,2,..., M } придаются малые случайные значения или нули;

― начальное положение центров СФПН определяется как среднее для групп векторов, полученных по алгоритму кластеризации { x i } (из состава обучающей выборки) на М групп;

― для всех ФПН-узлов сети принимается одинаковое значение σ i = σ , равное среднему значению расстояний, которые наиболее близки к выбранным центрам скрытого слоя сети.

  • Модификация сети производится путем видоизменения вида ее функций преобразования нейронов (скрытого слоя) с заменой расстояния Фробениуса (т. е. привычной нормы L 2 ) на расстояние Махалонобиса [23]. При этом j -я ФПН φ j представляется в виде

7) Сокращения ФПН, СФП и ФП используются как усеченные варианты СФПН (симметричная функция преобразования нейронов). В процедуре нелинейного представления входного вектор-сигнала ФПН можно трактовать как функцию, порождающую базис.

9 j ( x ) = exp *

( xzcJ TE^ j Lt x - cJ

где L j — ковариационная матрица группы { x i } из j -го кластера. Такая форма ФПН позволяет полу-

чить лучшее локальное представление коррелированных входных данных.

Другой тип модификации включает использование нормализации ФПН. Для гауссовой формы ФПН в этом случае выход сети f норм. определяется соотношением

M fнорм(х) = Z w^ орм.(х),            (9)

j = 1

где нормализованная функция преобразования нейронов имеет вид:

exp ( - 1| x - c || 2 / a. 2 )

p " opM .( x ) = MT^------j -----— •     (10)

Z exp ( - II x - C j II 2 / a 2 ) j = 1

Сеть с ФПН такого вида имеет несколько лучшие свойства в задачах, связанных с многомерным интерполированием

В расширенной модификации сети, кроме нормализации ФПН по (10), используется смещение векторов {wi} весовых параметров сети на линейно преобразованные расстояния входного вектора x до соответствующих центров ФПН Выход сети, модифицированной таким образом, описывается соотношением норм ;сспс вых .X1

M

= Z l W j + G j ( x - C j ) | -^орм ^Х       (11)

j = 1 V вых - Х 1 вых -X вх вх - Х 1     7

где ф**орм ( x ) определено в (10), { G j } — матрицы размера Nвы х х Nвх , определяющие сплайн-смещение весовых параметров сети { w j }.8) Линейное смещение весов, учитывающее степень удаленности входного вектора от центров ФПН, обеспечивает использование информации о градиенте желаемой функции в окрестности каждого центра. (Такая информация не используется не только в основном варианте сети с гауссовой ФПН, но и в ее модификации с нормализованными ФПН). Таким образом, модифицированная сеть с нормализацией ФПН и ССПС имеет преимущества в более совершенной форме представления функций. Для нее применима простая и эффективная форма многомерного алгоритма оптимизации по методу

Ньютона, сеть обучается точно воспроизводить линейное отображение, в то время как сеть в основном варианте позволяет лишь приближенно воспроизводить отображения такого класса.

  •    Показатели эффективности функционирования НС (обучения, тестирования и точности реализации основной функции сети) должны обеспечиваться не только при аппроксимации детерминированных функций, но и в более сложном случае, когда вход и выход НС связаны стохастической зависимостью. При этом вход x и выход y рассматриваются как реализации случайных векторов X и Y , которые статистически зависимы. Если имеется полное статистическое описание данных, то оценка Y величины Y при заданном только входе X = x может быть получена по критерию МСКО: Y МСКО ( x ) = E( Y | X = x ). В общем случае эта оценка является нелинейной функцией от x, и хотя полное статистическое описание X и Y доступным бывает редко, в большинстве случаев оптимальная оценка может быть вычислена. Чтобы преодолеть недостаток точного знания, принимается некоторая параметрическая статистическая модель и используются данные, чтобы сделать эту модель разумно объясняющей и приводящей в адекватное соответствие совокупность входных и выходных данных (имеющихся в качестве обучающего материала). Такое моделирование затем используется для создания самой обрабатывающей НС. При этом подходе параметры НС приобретают статистическую интерпретацию, отражающую использованное описание данных.9)

  •    Описанные выше варианты модификации сетей с СФПН использованы для сопоставления с оценкой сравнительной эффективности восстановления изображений при использовании сетей с различной структурой ФПН. Наиболее адекватной модификацией НС для этой задачи является сеть с ФПН на основе суммы гауссианов. Эта сеть может служить параметрической статистической моделью. НС достаточно проста, а форма ее ФПН ( φ ΣГ) имеет отчетливую аналитическую трактовку.

Принимается, что вход и выход сети ( X и Y ) принадлежат смеси M групп векторов (соответственно размерности N вх . и N вых. ) с гауссовыми распределениями и при вероятностях A j (j' = 1,^, M) для каждой из групп, т. е. A j = Вер-сть {Данные ( X

TTT и Y) е Группе j}. При этом Zj =( Xj, Yj ) — га- уссов случайный вектор для данных (X и Y), поступающих из группы j; mj и Σj — среднее значение и ковариационная матрица случайного (стохастического) вектора Zj :

где c, = E (X,)’ wj = E (Y,)’

N BX X 1                 N BMX x 1

m j

( nbx + Nвых . ) x 1

Sx , = E ( X j X T ) - c ,,

N BX. x N BX.

2 - Г £ xj

S j T x , y ,

£ x j y j £ y ,

у = ( Ey j x j f = E ( X Y T ) - c , w T , N BX. x Nвых .

TT

Sy ,   = E ( y , y j ) - w j w j .

Nвых. x Nвых. nb™ x Nвых.

С учетом обозначений (12) у сети, построенной на использовании в структуре суммы гауссианов (1Г), функция ф преобразования нейронов для -го центра выражается соотношением

, ( x ) =

л i^ x j 1/2 exp {- 2( x - c , )T -( ^j-1 ( x - cj }

£ и л lSx k I 1/2 exp I-2 (x - c k )T • (Sx k )-1 • (x- ck)

Символ Σx имеет значение определителя матрицы Σx (см. (12)), например, | A | — определитель матрицы А .

Параметры гауссовой модели (т. е. Л’^, } { cy^ , ^{x , } , S { y } и L { x , y , } — все для = 1, 2,…, M ) становятся параметрами анализируемой нелинейной НС. Оценка Y ˆ ( x ) по критерию МСКО неизвестного выхода Y при данном только X = x для принятой модели определяется соотношением:

M

^Y ( x ) = £

, = 1

(                                 .-,               .^

w,+ Sx,y,-(Sx,) •(x - cj)

V                  N BX X N BX.            7