Сравнительный анализ моделей цветообразования при офсетной многокрасочной печати
Автор: Никоноров А.В., Попов С.Б.
Журнал: Компьютерная оптика @computer-optics
Рубрика: Обработка изображений: Восстановление изображений, выявление признаков, распознавание образов
Статья в выпуске: 23, 2002 года.
Бесплатный доступ
Короткий адрес: https://sciup.org/14058529
IDR: 14058529
Текст статьи Сравнительный анализ моделей цветообразования при офсетной многокрасочной печати
C = R p 1 eK .
Параметр К по физическому смыслу является коэффициентом внутреннего отражения рассеивающей светопроницаемой основы. Если нет возможности определить параметр K экспериментально, то его можно найти, решая задачу оптимизации на основе обучающей выборки. Средняя ошибка при таком подходе составила 0,275 Л Е . При обработке данных методами оптимизации, использующими значение производной, количество отбракованных данных составило около половины обучающей выборки. Но значения ошибок для всех других физических моделей получились на порядок большие.
Модель линейной регрессии
Аппроксимационные модели цветовоспроизведения возможно строить в классе линейных и нелинейных функций.
Линейная регрессионная модель для смеси трех красок (голубой, пурпурной и желтой) имеет вид:
R = b 0 R p + b 1 R p 1 + b 2 R p 2 + b 3 R p 3 + b 12 R p 12 +
+ b i3 R p 13 + b 23 R p 23 + b 123 R p 123 + £ , (10) где b = ( b 0 , b 1 , b 2 , b 3 , b 12 , b 13 , b 23 , b 123 ) - вектор параметров регрессии, Rp 12 , Rp 13 , Rp 23 , Rp 123 – спектры смеси стопроцентных концентраций нескольких красок поверх печатной основы, £ - случайная погрешность.
МНК-оценка параметров, в предположении того, что ^ является б -коррелированным белым шумом, имеет вид:
b = [ X T X]-1 X T R, где X – матрица составленная из вектор-столбцов Rpi.
В этом уравнении можно положить равными нулю до четырех параметров и при этом получать приемлемые значения ошибки аппроксимации. Вообще, наименьшая средняя ошибка аппроксимации достижима при 8 ненулевых параметрах и составляет 0,207 Л Е , максимальная ошибка при этом 0,92 Л Е . При четырех не равных нулю параметрах ( b 0 , b 1 , b 2 , b 3) средняя ошибка составляет 0,82 Л Е , максимальная - 2,76 Л Е . Приведенные значения были получены при вычислительном эксперименте на шкалах цветового охвата печатной машины Speed Master 74 объемом в 800 образцов.
Для физических моделей (за исключением модели Селиванова) получено сходное значение ошибки аппроксимации.
Нейросетевое моделирование
В качестве моделей, у которых явный вид уравнения (1) не задан, выбраны нейронные сети (НС) слоистой архитектуры с обучением по методу обратного распространения ошибки. В качестве активационных функций нейронов использовались гиперболический тангенс и логистическая функция:
f ( x ) = ( 1 + e - x ) 1 .
Использовались два варианта построения нейронной сети. В первом варианте для каждого спектра образца из обучающей выборки строится отдельная НС с двумя (или тремя) нейронами в скрытом слое. Входов у такой сети столько же, сколько аргументов Rpi присутствует в выражении (1), выход у сети один – компонента спектра смеси, соответствующая некоторой длине волны. Таким образом, за один цикл работы обрабатывается одна компонента дискретного спектра. Такую обработку можно условно назвать покомпонентной.
Во втором варианте сети на ее вход подаются спектры базовых красок целиком, на выходе – вектор компонент спектра красочной смеси. Сеть этого типа аппроксимирует всю обучающую выборку. Такую постановку задачи можно назвать векторной.
НС в векторной постановке задачи обладает наиболее высокой экстраполирующей способностью из всех рассмотренных моделей. Однако обучение такой сети (с 30 нейронами в двух скрытых слоях)
на обучающей выборке из 18 векторов 32x1 продолжалось около 8 часов на PIII-800. Ускорить обучение можно за счет предварительного сокращения размерности выборочного пространства при помощи метода выделения главных компонент [8, 12]. В описанном примере удалось снизить размерность с 32 до 5, при этом время обучения сократилось до получаса.
При таком подходе была получена наименьшая ошибка аппроксимации на экспериментальном наборе данных. Средняя ошибка составила 0,15 Л Е , максимальная - 0,5 Л Е .
Однако, несмотря на все преимущества, нейросетевой подход имеет несколько недостатков. При обучении сетей обратного распространения ошибки используется оптимизация значений весов по градиентному алгоритму. Это приводит к так называемому эффекту переобучения сети. Он заключается в появлении ложных экстремумов на аппроксимируемой кривой, при этом теряется гладкость исходной функции, существенно возрастает СКО. Избавиться от этого эффекта можно, модифицируя используемый при обучении МНК-критерий введением регу-ляризирующей добавки. Например, в [8] предлагается следующая модификация критерия МНК:
M
D ' = yD + —У( w )2 , M 7 t 1v j)
где W j - веса синаптических связей, у - коэффициент скорости обучения, D – классическая целевая функция сети – среднеквадратичная ошибка между входом p и требуемым выходом t :
N
D = —У( ti - Г. ) 2 .
n ^ : 1 i
Применение такого метода обучения при моделировании цветообразования позволило снизить ошибку аппроксимации в 2 – 2,5 раза.
Отметим, что при использовании НС слоистой архитектуры для моделирования процесса цветооб-разования невозможно применение при обучении критерия минимизации цветового контраста.
Если отказаться от использования слоистых сетей обратного распространения, то возможно применение критерия минимума цветового контраста. Для этого сеть с покомпонентной обработкой спектров можно представить в явном виде в виде некоторого многочлена от активационных функций нейронов (для однослойной сети в виде линейной комбинации активационных функций). Для сети с тремя нейронами в скрытом слое имеем (с некоторой модификацией):
y = a 1 logsig ( a 2 x 1 + a 3 ) + a 4 logsig ( a 5 x 2 + a 6 ) +
+ a 7 logsig ( a 8 x 1 + a 9 x 2 + a 10 )
где ai – параметры, logsig – логистическая функция, x1 и x2 – компоненты спектров базовых красок, y – компонент спектра красочной смеси. Параметры ai определяются методами оптимизации, причем оптимизация выполняется на всем множестве нейронов, а не послойно. Целевой функцией является цветовой контраст между реальным и спрогнозированным спектрами. Средняя ошибка при 15% процентах отбракованных данных составила 0.3ЛЕ.
Из приведенных данных об аппроксимационных погрешностях моделей разного типа можно сделать следующий важный вывод: погрешность лучших физических моделей процесса цветовоспроизведения и погрешность нейросетевых моделей, не использующих никакой априорной информации о процессе цветовоспроизведения, практически одинакова.
Модификация исходной модели
Спектры R pi , входящие в выражение (1) косвенно зависят от спектра печатной основы. Чтобы получить более общую модель, желательно исключить эту зависимость. Для этого предлагается подход, основанный на выделении спектра краски из известного спектра краски поверх печатной основы. На основе уравнения Юла-Нельсона (9) можно записать:
R c
V
Г R 1/ П
-
(1 - c) R
1/ n ) n
p
,
c где Rc – искомый спектр краски.
Таким образом, на основе выборочных данных можно найти целое семейство { Ric }, соответствующее различным значениям спектров красочной смеси Ri . Для данной краски Rc имеет единственное значение. Будем минимизировать СКО в семействе { Ric } за счет выбора n . То есть оптимальное n * находится как решение задачи минимизации:
n : Q (n * )= min Q (n), n где
Q (n ) = Z R^ (n)Rc (n).
i
Решение этой задачи также было выполнено как с использованием ГА, так и классических алгоритмов оптимизации. ГА показали несколько лучший результат.
В результате выделения спектра базовой краски модель становится пригодной для любой применяемой печатной основы. Для описания этой основы достаточно знать ее спектр отражения. Например, погрешность аппроксимации линейной регрессионной модели при таком подходе, как видно из таб. 2, почти не увеличивается.
В первой колонке таблицы приведены ошибки для уравнения (10) при четырех ненулевых коэффициентах – b0, b1, b2, b3. Во второй – ошибки для того же уравнения с коэффициентами, усредненными для трех различных красок. Наконец, в третьей приведены ошибки для случая, когда вместо спектра стопро- центной краски поверх основы в уравнении (10) использовался чистый спектр краски.
Таблица 2. Ошибки аппроксимации регрессионной модели
Сочетания красок |
Ошибка регрессии |
Ошибка усреднения |
Ошибка при чистом спектре |
CM |
0.6302 |
3.0456 |
0.7053 |
MY |
1.2422 |
2.4133 |
1.1904 |
CY |
0.6438 |
1.5045 |
0.8018 |
Таким образом, уравнение (10) было преобразовано к виду:
R = b 0 Rp + bl Rc 1 + b 2 Rc 2 + b 3 Rc 3, где Rci – спектры чистых красок. Аналогичная замена Rpi на Rci возможна при любом виде модели (1).
Основные результаты
Проведенный анализ различных моделей цветовоспроизведения позволяет выделить наиболее перспективные модели. Основные результаты сведены в таб. 3. Уравнения теории цвета, которые использовались при моделировании и приводятся в таб. 3, описаны в [1, 2, 5].
Точность, которую дают линейные регрессионные модели, достаточна для построения на их основе базовой, использующей стандартный набор красок, системы описания цветовоспроизведения в печатном процессе. Характеристики большинства эвристических и физических моделей (за исключением модели Селиванова) схожи с характеристиками линейных регрессионных моделей.
При программной реализации нейросетевых моделей необходимо учитывать большую вычислительную сложность обучения НС. Поэтому, использование НС в конечном программном продукте, а не в экспериментальных условиях, возможно при наличии мощных вычислительных систем или быстрых алгоритмов обучения. Точность, которая получится при этом, будет сравнима с точностью лучших спектрофотометров и в несколько раз меньше порога цветоразличения человеческого зрения. Линейные и нейросетевые модели позволяют проводить замену спектра отражения печатной основы без потери точности. Таким образом, на основе этих моделей можно строить системы, описывающие печатный процесс с фиксированным набором красок на различной бумаге.
В таблице приведены только средние ошибки и не указаны особенности распределения ошибок. В общем, по гистограммам ошибок можно сказать, что чем выше степень нелинейности используемой модели, тем меньше дисперсия ошибки.
В таблице 3 приведены экспериментальные оценки вычислительной сложности задачи определения параметров моделей. За единицу принята сложность оценки параметров модели линейной регрессии.
Таблица 3. Сравнительные характеристики испытанных моделей
Используемая модель, метод подбора параметров |
Количество красок |
Средняя ошибка, ∆ E |
Оценка вычислительной сложности |
|
Физические модели |
Модель Селиванова |
1 |
0,26 |
0.5 |
Уравнение Юла-Нельсона, ГА, кривые растискивания известны |
1 |
1,43 |
0.7 |
|
Уравнение Юла – Нельсона, оптимизация методом ГА |
1 |
1,6 |
2.5 |
|
Уравнение Юла-Нельсона, ГА, усредненные кривые растискивания |
1 |
1,63 |
2.5 |
|
Уравнение Нойгебауэра модифицированное Стольницом |
2 |
1,67 |
1 |
|
Модели линейной регрессии |
Линейная регрессия, 8 параметров |
3 |
0,2 |
1 |
Линейная регрессия, 4 параметра |
3 |
0,8 |
1 |
|
Линейная регрессия, использование спектров чистых красок |
2 |
0,9 |
1 |
|
Линейная регрессия, усреднение коэффициентов |
2 |
2 |
1 |
|
Нейросетевые модели |
Нейронные сети, векторная обработка |
2 |
0,15 |
50 |
Использование нейросетевой парадигмы в явном виде |
2 |
0,3 |
30 |
|
Нейронные сети, покомпонентная обработка |
2 |
2 |
20 |
|
Нейронные сети, прогнозирование первичных цветов |
1 |
2,9 |
5 |
Для дальнейшего исследования наиболее перспективными представляются модель Селиванова и НС модели. Только эти модели возможно в дальнейшем обобщить на случай произвольного набора базовых красок.
Процедуру обучения НС целесообразно совершенствовать в двух направлениях: повышение способности сети к обобщению (экстраполяции) и увеличение скорости обучения. Первого можно достичь, используя для нахождения оптимальных значений весов ГА вместо градиентных алгоритмов.
При любом методе обучения НС этот процесс легко поддается распараллеливанию. При обучении с использованием градиентных методов веса каждого нейрона можно рассчитывать независимо, а значит параллельно. Также легко распараллеливаются вычисления при применении ГА – на каждой итерации обычно 98% времени занимают вычисления значений критерия, а эти вычисления независимы. Таким образом, можно существенно ускорить обучение НС.
Другой перспективный подход к ускорению обучения НС – сокращение числа нейронов в процессе обучения с использованием контрастирования сети.
-
8. Заключение
В данной работе на основе экспериментальных данных исследованы различные модели цветовоспроизведения. Использовался новый для данной области нейросетевой подход к моделированию. Впервые для определения параметров модели использовалась минимизация цветового контраста. Это позволило значительно снизить ошибку моделирования. Результаты позволяют говорить о возможности построения системы моделирования печати с произвольным набором базовых красок.
Работа выполнена при частичной поддержке РФФИ, грант № 01-01-00097.