Об одном методе анализа решений оптимизационных задач для систем математических моделей
Автор: Бирюкова П.А., Умнов А.Е.
Журнал: Труды Московского физико-технического института @trudy-mipt
Рубрика: Математика
Статья в выпуске: 1 (33) т.9, 2017 года.
Бесплатный доступ
Целью данной работы является построение оптимизационной задачи для систе- мы математических моделей (ММ), состоящей из нескольких отдельных объектов. Предложенная ММ была приведена к параметрической форме, допускающей двухуров- невый метод ее решения. На основе метода гладких штрафных функций предложены метод решения задачи и метод определения параметров чувствительности полученных решений.
Комплексы математических моделей, метод гладких штрафных функций, оптимизационные задачи, декомпозиционная схема, чувствительность решений, матрица чувствительности
Короткий адрес: https://sciup.org/142186169
IDR: 142186169
Текст научной статьи Об одном методе анализа решений оптимизационных задач для систем математических моделей
В настоящей работе рассматривается метод решения конечномерных оптимизационных задач, формулируемых для комплексов математических моделей (ММ), описывающих функционирование отдельных подсистем этого комплекса 1 . В прикладной математике задачи данного класса применяются при моделировании экономических, социальных, технических и других систем. Постановка задачи, рассматриваемая в нашей работе, заключается в следующем. Предположим, что необходимо связать в единый комплекс N ММ, для каждой из которых формулируется задача математического программирования (МП): минимизировать по x s Е R n s функцию f s ( x s ) при условиях
V s ( x s ) ^ 0 , i = 1 , m s , s = 1 , N, (1)
где R n s – евклидово n s -мерное пространство 2 .
В более краткой записи задача (1) имеет вид fs (xs) ^ ill in ,s = 1 ,N, (2)
xs ∈Gs где Gs = {xs Е Rns : Vs (xs) ^ 0, i = 1, ms}.
Система ММ (СММ) представляет собой объединение N ММ (1), (2), связанных логически для всех моделей условиями (ограничениями) и функцией цели, представляющей собой линейную комбинацию их целевых функций. Математические формулировки СММ могут иметь различный вид [6].
Рассмотрим СММ в виде минимизировать по всем xs Е Gs, s = 1, N,
N
Е “f s ( x s ) (3)
s =1
при условиях
N
X s Е G s , s = I N E h j ( x s ) C V j , j = VM ; a s > 0 , s = I N s =1
В задаче (3) числа V j , j = 1 ,M , при других постановках могут быть параметрами. Весовые коэффициенты a s в (3) назначаются экспертами; часто a s = 1 , s = 1 , N. Введем вектор x = {x 1 ,x 2 , ...,x N } размерности n = m 1 + m 2 + ... + m N и множества G j = {x Е R n : ^ N =i h j ( x s ) C V j }, j = 1 , M, тогда задачу (3) можно записать в виде
N
E a s f s ( x s ) ^ min ___ . (4)
j =1 x s E G s ,x E G j ,s =1 ,N,j =1 ,M
Для решения оптимизационной задачи (3) модифицируем ее и задачи (1). Задачи (1) будем рассматривать в виде минимизировать по xs Е Rns функцию fs (xs) при условиях
^j(xs) C 0, i = 1, ms, и hj(xs) C Vs, j = 1, M, s = 1 ,N,(5)
где V j s – параметры, удовлетворяющие условию
N
E vs c vj ,j = 1m.(6)
j =1
Обозначим
Gs = {xs Е Rns : Vs(xs) C 0, i = 1ms; hj(xs) C Vs, j = 1M, s = I?N}.(7)
Тогда задача (5) будет иметь вид fs(xs) ^ ^in .(8)
x s E G s , s =1 ,N
Учитывая (6) и (7), модифицированную задачу (4) представим в виде
N
E asfs(xs) ^ min s=1
при условиях
N x s е G j , s = 1 ,N, R j ( V ) = E Vs - V j C 0 , j = Tj M. s =1
Условия Rj (V) в (9) - это условия (6). Максимальная размерность вектора параметров V равна (N + 1)M. Как отмечалось ранее, не все Vj могут быть параметрами, некоторые из них могут быть фиксированными числами, и наоборот, в ограничения задачи (1) могут быть также быть введены параметры. Кроме того, возможны и ограничения на Vj . Поэтому будем считать, что размерность вектора V равна некоторому числу L : V Е RL, а размерность вектора R(V) равна числу M, не обязательно совпадающему с (6). Таким образом, задача (9) будет иметь вид
N
£ a s f s ( x s ) s =1
^ min , x ∈ R n , V ∈ R L
где x s E G s , s = 1 ,N, R j ( V ) С 0 ,j = 1 ,M.
Переменными задачи (10) являются векторы x и V ; ее размерность n + L может оказаться большой. Рассмотрим метод ее решения, учитывающий структуру этой задачи.
Предпо лож им, что задача (10) имеет локальное изолированное решение ( x * s , s = 1 ,N ; V * ) , а также имеют решения задачи (8) для всех параметров V, т.е. можно рассматривать их решения как функции x * s ( V ) . Подставив x * s ( V ) в (10), получим
N min ^^ asfs (x*s (V)) по V E RL s=1
при условии
У ( x * s ( V )) С 0 ,i = 1 , m s ; h s ( x * s ( V )) С V s ,R j ( V ) С 0 ,j = 1 , M. (11)
Так как функции x * s ( V ) , s = 1 ,N , удовлетворяют ограничениям задачи (11), то из (11) получаем задачу
N min £ as fs(x*s(V)), V E RL и Rj(V) С 0, j = IM, (12)
s =1
т.е. получили задачу (12) значительно меньшей размерности, чем за дач а (10), особенностью которой является то, что неизвестны вектор-функции x * s ( V ) , s = 1 , N.
Функции x * s ( V ) , s = 1 ,N , являются негладкими, что затрудняет построение методов решения задачи (12).
Идея предлагаемого метода состоит в замене функций x * s ( V ) другими, которые: а) достаточно гладкие;
-
б) достаточно близкие к x * s ( V );
-
в) определены ∀ V ∈ R L .
Указанным требованиям удовлетворяют решения задач (8), полученные методом гладких штрафных функций (ШФ), [2]. Ограничения задач математического программирования (2) в задаче (5) или (8) обозначим:
■ ( s V ) = / ^ i ( x s ) , i = 1 ’m s ,________________ _____
^ i^ , ( h j ( x s ) — V j , i = m s + 1 , m s + j, j = 1 , M.
Таким образом, получаем ограничения ^ i ( x s , V ) С 0 , i = 1 , m s , где m s = m s + M, и задача (8) имеет теперь вид
fs (xs) ^ min_, xs∈Gs где Gs = {xs E Rns : ys(xs, V) С 0, i = 1, ms}.
Более краткая по форме запись (13) задачи (8) нужна далее для удобной формулировки метода ее решения.
Метод ШФ для задачи (13) заключается в последовательной безусловной минимизации вспомогательной функции ms
E s ( x s , V ) = f s ( x s ) + 52 P ( T, y s ( x s , V )) , i =1
где штрафная функция P ( T, X ) определена для всех А и удовлетворяет условию из [3]:
lim P (T, X) = I °, А 5 °, п 4i+0 v 7 [ + то, X > ° причем при некоторых условиях на fs, ϕi, P имеет место равенство lim argminEs(xs,V)= x*s(V). (15)
T i +0 X s
Можно показать, что xs(T, V) = arg min Es(T, xs, V) обладает всеми указанными выше xs свойствами [2].
Рассмотрим задачу (10) в следующей форме: найти
N min ^ asf s(xs) по x £ Rn, V £ RL(16)
s =1
при условиях ^ s ( x s , V ) < ° , i = 1 , m s , R j ( V ) < ° , j = 1 , M.
Вспомогательная функция E ( x, V ) для нее имеет вид
N MN m
E(x, V) = £ asfs(xs) + £ P(T, R3 (V)) + £ £ P(T, ^s (xs, V)),(17)
s =1 j =1 s =1 i =1
которую можно переписать также в виде
N M Nm
E(x, V) = £ asfs(xs) + £ P(T, Rj (V)) + £ as £ P(T, ^s(xs, V)).(18)
s=1 j=1 s=1
Множитель a s > ° , введенный в третье слагаемое, не изменит свойств ШФ. Напомним, что вектор x в E ( x,V ) равен x = {x 1 , x 2 , ...,x N } . Используя (14), из (18) получим более краткую форму представления E ( x,V ) :
N
E ( x,V ) = W ( T,V ) + ^ a s E s ( x s , V ) , (19)
s =1
где W ( T, V ) = £ M =1 P ( T,R j ( V )) .
Приближенные значения оптимального решения x ∗ ,V ∗ задачи (10) можно найти, решив задачу безусловной минимизации (БМ):
min E ( x,V ) ,x £ R n ,V £ R L , (20)
однако мы предложим другой метод ее решения.
При решении N задач БМ: найти min E s ( x s , V ) получаем решения x s ( T, V ) , s = 1 , N. x s ∈ R ns
Подставляя x s ( T, V ) в (19), получим функцию от переменной V :
N
E ( x, V ) = W ( T, V ) + ^ a s E s ( x s ( T, V ) , V ) , (21)
s =1
где x = ( x 1 ( T, V ) ,x 2 ( T,V ) , ...,x N ( T,V_ )) .
Решение задачи БМ: найти min E(x, V) при некоторых условиях, накладываемых на fs, ^s, P, [3] обладает следующим свойством: lim arg min E(x, V) = V*, где V* — компонента оптимального решения (x*, V*) задачи (10).
Итерационная схема решения задачи (10) методом ШФ.
-
1) Пусть задан начальный вектор V q G R L .
-
2) Для к = 0 , 1 , 2 ,... находим приближение V k :
V k +i = V k + t k W k , где W k — вектор направления убывания функции E ( x ( V ) , V ) в точке V k ; t k — шаг по направлению W k .
-
3) Проверка условия окончания метода для функции E ( x ( V ) , V ) в точке V = V k . Если условие выполнено - stop , не выполнено - к ^ к + 1 и переходим к пункту 2.
Замечание
-
1) Условие остановки метода ШФ для решения задач min E s ( x s , V ) , x s G R n s , и задачи (20) следующие:
-
а) выбирается достаточно малое значение коэффициента штрафа Т min ;
-
б) значения градиентов на k -м шаге целевых функций должны быть достаточно малы:
∂E s ∂x s
^ е, s = 1 ,N ; x s = x k
∂E ∂V
< Е. v = V k
-
2) В качестве штрафной функции P ( Т, а ) могут быть взяты, например, функции Тет или ^а2 T 4 + а . Помимо бесконечной дифференцируемости по а и Т > 0 , эти функции, как показано в [3], обеспечивают погрешность решения задач порядка малости T. Причем вторая из них, как показывает опыт решения тестовых задач, более удобна, поскольку сходимость численных методов может нарушаться из-за ограниченности области допустимых значений аргумента экспоненты.
Как указывалось выше, функция P ( Т,Х ) - гладкая, поэтому для применения метода ШФ необходимо знать значения grad v E ( x ( V ) , V ) = dV и матрицу вторых производных { dV dV - } , r,j = 1 , S. Дифференцируя сложную функцию ( x ( V ) , V ) по V, получим
∂E ∂E ∂ x ∂E
∂V
dV + dV ' dx
_ dE ^U dxs dE = dv + dV ‘ dxs, s=1
s где dv , s = 1 ,N — матрицы составлена из N матриц ∂∂Vx s .
∂E
∂V r
∂E N n ∂E ∂ x s
= dV r +^ ^ dx f ’ dV r ,r = , .
s =1 i =1 i
Так как grad xs Es (T,xs,V) = 'Ж- | x=xs = 0, то из (22) (или (23)) получим dE dE
dV = dV, т.е. для вычисления первых производных от вспомогательной функции (T,xs (V), V) не требуются значения матриц чувствительности dV-, s = 1, N.
Продифференцируем dE по V j , r,j = 1 , L :
d 2 E _ d 2 E I V N V n s d 2 E dV r dV j = dV r dV j + 2^ s =1 Z^i =1 dV r dx s
I V N V ns dx s / + Z^s =1 Z^i =1 dV
∂ 2 E
∂x i s ∂V r
, V n s d 2 E , dx s
+ j =1 =1 dx S dx s dV j .
dx S I V N V n s dE d 2 x S ,
’ dV j + S =i =1 Z^i =1 dx s ‘ dV r dV j +
Так как ddE = 0 , s = 1 , N, то третье слагаемое в (24) равно нулю. Продифференцируем Es = 0 , s = 1 ,N , по V j , получим
Е + £ .j = 0,s = 1N,j =iS.(26)
∂Vj∂xs ∂xs∂xs ∂Vj i j = 1
Таким образом, и четвертое слагаемое в (26) равно нулю. Из (25) в итоге получим
-
a 2 e = a 2 e + А Л d 2 e dx s
dVr dVj dVr dVj + ^ ^ dVr dxs dVj ’ s—1 i—1
где для вычисления dVly j надо знать N матриц чувствительности dx ^ , значения которых определяются из системы уравнений (26). Итак, имея в своем распоряжении формулы (24) и (27), можно для решения задач БМ найти:
min Е s ( x s , V ) , x s € R n , s = 1 ,N ;
min E ( X, V ) , V € R L , (29) применять численные методы 1-го и 2-го порядков и тем самым находить приближенные значения согласующих параметров V j , j = 1 , L и соответствующие им значения X s , s = 1 ,N , и f s ( X s ) и Е s = a s f s ( X s ) .
Отметим также одну важную специфику решения задачи (29). Дело в том, что процедура поиска минимума состоит из поиска направления W k движения к минимуму в пространстве R L и выбора величины шага t k по этому направлению. Использование стандартных алгоритмов оценки величины шага может потребовать затрат больших вычислительных ресурсов, поскольку для каждой пробной точки в R L потребуется решать N задач (28). Это следует обязательно учитывать, т.к. процедуры выбора шага t k и построения направления W k могут быть зависимыми. Одним из способов решения указанной проблемы является выбор такого метода решения задачи БМ (29), в котором число пробных шагов для выбора t k невелико. К таким методам относится метод Ньютона, у которого в его области сходимости t k = 1 .
Чувствительность оптимальных решений для систем ММ
Под чувствительностью решений ММ обычно понимают скорость измерения исследуемой функции в зависимости от значения параметров модели [4]. В нашем случае – это dxs (V) , v • ё dfs (Xs (V)) д EN- aSsfs (Xs (V)) • ғ производные dVj ', s = 1 ,N, j = 1 ,S, и J d)Vj^ ", а также s-1 dV, v v ", j = 1 ,S.
Для определения матрицы чувствительности dx djVV ) , s = 1 , N, j = 1 , S , необходимо решить систему линейных уравнений ЛУ (26).
Очевидно, значение dfs(Xs(V)) = .n^ dfs(Xs). dxss (V) j = ∂Vj ∂xi ∂Vj , ,
i —1
f s ( X s ) , , dx s ( V )
В (23) значение ∂E i находится прямым дифференцированием, а значения ∂V j берутся из решения систем ЛУ (26).
Значение производной (чувствительности) целевой функции составной ММ очевидно равно линейной комбинации производных N функций f s ( X s ) :
а Е ^ =1 a s f s ( X s ( V )) = Л г df s ( X s ) ^ dX s ( V ) j
∂V j ∂x i ∂V j , , .
s —1 i —1
Наше определение чувствительности решений (ЧР) является частным случаем ЧР, рассматриваемой в [5].
Для иллюстрации практического использования описанного подхода приведем пример. Необходимо связать в одну систему следующие ММ.
Модель 1. Минимизировать ( — 3 x 1 — x 2 ) при условиях: |
(32) |
|
0 ^ x 4 ^ 2; 0 ^ x 2 ^ 4 , 2 x 4 + x 2 ^ V l , x 1 + x 2 < V > • |
||
Модель |
2. Минимизировать (2 x 2 — x 2 ) при условиях: |
|
0 < x 2 < 3; 0 < x 2 < 3 , x 2 + 4 x 2 < V 3 , x 2 + x 2 < V 4 • |
(33) |
|
Модель |
3. Минимизировать ( — 2 x 3 — 3 x 2 ) при условиях: |
|
0 ^ x 3 ^ 5; 0 ^ x 2 ^ 3 , 3 x 3 + x 2 < V 5 , x 2 + x 2 < V 6 • |
(34) |
Модель 4. Минимизировать ( x4 — 2 x 2 ) при условиях:
0 ^ x4 ^ 4; 0 ^ x 2 ^ 5 ,
2 x 4 + 3 x 2 ^ V 7 , (35)
x 4 + x 2 ^ V 8 •
Модели 1, 2, 3, 4 сформулированы в виде задачи (5).
Составная модель имеет вид min(—3 x1 — x 2 + 2 x4 — x 2 — 2 x 4 — 3 x 2 + x4 — 2 x 2)
при условиях на x S , s = 1 , 4 , i = 1 , 2 , удовлетворяющих (30) - (34) и условию
^ V j ^ 19 • (36)
j =1
Штрафная функция P ( T, a ) = ^ a 2 + T 4 + a и T min = 0 , 01 •
Для решения задач БМ был применен метод Ньютона. Решение было получено на 9-й итерации. Согласно оценкам из [2], погрешность решения составила 2%. Приведем решение задачи (36) в табл. 1.
Итоговое решение
Общее число выполненных итераций: 9.
Общая вспомогательная функция : –19,10.
Норма вектора направления : 2 , 10 e 6 .
Величина шага по направлению : 0.
Таблица1
Модель |
1 |
2 |
3 |
4 |
Значения пере- |
1,00 |
0 |
0 |
0 |
менных x i s |
0 |
0,30 |
1,83 |
0,5 |
Целевая функция |
3 |
0,30 |
5,50 |
1,00 |
Вспомогательная функция |
–3,01 |
–0,33 |
–5,55 |
–1,03 |
Согласующие па- |
2,00 |
1,20 |
1,83 |
1,50 |
раметры V j |
1,00 |
1,00 |
1,83 |
1,00 |
Вектор направле- |
0,23 |
0,03 |
0,23 |
0,14 |
ния |
0,12 |
0 |
0,23 |
0 |
Заключение
В данной работе рассмотрен один из вариантов построения комплекса ММ сложной системы, состоящей из N отдельных объектов. Предложенная оптимизационная ММ была приведена к параметрической форме, допускающей построение декомпозиционной схемы ее решения. Для решения оптимизационных задач был применен метод гладких штрафных функций. Отмечена специфика декомпозиционной схемы решения этих задач и сформулирован алгоритм их решения. Декомпозиционная схема решения задач позволяет получить приближенные значения параметров чувствительности их решений. Как нам представляется, приведенная методика построения комплексы ММ и их решения применимы для построения широкого класса ММ экономических, социальных, технических и других систем.
Список литературы Об одном методе анализа решений оптимизационных задач для систем математических моделей
- Umnov A.E., Albegov M.M. An Approach to Distributed Modeling. IIASA, RR-82-3, Laxenburg, Austria, Feb. 1982
- Умнов А.Е. Метод штрафных функций в задачах большой размерности//Ж. вычисл. матем. и матем. физ. 1975. Т. 15, № 6. C. 1399-1411
- Марковцев Д.А., Умнов А.Е., Умнов Е.А. Параметрическая оптимизация для систем математических моделей//Сб. Тр. ИСА РАН. 2007. Т. 31(1). C. 42-50.
- Розенвассер Е.М., Юсупов Р.М. Чувствительность систем автоматического управления. Л.: Энергия, 1969.
- Измайлов А.Ф. Чувствительность в оптимизации. М.: Физматлит, 2006.
- Умнов А.Е., Умнов Е.А. Параметрический анализ решений задачи быстродействия для дискретных линейных моделей оптимального управления//Сб. Тр. ИСА РАН. 2007. Т. 31(1). C. 81-86.