- Дипломы
- Курсовые
- Рефераты
- Отчеты по практике
- Диссертации
Градиентный метод решения задач выпуклого программирования
Внимание: Акция! Курсовая работа, Реферат или Отчет по практике за 10 рублей!
Только в текущем месяце у Вас есть шанс получить курсовую работу, реферат или отчет по практике за 10 рублей по вашим требованиям и методичке!
Все, что необходимо - это закрепить заявку (внести аванс) за консультацию по написанию предстоящей дипломной работе, ВКР или магистерской диссертации.
Нет ничего страшного, если дипломная работа, магистерская диссертация или диплом ВКР будет защищаться не в этом году.
Вы можете оформить заявку в рамках акции уже сегодня и как только получите задание на дипломную работу, сообщить нам об этом. Оплаченная сумма будет заморожена на необходимый вам период.
В бланке заказа в поле "Дополнительная информация" следует указать "Курсовая, реферат или отчет за 10 рублей"
Не упустите шанс сэкономить несколько тысяч рублей!
Подробности у специалистов нашей компании.
Только в текущем месяце у Вас есть шанс получить курсовую работу, реферат или отчет по практике за 10 рублей по вашим требованиям и методичке!
Все, что необходимо - это закрепить заявку (внести аванс) за консультацию по написанию предстоящей дипломной работе, ВКР или магистерской диссертации.
Нет ничего страшного, если дипломная работа, магистерская диссертация или диплом ВКР будет защищаться не в этом году.
Вы можете оформить заявку в рамках акции уже сегодня и как только получите задание на дипломную работу, сообщить нам об этом. Оплаченная сумма будет заморожена на необходимый вам период.
В бланке заказа в поле "Дополнительная информация" следует указать "Курсовая, реферат или отчет за 10 рублей"
Не упустите шанс сэкономить несколько тысяч рублей!
Подробности у специалистов нашей компании.
Код работы: | W011619 |
Тема: | Градиентный метод решения задач выпуклого программирования |
Содержание
ВВЕДЕНИЕ Интенсивное развитие методов математического программирования связано с тем, что оптимизационные задачи играют большую роль в самых различных областях человеческой деятельности. Сейчас основное внимание уделяется развитию методов выпуклого программирования. Построен целый ряд алгоритмов, проведены исследования их сходимости. Однако эти алгоритмы применяются довольно редко, и нет достаточной информации, позволяющей судить об их сравнительной эффективности. При использовании методов выпуклого программирования решение исходной задачи обычно определяется как предел минимизирующей последовательности решений более простых (вспомогательных) экстремальных задач. Полагая в основу тип вспомогательных задач, большинство методов выпуклого программирования можно разделить на две группы. - К первой группе относятся методы, при реализации которых на каждом шаге приходится решать задачу минимизации линейной или выпуклой функции при линейных ограничениях. Это различные варианты метода возможных направлений (метод отсечения, проекций градиента). - Ко второй группе относятся методы, с помощью которых искомое решение определяется как предел последовательности безусловных минимумов специальным образом сконструированных вспомогательных функций: метод штрафных функций, центров, множителей Лагранжа. В дипломной работе рассматривается градиентный метод решения задач выпуклого программирования. Глава 1. Задача нелинейного программирования 1.1 Основные понятия задачи нелинейного программирования В большинстве инженерных задач построение математической модели не удается свести к задаче линейного программирования. Математические модели в задачах проектирования реальных объектов или технологических процессов должны отражать реальные протекающие в них физические и, как правило, нелинейные процессы. Переменные этих объектов или процессов связанны между собой физическими нелинейными законами, такими, как законы сохранения массы или энергии. Они ограничены предельными диапазонами, обеспечивающими физическую реализуемость данного объекта или процесса. В результате, большинство задач математического программирования, которые встречаются в научно-исследовательских проектах и в задачах проектирования – это задачи нелинейного программирования (НП). Пусть в математической модели проектируемого объекта или процесса непрерывная функция F(X ?) представляет собой функцию цели (функцию качества), h_1 (X ? ),h_2 (X ? ),h_3 (X ? ),…,h_m (X ? ), i=(1,m) ? (1.1) задают ограничения в виде равенств ?g_(m+1) (X ? ),g_(m+2) (X ? ),g_(m+3) (X ? ),…, g?_p (X ? ), j=(m+1,p) ? (1.2) задают ограничения в виде неравенств, где X ?=[x_1,x_2,x_3,…,x_n ],X ??E^n- вектор параметров проектируемого объекта, процесса или системы оптимальные значения которых должны быть найдены. Тогда задача нелинейного программирования может быть сформулирована следующим образом: найти вектор X ?=[x_1,x_2,x_3,…,x_n ],X ??E^n,доставляющий минимум (максимум) целевой функции F(X ? ) при m линейных и (или) нелинейных ограничений в виде равенств h_i (X ? )=0, i=(1,m) ? (1.3) и (p-m) линейных и (или) нелинейных ограничений в виде неравенств g_j (X ? )>0, j=(m+1,p) ? (1.4) В течение последних двух десятилетий из нелинейного программирования выделились самостоятельные разделы: -выпуклое программирование, -квадратичное программирование, -целочисленное программирование, -стохастическое программирование, -динамическое программирование и др. Задачи выпуклого программирования – это задачи, в которых определяется минимум выпуклой функции (или максимум вогнутой), заданной на выпуклом замкнутом множестве. Эти задачи среди задач нелинейного программирования наиболее изучены. Среди задач выпуклого программирования более подробно изучены задачи квадратичного программирования. В этих задачах целевая функция – квадратичная, а ограничения – линейны. В задачах целочисленного программирования неизвестные параметры могут принимать только целочисленные значения. В задачах стохастического программирования в целевой функции или в функциях ограничений содержатся случайные величины, которые подчиняются законам теории вероятностей. В задачах динамического программирования ограничения содержат как параметр время и при этом описываются дифференциальными уравнениями. Процесс нахождения решений в задачах динамического программирования является многоэтапные. 1.2 Классификация методов нелинейного программирования Для решения задачи нелинейного программирования было предложено много методов, которые можно классифицировать по различным признакам. По количеству локальных критериев в целевой функции методы нелинейного программирования делятся на: - однокритериальные, - многокритериальные. По длине вектора X ? методы делятся на: - однопараметрические или одномерные (n=1), - многопараметрические или многомерные (n>1). По наличию ограничений методы нелинейного программирования делятся на: - без ограничений (безусловная оптимизация), - с ограничениями (условная оптимизация). По типу информации, используемой в алгоритме поиска экстремума методы делятся на: - методы прямого поиска, т.е. методы, в которых при поиске экстремума целевой функции используются только ее значения; - градиентные методы первого порядка, в которых при поиске экстремума функции используются значения ее первых производных; - градиентные методы второго порядка, в которых при поиске экстремума функции наряду с первыми производными используются и вторые производные. Ни один метод нелинейного программирования не является универсальным. В каждом конкретном случае необходимо приспосабливать применяемый метод к особенностям решаемой задачи. 1.3 Выпуклое программирование Выпуклое программирование [convexprogramming] — раздел нелинейного программирования, совокупность методов решения нелинейных экстремальных задач с выпуклыми целевыми функциями (они минимизируются) и выпуклыми системами ограничений. Общая задача выпуклого программирования состоит в отыскании такого вектора x (т. е. такой точки выпуклого допустимого множества), который доставляет минимум выпуклой функции f(x) или максимум вогнутой функции y(x). Для второго случая (выпуклая область допустимых значений и максимум вогнутой функции) ряд авторов предпочитают термин “вогнутое программирование”. Выпуклость (вогнутость) важна тем, что гарантирует нахождение оптимального решения задачи, так как соответственно локальные и глобальный экстремумы здесь обязательно совпадают. Критериями оптимальности в первом случае могут быть, напр., издержки при различных сочетаниях факторов производства, во втором случае — величина прибыли при этих сочетаниях. Как видим, есть сходство между задачами выпуклого (вогнутого) и линейного программирования (последнее можно рассматривать как частный случай первого). Но нелинейность зависимостей делает задачу намного сложнее. Под задачей выпуклого программирования понимают задачу вида f(x ? )?min g_i (x ? )?0, i=(1,m) ? (1.5) где f(x ? ) и g_i (x ? )- выпуклые функции. Для этих задач характерно то, что любой локальный минимум оказывается глобальным, и все сводится к нахождению этого единственного минимума. Для решения задач этого типа разработаны многочисленные численные методы, приспособленные для решения на ЭВМ, в основном связанные с понятием градиента целевой функции и основной идеей о том, что функция наиболее быстро убывает, если двигаться в направлении, противоположном градиенту. К ним относятся метод градиентного спуска, метод сопряженных градиентов и т.д. Но есть и методы, основанные на других идеях ѕ метод штрафных функций, многочисленные варианты метода случайного поиска и т.д. Глава 2. Градиентные методы решения задач выпуклого программирования 2.1 Градиентные методы решения задач Методы, в основе которых лежит свойство градиента функции в точке (вектора частных производных, вычисленного в точке) как указателя направления наибольшего роста функции в окрестности точки называются градиентными. Используя градиентный метод, можно найти решение любой задачи нелинейного программирования. Применение этого метода в общем случае позволяет найти точку локального экстремума. Поэтому более целесообразно использовать его для нахождения решения задач выпуклого программирования. Процесс нахождения решения задачи с помощью градиентного метода состоит в том, что начиная с некоторой точки X^((k))осуществляется последовательный переход к некоторым другим точкам до тех пор, пока не будет найдено приемлемое решение исходной задачи. Градиентные методы могут быть подразделены на две группы. - К первой группе относятся методы, при использовании которых исследуемые точки не выходят за пределы области допустимых решений задачи. В данном случае наиболее распространенным является метод Франка – Вульфа. - Ко второй – методы, при использовании которых исследуемые точки могут как принадлежать, так и не принадлежать области допустимых решений. Однако в результате реализации итерационного процесса находится точка области допустимых решений, определяющая приемлемое решение. Наиболее часто используются метод штрафных функций и метод Эрроу – Гурвица. При нахождении решения задачи градиентными методами итерационный процесс продолжается до тех пор, пока градиент функции f(x_1,x_2,…,x_n) в очередной точке X^((k+1)) не станет равным нулю или же пока не выполнится неравенство |f? (X^((k+1) ) )-f(X^((k) ) |,где?>0 (точность полученного решения). Определение 1. Будем говорить, что в точке (x^((1) ),…,x^((n)) ) функция f_0 имеет минимум, если можно указать такое число ?>0, что при всех (x_1,…,x_n ), удовлетворяющих условию ? ?_(s=1)^n?(x_s-x_s^((0) ) ) ?^2, (1) будет f_0 (x_1^((0)),…,x_n^((0)) )?(x_1,…,x_n ); (2) при этом точку (x_1^((0)),…,x_n^((0)) ) называют точкой строгого минимума, если для всех (x_1,…,x_n ), удовлетворяющих (1) и не совпадающих с (x_1^((0)),…,x_n^((0)) ), неравенство (2) имеет место в строгом смысле. Перейдем теперь к рассмотрению непрерывных способов минимизации функций многих переменных. С этой целью рассмотрим систему дифференциальных уравнений {?(?dx?_s/dt=f_s (x_1,…,x_n, ? y?_1,…,y_n ); @? y?_s=?df?_0/?dx?_s (x_1,…,x_n ), s=1,…,n. )? (3) Теорема 1. Пусть 1) функции f_s (s=1,…,n) заданы при любых вещественных значениях своих аргументов, вещественны и непрерывно дифференцируемы по своим по своим аргументам; 2) градиент функции f_0 обращается в нуль в единственной точке, являющейся оптимальной точкой функции f_0; 3) f_s (x_1,…,x_n; y_1,…,y_n )=0 лишь при y_1=…=y_n=0; 4) интегральные кривые системы (3) продолжимы при t?(-?,+?); 5) функция W=?_(s=1)^n??y_s f_s ? отрицательно определена и при ?_(s=1)^n??x_s^2??+? окончательно удовлетворяет неравенству ?_(s=1)^n??y_s f_s<0, ?=const.? Тогда любая интегральная кривая ? x?_s=x_s (t,x ?_1,…, x ?_n ), s=1,…,n. (4) системы (3) такая, что x_s=x ?_s при t=0, обладает свойством x_s?x_s^((0)) при t?+?, где (x_1^((0)),…,x_n^((0)) )- оптимальная точка функции f_0. Следствие 1. Если градиент функции f_0 обращается в нуль в единственной точке, являющейся оптимальной точкой функции f_0, и имеет место неравенство ?_(s=1)^n??(??f?_0/??x?_s )^2>?_1>0? при ?_(s=1)^n?x_s^2 ?+?, то и любая интегральная кривая ? x?_s=x_s (t), s=1,…, n, (5) системы ?dx?_s/dt=-??f?_0/??x?_s , s=1,…, n, (6) обладает свойством x_s (t)?x_s^((0)) при t?+?. Следствие 2. Если f_0 достигает в некоторой точке (x_1^((0)),…,x_n^((0)) ) минимума, то эта точка для системы (6) является устойчивой по Ляпунову. Если же в достаточно малой ее окрестности градиент функции f_0 не обращается в нуль нигде за исключением самой точки, то (x_1^((0)),…,x_n^((0)) ) будет асимптотически устойчивой. И, наконец, если grad f_0 обращается в нуль в единственной точке и выполнены условия следствия 1, то оптимальная точка функции f_0 будет асимптотически устойчивой в целом. Обратимся теперь к рассмотрению проблемы минимизации функций многих переменных при наличии ограничений. Рассмотрим ограничение вида ? f?_j (x_1,…,x_n )=0, j=1,…,l. (7) Определение 3. Точку (x_1^((0)),…,x_n^((0)) ) назовем точкой минимума функции f_0 (x_1,…,x_n ) при условии (7), если существует ?>0 такое, что при всех (x_1,…,x_n ), удовлетворяющих (7) и условию ?_(s=1)^n?(x_s-x_s^((0) ) )^2 , (8) будет f_0 (x_1^((0)),…,x_n^((0)) ) |
Для получения полной версии работы нажмите на кнопку "Узнать цену"
Узнать цену | Каталог работ |
Похожие работы:
- Метод цепных подстановок, метод абсолютных разниц, метод относительных разниц, индексный метод факторного анализа
- Метод моделирования на уроках геометрии в основной школе с использованием GeoGebra (на примере практико-ориентированных задач на построение)
- Основные подходы и методы решения логистических задач