Підпишись та читай
найцікавіші
статті першим!

Прийняти оптимальне рішення класичним методом. Методи випадкового пошуку. Податкова оптимізація: методи

із загальної сукупності варіантів, можна побудувати гістограму, оцінити, наскільки часто зустрічаються гарні варіанти, і, нарешті, можна ухвалити рішення – продовжувати пошук або обмежитися знайденим рішенням.

Незважаючи на універсальність і простоту процедури випадкового зондування, нею не можна обмежуватися через значну обчислювальну трудомісткість. Тому більшого поширення набули методи спрямованого пошукурішення.

4.5.3. Методи безумовної оптимізації

Необхідні умови досягнення екстремуму у всіх розглянутих вище формах призводять до вирішення системи не лінійних рівнянь- Завданню дуже складною і трудомісткою (навіть у обчислювальній математиці частіше зводять рішення нелінійних рівнянь до якоїсь задачі оптимізації). Тому практично застосовують інші підходи до оптимізації функцій, розгляд яких почнемо з про прямих методів. Надалі тут говоритимемо про мінімізацію, тож екстремум – це мінімум.

Нині розроблено безліч чисельних методів для як безумовної, і умовної оптимізації. Якість чисельного методу характеризується багатьма чинниками: швидкістю збіжності, часом виконання однієї ітерації, обсягом пам'яті ЕОМ, необхідним реалізації методу, класом розв'язуваних завдань тощо. буд. Розв'язувані завдання також дуже різноманітні: можуть мати високу і малу розмірність, бути унімодальними і багатоекстремальними і т. д. Один і той самий метод, ефективний для вирішення завдань одного типу, може виявитися абсолютно неприйнятним для завдань іншого типу.

Нижче наводиться огляд основних методів розв'язання задач нелінійного програмування. Слід пам'ятати, що перелік таких методів дуже широкий і залишається відкритим. Крім того, для ряду методів, що розглядаються, відомі різні модифікації. Більш детальну інформацію можна отримати, на-

Наприклад, в.

Почнемо із розгляду прямих методів безумовної оптимізації, коли обмеження відсутні.

Сенс прямих методів безумовної оптимізації полягає в побудові послідовності точок X, X, …, X, таких,

що f(X)>f(X)>… …>f(X). Як початкова точка X може бути обрана довільна точка, проте прагнуть її вибрати якомога ближче до точки мінімуму. Перехід (ітерація) від точки Х до точки Х, k = 0,1,2, ... складається з двох етапів:

вибір напрямку руху з точкиХ;

визначення кроку вздовж цього напряму.

Методи побудови таких послідовностей часто називають методами спуску, оскільки здійснюється перехід від більших значень функції до менших.

Математично методи спуску описуються співвідношенням

X = X + ak p , k = 0,1,2,...,

де p - одиничний вектор, що визначає напрямок спуску;

a k - Довжина кроку.

Різні методи спуску відрізняються один від одного способами вибору p і ak. Насправді застосовуються лише методи, які мають збіжністю. Вони дозволяють за кінцеву кількість кроків отримати точку мінімуму або підійти до неї досить близько. Якість схожих ітераційних методів оцінюють за швидкістю збіжності.

Теоретично у методах спуску завдання вирішується за нескінченну кількість ітерацій. На практиці обчислення припиняють при виконанні деяких критеріїв (умов) зупинки ітераційного процесу. Наприклад, це може бути умова малості приріст-

аргументу

X[ k] − X[ k − 1 ]

f (X [k ]) - f (X [k - 1])< γ . Здесь k – номер итерации; ε , γ – задан-

ні величини точності розв'язання задачі.

Методи пошуку точки мінімуму називаються детермінованими, якщо обидва параметри переходу від X до X (напрямок руху та величина кроку) вибираються однозначно за доступною в точці X інформації. Якщо ж під час переходу використовується якийсь випадковий механізм, алгоритм пошуку називається випадковим пошуком мінімуму.

Детерміновані алгоритми безумовної мінімізації поділяють класи залежно від виду використовуваної інформації. Якщо кожної ітерації застосовують лише значення мінімізованих функцій, то метод називається методом нульового порядку. Якщо, крім того, потрібно обчислення перших похідних функції, що мінімізується, то мають місце методи першого порядку,

за потреби додаткового обчислення других похідних – методи другого порядку.

Слід зазначити, що при вирішенні завдань безумовної мінімізації методи першого та другого порядків мають, як правило, більш високу швидкість збіжності, ніж методи нульового порядку. Однак на практиці обчислення перших та других похідних функції великої кількості змінних дуже трудомістке. У ряді випадків вони не можуть бути отримані як аналітичні функції. Похідні різними чисельними методами визначають помилки, які можуть обмежити застосування таких методів. З іншого боку, критерій оптимальності може бути заданий над явному вигляді, а системою рівнянь. І тут аналітично чи чисельно знайти похідні стає дуже складно, інколи ж неможливо. Тому докладніше тут розглядаються методи нульового порядку.

Методи одновимірного пошуку. Перелік методів одновимірного пошуку – чисельного пошуку екстремуму функції одного аргументу f(x ) – досить широкий і добре висвітлений у літературі. Тому тут обмежимося розглядом лише одного методу, який, за досвідом авторів, є одним із найефективніших – методу «золотого перерізу».

Ідея методу полягає в послідовному скороченні інтервалу невизначеності – інтервалу значень аргументу x , що містить точку мінімуму, – до довжини, що не перевищує

допустимої похибки результату ε. Як вихідний інтервал може розглядатися задана умовами завдання допустима область значень аргументу або, у разі, коли остання не має лівої та (або) правої меж, деяка область всередині допустимої, на належність до якої шуканого мінімуму вказує попередній аналіз.

Усередині будь-якого інтервалу містяться дві точки x = y 0 і x = z 0 , що виконують його «золотий переріз» – розбиття на дві нерівні частини такі, що відношення більшої частини до довжини всього інтервалу збігається зі ставленням меншої частини до більшої. Очевидно, ці точки розташовані симетрично щодо центру інтервалу (рис. 26). Координати точок «золотого перерізу» можуть бути знайдені з відповідних пропорцій:

b − y0

y0 − a

= δ ,

z0 − a

b − z0

= δ,

b − a

b − y

b − a

− a

звідки неважко отримати δ =(1–δ )/δ і дійти рівняння: δ 2 +δ –1=0. В результаті отримаємо відносні частки, що визначають «золотий переріз» інтервалу: =0,618, 1-=0,382. «Золотий перетин» має важливу властивість: точка y 0 є однією з точок «золотого перерізу» інтервалу, точка z 0 – однією з точок «золотого перерізу» інтервалу. У цьому убі-

чекає простий розрахунок: 0,382/0,618 = 0,618 та (0,618–0,382)/0,618 = = 0,382.

Алгоритм пошуку мінімуму, побудований на основі методу «золотого перерізу», передбачає на кожній ітерації вибір як одну з меж скороченого інтервалу лівої або правої точки «золотого перерізу» таким чином, щоб мінімум, що шукається, зберігався всередині нього:

1. Задають k =0, вихідний інтервал невизначеності, допустиму похибку результату ε.

2. Обчислюють координати точок «золотого перерізу»:

y k = a k +0,382 (b k -ak), z k = a k +0,618 (b k -ak).

3. Обчислюють значення цільової функції у знайдених точках

f (y k) і f (z k).

4. Якщо f (y k )≤f (z k ) (рис. 26, а ), надають a k + 1 = a k , b k + 1 = z k , z k + 1 = y k , y k + 1 = a k + z k –y k , k =k +1. В іншому випадку (рис. 26, б) a k + 1 = y k, b k + 1 = b k, y k + 1 = z k, z k + 1 = y k + b k -z k, k = k +1.

5. Перевіряють виконання умови завершення пошуку

b k + 1 − ak + 1 ≤ ε . У разі виконання як рішення вибирають точку x = (y k + 1 + z k + 1 ) 2 . В іншому випадку переходять до кроку 2.

Обчислювальна ефективність методу «золотого перерізу» зумовлена ​​тим, що на кожній ітерації потрібно лише одноразове обчислення значення цільової функції.

Метод прямого пошуку (метод Хука-Джівса). Задаються деякими-

торою початковою точкою Х . По черзі змінюючи компоненти вектора Х обстежують околицю даної точки, в результаті чого знаходять точку (новий базис), що визначає напрям, в якому відбувається зменшення функції f (Х ), що мінімізується. У вибраному напрямку здійснюють спуск, переконуючись, що значення функції зменшується. Процедура циклічно повторюється, поки вдається знаходити напрямок спуску з урахуванням прийнятої умови зупинки.

Алгоритм методу прямого пошуку в самому загальному виглядіможна сформулювати наступним чином:

1. Задаються значеннями координат х i , i = 1,2, ... n початкової точки (k = 0), вектором початкових прирощень координат

∆ X = (∆ х 1 , ∆ х 2 ,…, ∆ х n ) у процесі обстеження околиці, найменшим допустимим значенням ε компонент ∆ X , що прискорює множником λ ≥ 1, що визначає швидкість спуску, масштабним коефіцієнтом d >1.

2. Приймають Х як «старий базис» : X б =Х . Обчислюють

значення f (X б).

3. По черзі змінюють кожну координату х б i, i = 1,2, ... n,

точки X б на величину ∆ х i , тобто приймають х i = х б i + ∆ х i , потім

х i = х б i –∆ х i. Обчислюють значення f (X ) в пробних точках, що одержуються, і порівнюють їх зі значенням f (X б ). Якщо f (X)< < f (X б ), то соответствующая координата х i приобретает новое значение, вычисленное по одному из приведенных выражений. В противном случае значение этой координаты остается неизменным. Если после изменения последней n -й координаты f (X )

4. Здійснюють спуск у напрямку від «старого» до «нового» базису через останній, тобто обчислюють координати нової точки

X : х i = х i + λ (х i -х бi), i = 1,2, ... n. Обчислюють значення f(X). Якщо виконується умова f(X)

«новий» базис приймають «старим» (X б = Х, f (X б) = f (X)) і переходять до п. 5. В іншому випадку приймають х i = х i, i = 1,2, ... n .

5. Як і п. 3, по черзі змінюють кожну координату точки X , порівнюючи відповідні значення функції f (Х ) зі значенням f ( X ), отриманим у п. 4. Після зміни останньої координати порівнюють відповідне значення

функції f (X ) зі значенням f ( X б ), отриманим у п. 4. Якщо f (X )

6. Якщо для всіх i ∆ х i<ε , вычисления прекращаются. В противном случае уменьшают значения ∆ х i в d раз и переходят к п. 3.

Роботу алгоритму проілюстровано рис. 27. Показані лінії

рівня мінімізованої функції f (x 1, x 2), тобто лінії, одержувані з умов f (x 1, x 2) = f 1 = const, f (x 1, x 2) = f 2 = const і так далі. Тут f 1 > f 2 > f 3 . Суцільні лінії – результати одноразового виконання пп. 3...5 (пошук напрямку зменшення функції та спуск), пунктирна лінія – наступний спуск.

Перевагою методу прямого пошуку є простота його програмування на комп'ютері. Він не вимагає знання цільової функції у явному вигляді, а також легко враховує обмеження на окремі змінні, а також складні обмеження на область пошуку.

Недолік методу прямого пошуку полягає в тому, що у разі сильно витягнутих, вигнутих або володіючих гострими кутами ліній рівня цільової функції він може виявитися нездатним забезпечити просування до точки мінімуму через обмежену кількість напрямків, що аналізуються.

Метод деформованого багатогранника (метод Нелдера-Міда) полягає в тому, що для мінімізації функції n змінних f(X) у n-мірному просторі будується багатогранник, що містить n +1 вершину. Очевидно, що кожна вершина відповідає деякому вектору Xi . Обчислюють значення цільової функції f(Xi), i=1,2,…, n +1, у кожній з вершин багатогранника, визначають максимальне з цих значень та відповідну йому вершину Xh . Через цю вершину і центр тяжкості інших вершин проводять проецирующую пряму, де знаходиться точка Xq з меншим значенням цільової функції, ніж у вершині Xh (рис. 28, а ). Потім виключають вершину Xh . З вершин, що залишилися, і точки Xq будують новий багатогранник, з яким повторюють описану процедуру. У виконання таких операцій багатогранник змінює свої розміри, як і зумовило назву методу.

Введемо такі позначення: X – вектор координат i-ї вершини багатогранника на k-му етапі пошуку, i= 1,2,…n +1, k= 1,2,…; h – номер вершини, де значення цільової

шин, крім X . Координати центру тяжкості вираху-

xj [n + 2, k] =

n+ 1

ляють за формулою

∑ xj [ i, k] − xj [ h, k]

J = 1,2, ... n.

j = 1

Прикладний алгоритм методу багатогранника, що деформується, полягає в наступному:

1. Визначаються коефіцієнтами відображенняα , розтягування γ >1, стиснення β<1 , допустимой погрешностью определения координат

точки мінімуму ε. Вибирають координати вершин вихідного багатогранника X, i = 1,2, ... n +1, k = 1.

2. Обчислюють значення цільової функції у всіх вершинах f (X), i = 1,2, ... n +1, і знаходять точки X, X (на рис. 28, б точки відповідно X 2 і X 1), а також X.

3. Здійснюють проектування точки X через центр тя-

жерсті: X = X + α (X - X).

4. Якщо f (X )≤ X , виконують операцію розтяжі-

ня: X = X + γ (X - X). В іншому випадку переходять до п. 6.

5. Будують новий багатогранник: якщо f (X)

заміною X на X, інакше – заміною X на X. Продовжують обчислення п. 2 при k =k +1.

6. Якщо X >f (X )>X для всіх i , не рівних h ,

виконують операцію стиснення: X = X + β (X - X). Будують новий багатогранник заміною X на X і продовжують обчислення п. 2 при k =k +1.

7. Якщо f (X )>X , то, зберігаючи вершину X , будують новий багатогранник, подібний до поточного, зменшенням довжин всіх ребер в два рази: X =X +0,5(X –X ) і продовжують обчислення з п. 2 при k = k +1.

У пп. 6, 7 перед переходом до п. 2 необхідна перевірка виконання умови завершення пошуку мінімуму, наприклад, за умов-

вію max n ∑ + 1 (x j [i, k] - x j [n + 2, k]) 2< ε 2 .

i j = 1

З допомогою операції розтягування та стиснення розміри та форма деформованого багатогранника адаптуються до топографії цільової функції. В результаті багатогранник витягується вздовж довгих похилих поверхонь, змінює напрямок у вигнутих западинах, стискається в околиці мінімуму, що визначає ефективність розглянутого методу.

α =1, 2≤ γ ≤3, 0,4≤β ≤0,6.

Метод координат, що обертаються (метод Розенброка). Його суть полягає у послідовних поворотах системи координат відповідно до зміни напряму найбільш швидкого зменшення цільової функції (рис. 29). З початкової точки X здійснюють спуск у крапку X за напрямами, паралельними координатним осям. На наступній ітерації одна з осей має проходити у напрямку x'1 = X-X, інші – у напрямках, перпендикулярних до x’1 . Спуск уздовж цих осей призводить до точки X що дає можливість побудувати новий вектор x''1 = X-X та на його базі нову системунапрямів пошуку

точки мінімуму X.

У На відміну від інших методів нульового порядку, метод Розенброка орієнтований на відшукання оптимальної точки в кожному напрямку, а не просто на фіксований зсув по всіх напрямках. Величина кроку процесі пошуку безперервно змінюється залежно від рельєфу поверхні рівня. Поєднання обертання координат із регулюванням кроку робить метод Розенброка ефективним під час вирішення складних завдань оптимізації.

У зокрема, даний метод на відміну багатьох інших ефективний при мінімізації про "яружних" функцій (з сильно витягнутими поверхнями рівня), оскільки результуючий напрямок пошуку прагне розташуватися уздовж осі «яру».

Метод паралельних дотичних (метод Пауелла). Його суть полягає в послідовному проведенні одновимірного пошуку мінімуму цільової функції по n+1 напрямку будь-яким із відомих одновимірних методів. На першій ітерації як перші n напрямів вибираються координатні, як(n+1)-го напрями використовується перший із них (рис. 30). На кожній наступній ітерації пошук починається з другого напряму попередньої ітерації, відповідно номери напрямів зменшуються на одиницю;(n+1)-е напрямок наступної ітерації задається вектором X-X [n + 1] - З точки мінімуму, знайденої на першому кроці попередньої ітерації, через точку мінімуму, знайдену на останньому її кроці.

Найбільш прийнятний варіант рішення, яке приймається на управлінському рівні щодо будь-якого питання, прийнято вважати оптимальним, а процес його пошуку - оптимізацією.

Взаємозалежність і складність організаційних, соціально-економічних, технічних та інших аспектів управління виробництвом в даний час зводиться до прийняття управлінського рішення, яке зачіпає велику кількість різного роду факторів, що тісно переплітаються один з одним, через що стає неможливим зробити аналіз кожного окремо з використанням традиційних аналітичних. методів.

Більшість чинників виступають визначальними у процесі прийняття рішення, і вони (за своєю суттю) не піддаються будь-якій кількісній характеристиці. Також існують такі, які практично незмінні. У зв'язку з цим виникла необхідність у розробці спеціальних методів, здатних забезпечити вибір важливих управлінських рішень у рамках складних організаційних, економічних, технічних завдань (експертні оцінки, дослідження операцій та методи оптимізації та ін.).

Методи, спрямовані на дослідження операцій, застосовуються з метою пошуку оптимальних рішень у таких галузях управління, як організація процесів виробництва та перевезень, планування великомасштабного виробництва, матеріальне та технічне постачання.

Методи оптимізації рішень полягають у дослідженні за допомогою порівняння числових оцінок низки факторів, аналіз яких традиційними методамиздійснити не можна. Оптимальне рішення - найкраще серед можливих варіантівщодо економічної системи, а найбільш прийнятне щодо окремо взятих елементів системи – субоптимальне.

Сутність методів дослідження операцій

Як вже згадувалося раніше, вони формують методи оптимізації управлінських рішень. Їх основа - математичні (детерміновані), імовірнісні моделі, що становлять досліджуваний процес, вид діяльності чи систему. Такі моделі представляють кількісну характеристику відповідної проблеми. Вони є основою прийняття важливого управлінського рішення процесі пошуку оптимально прийнятного варианта.

Перелік питань, які відіграють істотну роль для безпосередніх керівниківвиробництва та які дозволяються в ході використання аналізованих методів:

  • ступінь обґрунтованості вибраних варіантів рішень;
  • наскільки вони кращі за альтернативні;
  • ступінь обліку визначальних факторів;
  • який критерій оптимальності обраних рішень.

Дані способи оптимізації рішень (управлінських) орієнтовані пошук оптимальних рішень для якомога більшої кількості фірм, підприємств чи його підрозділів. Вони ґрунтуються на існуючих досягненнях статистичних, математичних та економічних дисциплін (теорії ігор, масового обслуговування, графіків, оптимального програмування, математичної статистики).

Методи експертних оцінок

Дані методи оптимізації управлінських рішень застосовуються, коли завдання частково або повністю не схильна до формалізації, а також її рішення не може бути знайдено за допомогою математичних методів.

Експертиза - це дослідження складних особливих питань на етапі вироблення певного управлінського рішення відповідними особами, які мають спеціальний багаж знань і значний досвід, для отримання висновків, рекомендацій, думок, оцінок. У процесі експертного дослідження застосовуються новітні досягнення та науки та техніки в рамках спеціалізації експерта.

Розглянуті методи оптимізації ряду управлінських рішень (експертних оцінок) ефективні у вирішенні перерахованих нижче управлінських завдань у сфері виробництва:

  1. Вивчення складних процесів, явищ, ситуацій, систем, що характеризуються неформалізованими, якісними характеристиками.
  2. Ранжування та визначення згідно з заданим критерієм суттєвих факторів, що виступають визначальними щодо функціонування та розвитку виробничої системи.
  3. Розглянуті методи оптимізації особливо ефективні у сфері прогнозування тенденцій розвитку системи виробництва, і навіть її взаємодії із зовнішнім середовищем.
  4. Підвищення надійності експертної оцінки переважно цільових функцій, що мають кількісний та якісний характер, за допомогою усереднення думок кваліфікованих фахівців.

І це лише деякі методи оптимізації низки управлінських рішень (експертної оцінки).

Класифікація аналізованих методів

Методи вирішення задач оптимізації, виходячи з числа параметрів, можна поділити на:

  • Методи оптимізації одновимірної.
  • Методи оптимізації багатовимірної.

Їх ще називають "чисельні методи оптимізації". Якщо точним, це алгоритми її пошуку.

У рамках застосування похідних методи бувають:

  • прямі методи оптимізації (нульового порядку);
  • градієнтні способи (1-го порядку);
  • методи 2-го порядку та ін.

Більшість методів багатовимірної оптимізації наближена до завдання другої групи методів (одномірної оптимізації).

Методи одновимірної оптимізації

Будь-які чисельні методи оптимізації засновані на наближеному чи точному обчисленні таких її характеристик, як значення цільової функції та функцій, які задають допустиму множину, їх похідні. Так, для кожного окремого завдання питання щодо вибору характеристик для обчислення може бути вирішене в залежності від існуючих властивостей аналізованої функції, наявних можливостей та обмежень у зберіганні та обробці інформації.

Існують такі методи розв'язання задач оптимізації (одномірної):

  • метод Фібоначчі;
  • дихотомії;
  • золотого перерізу;
  • подвоєння кроку.

Метод Фібоначчі

Для початку необхідно встановити координати т. x на проміжку як число, що дорівнює відношенню різниці (x - a) до різниці (b - a). Отже, a має щодо проміжку координату 0, а b - 1, середня точка -?

Якщо припустити, що F0 і F1 між собою рівні і набувають значення 1, F2 дорівнюватиме 2, F3 - 3, …, то Fn = Fn-1 + Fn-2. Отже, Fn – числа Фібоначчі, а пошук Фібоначчі – це оптимальна стратегія так званого послідовного пошуку максимуму через те, що вона досить тісно пов'язана з ними.

У рамках оптимальної стратегії прийнято вибирати xn – 1 = Fn-2: Fn, xn = Fn-1: Fn. При будь-якому з двох інтервалів (або ), кожен з яких може виступати як звужений інтервал невизначеності, точка (успадкована) щодо нового інтервалу матиме або координати, або . Далі, як xn - 2 приймається точка, яка має щодо нового проміжку одну з представлених координат. Якщо використовувати F(xn - 2), значення функції, успадковане від попереднього проміжку, стає можливим скорочення інтервалу невизначеності та передача у спадок одного значення функції.

На фінішному етапі вдасться перейти до такого інтервалу невизначеності, як , причому середня точка успадкована від попереднього кроку. Як x1 встановлюється точка, яка має відносну координату ½+ε, а остаточний інтервал невизначеності буде або [½, 1] по відношенню до .

На 1-му етапі довжина цього інтервалу скоротилася до Fn-1: Fn (з одиниці). На фінішних етапах скорочення довжин відповідних інтервалів представляється числами Fn-2: Fn-1, Fn-3: Fn-2, …, F2: F3, F1: F2 (1 + 2ε). Отже, довжина такого інтервалу, як остаточний варіант, прийме значення (1 + 2ε) : Fn.

Якщо знехтувати ε, то асимптотично 1: Fn дорівнюватиме rn, при цьому n→∞, а r = (√5 - 1) : 2, що приблизно дорівнює 0,6180.

Варто зазначити, що асимптотично для значних n кожен наступний крок пошуку Фібоначчі істотно звужує інтервал, що розглядається, з вищевказаним коефіцієнтом. Цей результат потрібно порівняти з 0,5 (коефіцієнт звуження інтервалу невизначеності в рамках методу бісекції для пошуку нуля функції).

Метод дихотомії

Якщо уявити певну цільову функцію, то спочатку потрібно знайти її екстремум на проміжку (a; b). Для цього вісь абсцис ділиться на чотири еквівалентні частини, потім необхідно визначити значення функції, що розглядається в 5 точках. Далі вибирається мінімум серед них. Екстремум функції повинен лежати в межах проміжку (a"; b"), який прилягає до точки мінімуму. Кордони пошуку звужуються вдвічі. А якщо мінімум розташований у т. a або b, то він звужується у всі чотири рази. Новий інтервал також поділяється на чотири рівні відрізки. У зв'язку з тим, що значення цієї функції у трьох точках були визначені на попередньому етапі, далі потрібно обчислити цільову функцію у двох точках.

Метод золотого перерізу

Для суттєвих значень n координати таких точок, як xn та xn-1 наближені до 1 - r, що дорівнює 0,3820, а r ≈ 0,6180. Поштовх з цих значень дуже близький до оптимальної стратегії, що шукається.

Якщо припустити, що F(0,3820) > F(0,6180), тоді окреслюється інтервал . Однак через те, що 0,6180 * 0,6180 ≈ 0,3820 ≈ xn-1, то в цій точці F вже відома. Отже, кожному етапі, починаючи з 2-го, необхідно лише одне обчислення цільової функції, у своїй кожен крок скорочує довжину аналізованого інтервалу з коефіцієнтом 0,6180.

На відміну від пошуку Фібоначчі, у цьому методі не потрібно фіксувати число n ще до початку пошуку.

«Золотий переріз» ділянки (a; b) - переріз, при якому відношення його r довжини до більшої частини (a; c) ідентичне відношенню більшої частини r до меншої, тобто (a; с) до (c; b). Неважко здогадатися, що r визначається за розглянутою вище формулою. Отже, при суттєвих n метод Фібоначчі перетворюється на даний.

Метод подвоєння кроку

Суть - пошук напрямку зменшення цільової функції, рух у цьому напрямі у разі успішного пошуку з поступово зростаючим кроком.

Спочатку визначаємо початкову координату M0 функції F(M), мінімальне значення кроку h0, напрямок пошуку. Потім визначаємо функцію т. M0. Далі робимо крок і знаходимо значення цієї функції у цій точці.

Якщо функція менша за значення, яке було на попередньому кроці, слід зробити наступний крок у тому ж напрямку, попередньо збільшивши його в 2 рази. При її значенні, яке більше попереднього, потрібно змінити напрямок пошуку, а потім почати рухатися у вибраному напрямку з кроком h0. Поданий алгоритм можна модифікувати.

Методи багатовимірної оптимізації

Вищезгаданий метод нульового порядку не бере до уваги похідні мінімізованої функції, через що їх використання може бути ефективним у разі виникнення будь-яких труднощів з обчисленням похідних.

Групу методів 1-го порядку ще називають градієнтними, тому що для встановлення напряму пошуку застосовують градієнт цієї функції - вектор, складовими якого виступають приватні похідні мінімізованої функції за відповідними оптимізованими параметрами.

У групі методів 2-го порядку застосовуються 2 похідні (їх використання досить обмежене через наявність труднощів у їх обчисленні).

Перелік методів безумовної оптимізації

При використанні багатовимірного пошуку без застосування похідних методи безумовної оптимізації:

  • Хука та Джівса (здійснення 2 видів пошуку - за зразком та досліджуючий);
  • мінімізації за правильним симплексом (пошук точки мінімуму відповідної функції за допомогою порівняння на кожній окремій ітерації її значень у вершинах симплексу);
  • циклічного координатного спуску (використання як орієнтири пошуку координатних векторів);
  • Розенброка (заснований на застосуванні одновимірної мінімізації);
  • мінімізації за деформованим симплексом (модифікація методу мінімізації за правильним симплексом: додавання процедури стиснення, розтягування).

У ситуації використання похідних у процесі багатовимірного пошуку виділяють метод якнайшвидшого спуску (найбільш фундаментальна процедура мінімізації функції, що диференціюється, з декількома змінними).

Також виділяють ще такі методи, які використовують пов'язані напрямки (Метод Девідона-Флетчера-Пауелла). Його суть - подання напрямів пошуку як Dj * grad (f (y)).

Класифікація математичних методів оптимізації

Умовно, виходячи з розмірності функцій (цільових), вони бувають:

  • з 1 змінною;
  • багатовимірні.

Залежно від функції (лінійна чи нелінійна) існує велика кількість математичних методів, спрямованих на пошук екстремуму для вирішення поставленого завдання.

За критерієм застосування похідних математичні методи оптимізації поділяються на:

  • методи обчислення 1 похідної цільової функції;
  • багатовимірні (1-а похідна-векторна величина-градієнт).

Виходячи з ефективності обчислення, існують:

  • методи швидкого обчислення екстремуму;
  • спрощеного обчислення.

Це умовна класифікація аналізованих методів.

Оптимізація бізнес-процесів

Методи тут можуть використовуватися різні, залежно від проблем, що вирішуються. Прийнято виділяти такі методи оптимізації бізнес-процесів:

  • виключення (зменшення рівнів існуючого процесу, ліквідація причин перешкод та вхідного контролю, скорочення транспортних шляхів);
  • спрощення (полегшене проходження замовлення, зниження комплексності продуктової структури, розподіл робіт);
  • стандартизації (використання спеціальних програм, методів, технологій тощо);
  • прискорення (паралельний інжиніринг, стимуляція, оперативне проектування дослідних зразків, автоматизація);
  • зміна (зміни у сфері сировини, технологій, методів робіт, кадрового розташування, робочих систем, обсягу замовлення, порядку обробки);
  • забезпечення взаємодії (щодо організаційних одиниць, персоналу, робочої системи);
  • виділення та включення (щодо необхідних процесів, комплектуючих).

Податкова оптимізація: методи

Російське законодавство надає платнику податків дуже багаті можливості скорочення розмірів податків, через що прийнято виділяти такі способи, спрямовані на їхню мінімізацію, як загальні (класичні) і спеціальні.

Загальні методи податкової оптимізації:

  • опрацювання облікової політики компанії з максимально можливим застосуванням наданих російським законодавствомможливостей (порядок списання МШП, вибір методу розрахунку виручки від товару та ін.);
  • оптимізація за допомогою договору (укладання пільгованих угод, чітке та грамотне використання формулювань тощо);
  • застосування різноманітних пільг, податкових звільнень.

Другу групу методів також можуть використовувати всі фірми, проте вони все ж таки мають досить вузьку область застосування. Спеціальні методи оптимізації податків такі:

  • заміни відносин (операція, що передбачає обтяжливе оподаткування, заміщується іншою, що дозволяє досягти аналогічну мету, але при цьому використовувати пільговий порядок податкового оподаткування).
  • поділу відносин (заміна лише частини господарської операції);
  • відстрочення податкового платежу (перенесення моменту появи об'єкта оподаткування на інший календарний період);
  • прямого скорочення об'єкта податкового оподаткування (позбавлення багатьох оподатковуваних операцій чи майна без надання негативного впливу основну господарську діяльність підприємства).

Класичні методи безумовної оптимізації

Вступ

Як відомо, класичне завдання безумовної оптимізації має вигляд:

Існують аналітичні та чисельні методи вирішення цих завдань.

Насамперед згадаємо аналітичні методи вирішення задачі безумовної оптимізації.

Методи безумовної оптимізації займають значне місце у курсі МО. Це зумовлено безпосереднім застосуванням їх під час вирішення низки оптимізаційних завдань, і навіть під час реалізації методів розв'язання значної частини завдань умовної оптимізації (завдань МП).

1. Необхідні умови для точки локального мінімуму (максимуму)

Нехай доставляє мінімальні значення функції. Відомо, що у цій точці збільшення функції неотрицательно, тобто.

Знайдемо, використовуючи розкладання функції навколо т. в ряд Тейлора.

де, - сума членів низки порядку яких щодо прирощень (двох) і від.

З (4) очевидно випливає, що

Припустимо, що тоді

З урахуванням (6) маємо: . (7)

Припустимо, що позитивно, тобто. . Виберемо у своїй, тоді твір, що суперечить (1).

Тому справді очевидний.

Розмірковуючи аналогічно щодо інших змінних отримуємо необхідну умову для точок локального мінімуму функції багатьох змінних

Легко довести, що з точки локального максимуму необхідні умови будуть такі ж, як й у точки локального мінімуму, тобто. умовами (8).

Відомо, що результатом підтвердження буде нерівність образу: - умова непозитивного збільшення функції навколо локального максимуму.

Отримані необхідні умови не дають відповіді на запитання: чи стаціонарна точка є точкою мінімуму або точкою максимуму.

Відповідь це питання можна отримати, вивчивши достатні умови. Ці умови передбачають дослідження матриці других похідних цільової функції.

2. Достатні умови для точки локального мінімуму (максимуму)

Представимо розкладання функції в околиці точки в ряд Тейлора з точністю до квадратичних складових.

Розкладання (1) можна подати коротше, використовуючи поняття: "скалярне твір векторів" і "векторно-матричне твір".

Матриця двох похідних від цільової функції за відповідними змінними.

Приріст функції на підставі (1") можна записати у вигляді:

Враховуючи необхідні умови:

Підставимо (3) у вигляді:

Квадратична форма називається диференціальною квадратичною формою (ДКФ).

Якщо ДКФ позитивно визначено, то стаціонарна точка є точкою локального мінімуму.

Якщо ж ДКФ і матриця, що її представляє, негативно визначені, то стаціонарна точка є точкою локального максимуму.

Отже, необхідна та достатня умова для точки локального мінімуму мають вигляд

(ці ж необхідні умови можна записати так:

Достатня умова.

Відповідно, необхідна та достатня умова локального максимуму має вигляд:

Згадаймо критерій, що дозволяє визначити: чи є квадратична форма і матриця, що її представляє, позитивно визначеною, чи негативно визначеною.

3. Критерій Сільвестра

Дозволяє відповісти на запитання: чи є квадратична форма та матриця, що її представляє, позитивно визначеною, чи негативно визначеною.

Називається матрицею Гессе.

Головний визначник матриці Гессе

та ДКФ, яку воно представляє, будуть позитивно визначеними, якщо всі головні визначники матриці Гессе () позитивні (тобто має місце наступна схема знаків:

Якщо має місце інша схема знаків для головних визначників матриці Гессе, наприклад, то матриця і ДКФ негативно визначені.

4. Метод Ейлера – класичний метод вирішення завдань безумовної оптимізації

Цей метод заснований на необхідних та достатніх умовах, вивчених у 1.1 – 1.3; застосуємо знаходження локальних екстремумів тільки безперервних функцій, що диференціюються.

Алгоритм цього досить простий:

1) використовуючи необхідні умови формуємо систему у випадку нелінійних рівнянь. Зазначимо, що аналітично вирішити цю систему в загальному випадку неможливо; слід застосувати чисельні методи розв'язання систем нелінійних рівнянь (НУ) (див. "ЧМ"). З цієї причини метод Ейлера буде аналітично-чисельним методом. Вирішуючи вказану систему рівнянь знаходимо координати стаціонарної точки.;

2) досліджуємо ДКФ та матрицю Гессе, яка її представляє. За допомогою критерію Сильвестра визначаємо, чи стаціонарна точка точкою мінімуму або точкою максимуму;

3) обчислюємо значення цільової функції в екстремальній точці

Методом Ейлера вирішити таке завдання безумовної оптимізації: знайти 4 стаціонарні точки функції виду:

З'ясувати характер цих точок, чи є вони точками мінімуму, чи сідловими (див. ). Побудувати графічне відображенняцієї функції у просторі та на площині (за допомогою ліній рівня).

5. Класичне завдання умовної оптимізації та методи її вирішення: Метод виключення та Метод множників Лагранжа (ММЛ)

Як відомо, класичне завдання умовної оптимізації має вигляд:

Графік, що пояснює постановку задачі (1), (2) у просторі.

Рівняння ліній рівня

Отже, ОДР у розглянутій задачі є деякою кривою, представленою рівнянням (2").

Як очевидно з малюнка, точка є точкою безумовного глобального максимуму; точка – точкою умовного (відносного) локального мінімуму; точка – точка умовного (відносного) локального максимуму.

Завдання (1"), (2") можна вирішити методом виключення (підстановки), вирішивши рівняння (2") щодо змінної, та підставляючи знайдене рішення (1").

Вихідна задача (1"), (2") таким чином перетворена на задачу безумовної оптимізації функції, яку легко вирішити методом Ейлера.

Метод виключення (підстановки).

Нехай цільова функція залежить від змінних:

називаються залежними змінними (або змінними станами); відповідно, можна ввести вектор

Решта змінних називаються незалежними змінними рішення.

Відповідно можна говорити про вектор-стовпчик:

та вектор.

У класичному завданні умовної оптимізації:

Система (2) відповідно до методу виключення (підстановки) має бути дозволена щодо залежних змінних (змінних станів), тобто. повинні бути отримані такі вирази для залежних змінних:

Чи завжди система рівнянь (2) можна розв'язати щодо залежних змінних - не завжди, це можливо лише у випадку, коли визначник, званий якобіаном, елементи якого мають вигляд:

не дорівнює нулю (див. відповідну теорему в курсі МА)

Як видно, функції, повинні бути безперервними функціями, що диференціюються, по-друге, елементи визначника повинні бути обчислені в стаціонарній точці цільової функції.

Підставляємо з (3) в цільову функцію (1), маємо:

Досліджувана функція на екстремум можна зробити методом Ейлера – методом безумовної оптимізації безперервно диференційованої функції.

Отже, метод виключення (підстановки) дозволяє використовувати завдання класичної умовної оптимізації перетворити завдання безумовної оптимізації функції - функції змінних за умови (4), що дозволяє отримати систему виразів (3).

Недолік методу виключення: труднощі, котрий іноді неможливість отримання системи выражений (3). Вільний від цього недоліку, але вимагає виконання умови (4) ММЛ.

5.2. Метод множників Лагранжа. Необхідні умови у класичному завданні умовної оптимізації. Функція Лагранжа

ММЛ дозволяє вихідне завдання класичної умовної оптимізації:

Перетворити на завдання безумовної оптимізації спеціально сконструйованої функції - функції Лагранжа:

де - множники Лагранжа;

Як видно, є сумою, що складається з вихідної цільової функції і "зваженої" суми функцій, - функції, що представляють їх обмеження (2) вихідної задачі.

Нехай точка - точка безумовного екстремуму функції, тоді як відомо, або (повний диференціал функції в точці).

Використовуючи концепція залежних та незалежних змінних - залежні змінні; - незалежні змінні, тоді представимо (5) у розгорнутому вигляді:

З (2) з очевидністю випливає система рівнянь виду:

Результат обчислення повного диференціалу для кожної функції

Представимо (6) у "розгорнутому" вигляді, використовуючи концепцію залежних та незалежних змінних:

Зауважимо, що (6") на відміну від (5") є системою, що складається з рівнянь.

Помножимо кожне рівняння системи (6") на відповідний множник Лагранжа. Складемо їх між собою і з рівнянням (5") і отримаємо вираз:

Розпорядимося множниками Лагранжа таким чином, щоб вираз у квадратних дужках під знаком першої суми (іншими словами, коефіцієнти при диференціалах незалежних змінних) дорівнював нулю.

Термін "розпорядимося" множниками Лагранжа зазначеним чином означає, що необхідно вирішити деяку систему з рівнянь щодо.

Структуру такої системи рівнянь легко отримати, прирівнявши вираз у квадратній дужці під знаком першої суми нулю:

Перепишемо (8) у вигляді

Система (8") являє собою систему з лінійних рівнянь щодо відомих: . Система можна розв'язати, якщо (ось чому, як і в методі виключення в даному випадку має виконуватися умова). (9)

Оскільки в ключовому вираженні (7) перша сума дорівнює нулю, то легко зрозуміти, що й друга сума дорівнюватиме нулю, тобто. має місце така система рівнянь:

Система рівнянь (8) складається із рівнянь, а система рівнянь (10) складається з рівнянь; всього рівнянь у двох системах, а невідомих

Відсутні рівняння дає система рівнянь обмежень (2):

Отже, є система із рівнянь для знаходження невідомих:

Отриманий результат - система рівнянь (11) становить основний зміст ММЛ.

Легко зрозуміти, що систему рівнянь (11) можна здобути дуже просто, вводячи на розгляд спеціально сконструйовану функцію Лагранжа (3).

Дійсно

Отже, система рівнянь (11) представлена ​​у вигляді (використовуючи (12), (13)):

Система рівнянь (14) представляє необхідну умову класичної задачі умовної оптимізації.

Знайдене в результаті розв'язання цієї системи значення вектора називається умовно-стаціонарною точкою.

Для того, щоб з'ясувати характер умовно-стаціонарної точки, необхідно скористатися достатніми умовами.

5.3 Достатні умови у класичному завданні умовної оптимізації. Алгоритм ММЛ

Ці умови дозволяють з'ясувати, чи є умовно-стаціонарна точка точкою локального умовного мінімуму, чи точкою локального умовного максимуму.

Відносно просто, подібно до того, як були отримані достатні умови в задачі на безумовний екстремум. Можна отримати достатні умови і завдання класичної умовної оптимізації.

Результат цього дослідження:

де – точка локального умовного мінімуму.

де - точка локального умовного максимуму, - матриця Гессе з елементами

Матриця Гессе має розмірність.

Розмірність матриці Гессе можна зменшити, використовуючи умову нерівності нулю якобіана: . У цьому умови можна залежні змінні висловити через незалежні змінні, тоді матриця Гессе матиме розмірність, тобто. необхідно говорити про матрицю з елементами

тоді достатні умови матимуть вигляд:

Крапка локального умовного мінімуму.

Крапка локального умовного максимуму.

Доказ: Алгоритм ММЛ:

1) складаємо функцію Лагранжа: ;

2) використовуючи необхідні умови, формуємо систему рівнянь:

3) із вирішення цієї системи знаходимо точку;

4) використовуючи достатні умови, визначаємо, чи точка є точкою локального умовного мінімуму або максимуму, потім знаходимо

1.5.4. Графо-аналітичний метод вирішення класичної задачі умовної оптимізації у просторі та його модифікації при вирішенні найпростіших завдань ІП та АП

Цей метод використовує геометричну інтерпретацію класичної задачі умовної оптимізації і заснований на низці важливих фактів, властивих цьому завданню.

В - загальна дотична для функції та функції, що представляє ГДР.

Як видно з малюнка точка - точка безумовного мінімуму, точка - точка умовного локального мінімуму, точка - точка умовного локального максимуму.

Доведемо, що в точках умовних локальних екстремумів крива та відповідні лінії рівня

З курсу МА відомо, що у точці дотику виконується умова

де - кутовий коефіцієнт дотичної, проведеної відповідною лінією рівня; - кутовий коефіцієнт дотичної, проведеної до функції

Відомий вираз (МА) для цих коефіцієнтів:

Доведемо, що це коефіцієнти рівні.

тому що про це "говорять" необхідні умови

Наведене вище дозволяє сформулювати алгоритм ДФА методу вирішення класичної задачі умовної оптимізації:

1) будуємо сімейство ліній рівня цільової функції:

2) будуємо ОДР, використовуючи рівняння обмеження

3) з метою внесення виправлення зростання функції, знаходимо та з'ясовуємо характер екстремальних точок;

4) досліджуємо взаємодію ліній рівня та функції, знаходячи при цьому із системи рівнянь координати умовно стаціонарних точок - локальних умовних мінімумів та локальних умовних максимумів.

5) обчислюємо

Слід особливо відзначити, що основні етапи ДФА методу розв'язання класичної задачі умовної оптимізації збігаються з основними етапами ДФА методу розв'язання задач НП та ЛП, відмінність лише в ОДР, а також у знаходженні розташування екстремальних точок в ОДР (наприклад, у задачах ЛП ці точки обов'язково знаходяться у вершинах опуклого багатокутника, Що представляє ОДР).

5.5. Про практичний зміст ММЛ

Представимо класичне завдання умовної оптимізації у вигляді:

де - Змінні величини, що представляють у прикладних технічних та економічних завданнях змінні ресурси.

У просторі завдання (1), (2) набуває вигляду:

де – змінна величина. (2")

Нехай – точка умовного екстремуму:

При зміні змінюється

Відповідно зміниться і значення цільової функції:

Обчислимо похідну:

З (3), (4), (5). (6)

Підставимо (5") у (3) і отримуємо:

З (6), що множник Лагранжа характеризує "реакцію" значення (ортогональна значення цільової функції) на зміни параметра.

У загальному випадку (6) набуває вигляду:

З (6), (7), що множник, характеризує зміну при зміні відповідного ресурсу на 1.

Якщо - максимальний прибуток або мінімальна вартість, то характеризує зміни цієї величини при зміні на 1.

5.6. Класична задача умовної оптимізації як завдання про знаходження сідлової точки функції Лагранжа:

Пара називається сідловою точкою, якщо виконується нерівність.

Очевидно, що з (1). (2)

З (2), що. (3)

Як видно система (3) містить рівнянь, подібних до тих рівнянь, які представляють необхідну умову в класичному завданні умовної оптимізації:

де – функція Лагранжа.

У зв'язку з аналогією систем рівнянь (3) і (4), класичне завдання умовної оптимізації можна як завдання знаходження сідлової точки функції Лагранжа.

Подібні документи

    Завдання багатовимірної оптимізації у дослідженні технологічних процесів виробництв текстильної промисловості, аналіз труднощів, що виникають. Знаходження екстремуму типу екстремуму значення цільової функції безумовної багатовимірної оптимізації.

    контрольна робота , доданий 26.11.2011

    Характеристика класичних методів, безумовної оптимізації. Визначення необхідної та достатньої умови існування екстремуму функцій однієї та кількох змінних. Правило множників Лагранжа. Необхідні та достатні умови оптимальності.

    курсова робота , доданий 13.10.2013

    Методика та особливості вирішення завдань оптимізації, зокрема про розподіл інвестицій та вибір шляху у транспортній мережі. Специфіка моделювання за допомогою методів Хеммінгу та Брауна. Ідентифікація, стимулювання та мотивація як функції управління.

    контрольна робота , доданий 12.12.2009

    Постановка, аналіз, графічне розв'язання задач лінійної оптимізації, симплекс-метод, подвійність у лінійній оптимізації. Постановка транспортного завдання, властивості та перебування опорного рішення. Умовна оптимізація при обмеженнях-рівностях.

    методичка, доданий 11.07.2010

    Критичний шлях у графі. Оптимальний розподіл потоку транспортної мережі. Завдання лінійного програмування, яке вирішується графічним методом. Незбалансоване транспортне завдання. Численні методи вирішення одновимірних завдань статичної оптимізації.

    курсова робота , доданий 21.06.2014

    Графічний метод розв'язання задачі оптимізації виробничих процесів. Застосування симплекс-алгоритму на вирішення економічної оптимізованої завдання управління виробництвом. Метод динамічного програмування вибору оптимального профілю шляху.

    контрольна робота , доданий 15.10.2010

    Оптимізаційні методи розв'язання економічних завдань. Класична постановка задач оптимізації. Оптимізація функцій. Оптимізація функціоналів. Багатокритеріальна оптимізація. Методи зведення багатокритеріальної задачі до однокритеріальної. Метод поступок.

    реферат, доданий 20.06.2005

    Застосування методів нелінійного програмування на вирішення завдань із нелінійними функціями змінних. Умови оптимальності (теорема Куна-Таккера). методи умовної оптимізації (метод Вульфа); проектування градієнта; штрафних та бар'єрних функцій.

    реферат, доданий 25.10.2009

    Поняття, визначення, виділення особливостей, можливостей та характеристика існуючих проблем багатокритеріальної оптимізації та шляхи їх вирішення. Розрахунок методу рівних та найменших відхилень багатокритеріальної оптимізації та застосування його на практиці.

    курсова робота , доданий 21.01.2012

    Основні поняття моделювання. Загальні поняттята визначення моделі. Постановка задач оптимізації. Методи лінійного програмування. Загальне та типове завдання у лінійному програмуванні. Симплекс-метод розв'язання задач лінійного програмування.

Завдання 1.Знайти

Завдання 1 зводиться до розв'язання системи рівнянь:

та дослідження значення другого диференціалу:

у точках розв'язання рівнянь (8.3).

Якщо квадратична форма (8.4) негативно визначена у точці, вона досягає у ній максимальне значення, і якщо позитивно визначена, то мінімальне значення.

Приклад:

Система рівнянь має розв'язки:

Точка (– 1/3,0) є точкою максимуму, а точка (1/3,2) – точкою мінімуму.

Завдання 2.Знайти

за умов:

Завдання 2 вирішується шляхом множників Лагранжа. Для цього є рішення системи (т + п)рівнянь:

приклад.Знайти сторони прямокутника максимальну площу, вписаного в круг: . Площу А прямокутника можна записати у вигляді: А = 4ху,тоді

Завдання 3.Знайти:

за умов:

Це завдання охоплює широке коло завдань, що визначаються функціями fі .

Якщо вони лінійні, завдання є завданням лінійного програмування.

Завдання3 а.

за умов

Вона вирішується симплекс-методом, який за допомогою апарату лінійної алгебри здійснює цілеспрямований перебір вершин багатогранника, що визначається (8.13).

Симплекс-метод (Складається з двох етапів):

Етап 1. Знаходження опорного рішення x(0) .

Опорне рішення – одна з точок багатогранника (8.13).

Етап 2. Знаходження оптимального рішення.

Оптимальне рішення знаходиться послідовним перебором вершин багатогранника (8.13), при якому значення цільової функції z на кожному кроці не зменшується, тобто:

Окремий випадок задачі лінійного програмування - так звана транспортна задача.

Транспортне завдання. Нехай у пунктах знаходяться склади, у яких зберігаються товари у кількості відповідно. У пунктах знаходяться споживачі, яким необхідно поставити ці товари в кількостях відповідно. Позначимо c ij вартість перевезення одиниці вантажу між пунктами

Досліджуємо операцію перевезення споживачами товарів у кількостях, достатніх, щоб задовольнити потреби споживачів. Позначимо через кількість товару, що перевозиться з пункту а iу пункт b j .

Для того, щоб задовольняти запити споживача, необхідно, щоб величини х ij задовольняли умовам:

У той самий час зі складу а; не можна вивезти продуктів у більшій кількості, ніж є. Це означає, що шукані величини повинні задовольняти системі нерівностей:

Задовольняти умовам (8.14), (8.15), тобто скласти план перевезень, який би запити споживачів, можна незліченним числом способів. Щоб дослідник операцій міг вибрати певне рішення, тобто призначити певні рішення х ij, має бути сформульовано деяке правило відбору, яке визначається за допомогою критерію, який відображає наше суб'єктивне уявлення про мету.

Проблема критерію вирішується незалежно від дослідження операції - критерій повинен бути заданий стороною, що оперує. У цьому завдання одним із можливих критеріїв буде вартість перевезення. Вона визначається так:

Тоді задача про перевезення формулюється як завдання лінійного програмування: визначити величини, що задовольняють обмеженням (8.14), (8.15) і функції, що доставляють (8.16), мінімальне значення. Обмеження (8.15) – це умова балансу; Умову (8.14) можна назвати метою операції, бо сенс операції в тому і полягає, щоб забезпечити запити споживачів.

Ці дві умови становлять, сутнісно, ​​модель операції. Реалізація операції залежатиме від критерію, за допомогою якого буде забезпечено досягнення мети операції. Критерій може фігурувати у різних ролях. Він може і як спосіб формалізації мети як і принцип вибору дій у складі допустимих, тобто які задовольняють обмеженням.

Одним із відомих методів вирішення транспортного завдання є метод потенціалів.

На першому етапі вирішення завдання складається початковий план перевезень, що задовольняє

обмежень (8.14), (8.15). Якщо (тобто сумарні потреби не збігаються із сумарними запасами продуктів на складах), то вводиться на розгляд фіктивний пункт споживання або фіктивний склад з вартістю перевезень, рівними нулю. Для нового завдання сумарна кількість товарів на складах збігається із сумарною їхньою потребою. Потім яким-небудь методом (наприклад, найменшого елемента чи північно-західного кута) знаходиться початковий план. На наступному етапі процедури отриманого плану будується система особливих параметрів – потенціалів. Необхідною та достатньою умовою оптимального плану є його потенційність. Процедура уточнення плану проводиться до того часу, поки він стане потенційним (оптимальним).

Завдання 3б.У випадку завдання (8.10 – 8.11) називається завданням нелінійного програмування. Розглянемо її у більш прийнятому вигляді:

за умов

Для вирішення цієї задачі використовуються так звані релаксаційні методи. Процес побудови послідовності точок називається релаксаційним, якщо:

Методи спуску (загальна схема). Усі методи спуску розв'язання задачі безумовної оптимізації (8.17) розрізняються або вибором напрямку спуску, або способом руху вздовж спуску. Методи спуску полягають у наступній процедурі побудови послідовності { x k }.

Як початкове наближення вибирається довільна точка x 0 . Послідовні наближення будуються за такою схемою:

Точці x k вибирається напрямок спуску – s k ;

Знаходять (до + 1) - е наближення за формулою:

де як величину вибирають будь-яке число, що задовольняє нерівності

де число – будь-яке таке число, коли

У більшості методів спуску величина  вибирається рівною одиниці. Отже, визначення  до доводиться вирішувати завдання одномірної мінімізації.

Метод градієнтного спуску.Оскільки антиградієнт – вказує напрямок якнайшвидшого зменшення функції f(x), то природним є переміщення з точки х k у цьому напрямі. Метод спуску, у якому називається методом градієнтного спуску. Якщо, то релаксаційний процес називається методом якнайшвидшого спуску.

Метод сполучених напрямів.У лінійній алгебрі цей метод відомий як метод сполучених градієнтів розв'язання систем лінійних рівнянь алгебри АХ =b, отже, як метод мінімізації квадратичної функції

Схема методу:

Якщо = 0, то ця схема перетворюється на схему методу якнайшвидшого спуску. Відповідний вибір величини t k гарантує збіжність методу сполучених напрямів зі швидкістю того ж порядку, що й у методах градієнтного спуску та забезпечує кінцівку числа ітерацій у квадратичному спуску (наприклад).

Покоординатний спуск.На кожній ітерації як напрямок спуску – s k вибирається напрямок уздовж однієї з координатних осей. Метод має швидкість збіжності процесу мінімізації порядка 0(1/m). Причому вона залежить від розмірності простору.

Схема методу:

де координатний вектор

Якщо у точці x k є інформація про поведінку градієнта функції f(x), наприклад:

то як напрямок спуску s k можна взяти координатний вектор е j . В цьому випадку швидкість збіжності методу в n разів менша, ніж при градієнтному спуску.

На початковому етапі процесу мінімізації можна використовувати метод циклічного покоординатного спуску, коли спуск здійснюється за напрямом е 1 , потім по 2 і т. д. аж до е п , потім весь цикл повторюється знову. Більш перспективним проти попереднім є покоординатний спуск, у якому напрями спуску вибираються випадковим чином. При такому підході до вибору напряму існують апріорні оцінки, що гарантують функцію f(x) з ймовірністю, що прагне одиниці при , збіжність процесу зі швидкістю порядку 0(1/m).

Схема методу:

На кожному кроці процесу з n чисел (1, 2, ..., n) випадково вибирається номер j(k) і як s k вибирається одиничний координатний вектор е j ( k ) , після чого здійснюється спуск:

Метод випадкового спуску.s k, що підпорядковується на цій сфері рівномірному розподілу, а потім по обчисленому на k-му етапі процесу елементу х до визначається:

Швидкість збіжності методу випадкового спуску в n разів нижче, ніж методу градієнтного спуску, але в n разів вище, ніж методу випадкового покоординатного спуску. Розглянуті методи спуску застосовні і до необов'язково опуклим функцій і гарантують їхню збіжність при дуже малих ними обмеженнях (типу відсутності локальних мінімумів).

Релаксаційні методи математичного програмування.Повернемося до задачі 36 ((8.17) – (8.18)):

за умов

В оптимізаційних завданнях з обмеженнями вибір напрямку спуску пов'язаний з необхідністю постійної перевірки того, що нове значення х k +1 має так само, як і попереднє x k задовольняти системі обмежень X.

Метод умовного градієнта.У цьому методі ідея вибору спуску полягає в наступному: у точці х до лінеаризують функцію f(x), будуючи лінійну функцію і потім, мінімізуючи f(x) на безлічі х,знаходять точку y k . Після цього вважають і далі вздовж цього напрямку здійснюють спуск так, щоб

Таким чином, для пошуку напрямку – s k слід вирішити задачу мінімізації лінійної функції на множині X. Якщо X своєю чергою задається лінійними обмеженнями, вона стає завданням лінійного програмування.

Метод можливих напрямів.Ідея методу: серед усіх можливих напрямків у точці х до вибирають те, вздовж якого функція f(x) зменшується найшвидше, і потім здійснюють спуск уздовж цього напрямку.

Напрямок – s у точці хX називається можливим, якщо існує таке число, що для всіх. Для знаходження можливого напрямку необхідно вирішити задачу лінійного програмування, або найпростіше завдання квадратичного програмування:

За умов:

Нехай – вирішення цього завдання. Умова (8.25) гарантує, що напрямок – можливий. Умова (8.26) забезпечує максимальність величини (тобто серед усіх можливих напрямів – s, напрямок – забезпечує найшвидше зменшення функції f(x). Умова (8.27) позбавляє необмеженості розв'язання задачі. Метод можливих напрямів стійкий до можливих обчислювальних помилок. Однак швидкість його збіжності оцінити в загальному випадку складно і це завдання поки що залишається невирішеним.

Метод випадкового пошуку.Реалізація викладених вище методів мінімізації в загальному випадку дуже трудомістка, крім найпростіших випадків, коли безліч обмежень має просту геометричну структуру (наприклад, є багатовимірним паралелепіпедом). У випадку досить перспективним може бути метод випадкового пошуку, коли напрямок спуску вибирається випадковим чином. При цьому ми суттєво програватимемо у швидкості збіжності, проте простота вибору напряму може компенсувати ці втрати з погляду загальних витрат праці на вирішення задачі мінімізації.

Схема методу:

На n-вимірній одиничній сфері з центром на початку координат вибирається випадкова точка r k, що підпорядковується цій сфері рівномірному розподілу, та був напрямок спуску – s k з умов ,

Як початкове наближення вибирається. За обчисленою на кожній ітерації точкою x k будується ( k+ 1)-а точка x k +1 :

Як вибирається будь-яке число з =, що задовольняє нерівності:

Доведено збіжність цього методу при дуже нежорстких обмеженнях на функцію f (випуклість) та безліч обмежень X (випуклість та замкнутість).

Завдання 1. Знайти

де х = (х 1 .. х п)е Е п

Це завдання зводиться до вирішення системи рівнянь

та дослідження значення другого диференціалу

у точках (а-|, (*2, а п) розв'язання рівнянь (7.3).

Якщо квадратична форма (7.4) негативно визначена у точці, вона досягає у ній максимального значення, і якщо позитивно визначена, то мінімального значення.

Приклад:

Система рівнянь має розв'язки:

Точка (-1; 3,0) є точкою максимуму, а точка (1; 3,2) – точкою мінімуму.

Завдання 2. Знайти

за умов:

Це завдання 2 вирішується методом множників Лагранжа, навіщо знаходять рішення системи (т + п)рівнянь:

приклад 2.Знайти сторони прямокутника максимальної площі, вписаної в коло Площа Л прямокутника

можна записати у вигляді: А= 4ху, тоді

звідки

Завдання 3. Знайти за умов:

Це завдання охоплює широке коло постановок, що визначаються функціями fта пор. Якщо вони лінійні, завдання є завданням лінійного програмування.

Завдання За.

за умов

Вона вирішується симплекс-методом, який за допомогою апарату лінійної алгебри здійснює цілеспрямований перебір вершин багатогранника, що визначається (7.13).

Симплекс-методскладається із двох етапів.

Етап 1. Знаходження опорного рішення х ^ 0). Опорне рішення - одна з точок багатогранника (7.13).

Етап 2. Знаходження оптимального рішення. Його знаходять послідовним перебором вершин багатогранника (7.13), у якому значення цільової функції z кожному кроці не зменшується, тобто:

Окремий випадок задачі лінійного програмування - так звана транспортна задача.

Транспортне завдання.Нехай у пунктах а-1, а 2, .... а л знаходяться склади, в яких зберігаються товари в кількості х 1, х 2, ..., х л відповідно. У пунктах Ь-|, Ь 2,..., Ь т знаходяться споживачі, яким необхідно поставити ці товари в кількостях у- у 2 , у твідповідно. Позначимо Cjjвартість перевезення одиниці вантажу між пунктами а-| та by.

Досліджуємо операцію перевезення споживачами товарів у кількостях, достатніх у тому, щоб задовольнити потреби клієнтури. Позначимо через Хукількість товару, що перевозиться з пункту а, - пункт by.

Для того, щоб задовольняти запити споживача, необхідно, щоб величини х,узадовольняли умовам:

У той же час зі складу не можна вивезти продуктів у більшій кількості, ніж там є. Це означає, що шукані величини повинні задовольняти системі нерівностей:

Задовольняти умовам (7.14), (7.15), тобто. Скласти план перевезень, що забезпечує запити споживачів, можна незліченним числом методів. Для того, щоб дослідник операцій міг вибрати певне оптимальне вирішення, тобто. призначити певні Xjj,має бути сформульовано деяке правило відбору, яке визначається за допомогою критерію, який відображає наше суб'єктивне уявлення про мету.

Проблема критерію вирішується незалежно від дослідження операції - критерій повинен бути заданий стороною, що оперує. У розглянутій задачі одним із можливих критеріїв буде вартість перевезення. Вона складає

Тоді задача про перевезення формулюється як завдання лінійного програмування: визначити величини х,у > О, які задовольняють обмеженням (7.14), (7.15) і функції (7.16), що доставляють мінімальне значення. Обмеження (7.15) – це умова балансу; Умову (7.14) можна назвати метою операції, бо сенс операції в тому і полягає, щоб забезпечити запити споживачів.

Вказівку дві умови становлять, сутнісно, ​​модель операції. Реалізація операції залежатиме від критерію, за допомогою якого буде забезпечено досягнення мети операції. Критерій може фігурувати у різних ролях. Він може і як спосіб формалізації мети, як і принцип вибору з числа допустимих, тобто. задовольняють обмеженням.

Одним із відомих методів вирішення транспортної задачі є метод потенціалів, схема яка полягає в наступному.

На першому етапі розв'язання задачі складають первісний план перевезень, що задовольняє обмеження (7.14), (7.15). Якщо

(тобто сумарні потреби не збігаються із сумарними запасами продуктів на складах), то вводиться на розгляд фіктивний пункт споживання або фіктивний склад

з вартістю перевезень, що дорівнює нулю. Для нового завдання сумарна кількість товарів на складах збігається із сумарною їхньою потребою. Потім яким-небудь методом (наприклад, найменшого елемента чи північно-західного кута) знаходять початковий план. На наступному етапі процедури отриманого плану будують систему спеціальних характеристик - потенціалів. Необхідною та достатньою умовою оптимального плану є його потенційність. Процедуру уточнення плану повторюють до того часу, коли план стане потенційним (оптимальним).

Завдання 36. У випадку завдання (7.10-7.11) називається завданням нелінійного програмування. Розглянемо її у вигляді

за умов

Для вирішення цього завдання використовують так звані релаксаційні методи. Процес побудови послідовності точок називається релаксаційним, якщо:

Методи спуску (загальна схема). Усі методи спуску у вирішенні задачі безумовної оптимізації (7.17) розрізняються або вибором напряму спуску, або способом руху вздовж спуску. Методи спуску полягають у наступній процедурі побудови послідовності (х до).

Як початкове наближення вибирається довільна точка Xq. Послідовні наближення будуються за такою схемою:

  • точці х довибирається напрямок спуску - S k;
  • знаходять (до+ 1) наближення за формулою

де як величина $ довибирають будь-яке число, що задовольняє нерівності

де число Х до -будь-яке таке число, коли 0 Х min f (x k - $ Sk).

У більшості методів спуску величина Х довибирається рівною одиниці. Отже, визначення (3^ доводиться вирішувати завдання одномірної мінімізації.

Метод градієнтного спуску.Оскільки антиградієнт - Г(х до)вказує напрямок якнайшвидшого зменшення функції f(x),то природним є переміщення з точки х до поцьому напрямі. Метод спуску, в якому S k = f"(x k)називається методом градієнтного спуску. Якщо Х до= 1, то релаксаційний процес називається методом якнайшвидшого спуску.

Метод сполучених напрямів. Улінійної алгебри цей метод відомий як метод сполучених градієнтів розв'язання систем лінійних рівнянь алгебри АХ= Ь, отже, як метод мінімізації квадратичної функції f(x) =((Дх - Ь)) 2 .

Схема методу:

Якщо f k = 0, то ця схема перетворюється на схему методу якнайшвидшого спуску. Відповідний вибір величини t kгарантує збіжність методу пов'язаних напрямків зі швидкістю того ж порядку, що і в методах градієнтного спуску, і забезпечує кінцівку числа ітерацій у спуску (наприклад,

Покоординатний спуск.На кожній ітерації як напрямок спуску S kвибирається напрямок уздовж однієї з координатних осей. Метод має швидкість збіжності процесу мінімізації порядку 0 (1//77), причому вона істотно залежить від розмірності простору.

Схема методу:

де координатний вектор,

Якщо у точці х доє інформація про поведінку градієнта функції f(x),наприклад,

то як напрямок спуску S kможна прийняти координатний вектор еу. У цьому випадку швидкість збіжності методу в празів менше, ніж за градієнтного спуску.

На початковому етапі процесу мінімізації можна використовувати метод циклічного покоординатного спуску, коли спочатку спуск здійснюється за напрямом е-|, потім - в2 і т.д. аж до е п,після чого весь цикл повторюється. Більш перспективним проти описаним є покоординатний спуск, у якому напрями спуску вибираються випадковим чином. При такому підході до вибору напряму існують апріорні оцінки, що гарантують функцію f(x)з ймовірністю, що прагне одиниці при збіжність процесу зі швидкістю порядку 0(1 1т).

Схема методу:

На кожному кроці процесу з пчисел (1, 2, ..., п) випадковим чином вибирається номер j(k)і як s kвибирається одиничний координатний вектор вщ,після чого здійснюється спуск:


Метод випадкового спуску.На п-вимірній одиничній сфері з центром на початку координат вибирається випадкова точка S k ,підпорядкована на цій сфері рівномірному розподілу, а потім за обчисленим на / с-му кроціпроцесу елементу х довизначається х до+] :


Швидкість збіжності методу випадкового спуску празів менше, ніж у методу градієнтного спуску, але в празів більше, ніж методу випадкового покоординатного спуску. Розглянуті методи спуску застосовні і до необов'язково опуклим функцій і гарантують їхню збіжність при дуже малих ними обмеженнях (типу відсутності локальних мінімумів).

Релаксаційні методи математичного програмування. Повернемося до задачі 36 ((7.17) - (7.18)):

за умов

В оптимізаційних задачах з обмеженнями вибір напрямку спуску пов'язаний з необхідністю постійної перевірки того, що нове значення х до +"має так само, як і попереднє х до,задовольняти систему обмежень X.

Метод умовного градієнта. Уцьому методі ідея вибору напрямку спуску полягає в наступному: у точці х долінеаризують функцію

f(x),будуючи лінійну функцію f(x) = f(x k) + (у"(х до), х-х до),і потім, мінімізуючи f(x)на безлічі х,знаходять точку у до.Після цього вважають S k = у до - х доі далі вздовж цього напряму здійснюють спуск хдо+ 1= х до - $ до (х до -у до),так, щоб g X.

Таким чином, для пошуку напряму S kслід вирішити задачу мінімізації лінійної функції на множині X. Якщо X, своєю чергою, задається лінійними обмеженнями, вона стає завданням лінійного програмування.

Метод можливих напрямів.Ідея методу: серед усіх можливих напрямів у точці хк вибирають те, вздовж якого функція f(x)зменшується найшвидше, і потім здійснюють спуск уздовж цього напрямку.

Напрям sу точці хе Xназивається можливим,_якщо існує таке число (3 > О, що х- (3s е хдля всіх (3 g . Для знаходження можливого напрямку необхідно вирішити задачу лінійного програмування або найпростіше завдання квадратичного програмування: а? => minза умов

Нехай д доі s k- Вирішення цього завдання. Умова (7.25) гарантує, що напрямок s kможливе. Умова (7.26) забезпечує максимальність величини (/"( х k), s),тобто. серед усіх можливих напрямів s,напрямок s kзабезпечує найшвидше зменшення функції f(x).Умова (7.27) позбавляє необмеженості розв'язання задачі. Метод можливих напрямів стійкий до можливих обчислювальних помилок. Однак швидкість його збіжності оцінити в загальному випадку складно, і це завдання поки що залишається невирішеним.

Метод випадкового пошуку.Реалізація викладених раніше методів мінімізації в загальному випадку дуже трудомістка, крім найпростіших випадків, коли безліч обмежень має просту геометричну структуру (наприклад, є багатовимірним паралелепіпедом). У випадку досить перспективним може бути метод випадкового пошуку, коли напрямок спуску вибирається випадковим чином. При цьому буде суттєвий програш у швидкості збіжності, проте простота вибору напряму може компенсувати ці втрати за величиною загальних витрат праці вирішення задачі мінімізації.

Схема методу:

на і-мірній одиничній сфері з центром на початку координат вибирається випадкова точка гупідпорядкована цій сфері рівномірному розподілу, та був напрям спуску - s^з умов

Як початкове наближення вибирається хце X. По обчисленої на кожній ітерації точці х? будується (k + 1)-а точка х^+ у:

Як вибирається будь-яке число з що задовольняє нерівності

Доведено збіжність цього методу при дуже нежорстких обмеженнях на функцію / (опуклість) та безліч обмежень X(випуклість та замкнутість).

Включайся в дискусію
Читайте також
Сім'я: види сімей, функції, визначення
Сім'я її типи, функції та структура
Кролики породи сріблястий Кролик полтавське срібло опис породи