Методы оптимальных решений. Нелинейные задачи оптимизации. Задачи безусловной оптимизации. Задачи условной оптимизации. Метод Ньютона–Рафсона. Метод множителей Лагранжа. Градиентные методы. Седловая точка функции Лагранжа. Матрица Гессе. Целевая функция. Стационарная точка. Точка глобального максимума

Решение задач и выполнение научно-исследовательских разработок: Отправьте запрос сейчас: irina@bodrenko.org    
математика, IT, информатика, программирование, статистика, биостатистика, экономика, психология
Пришлите по e-mail: irina@bodrenko.org описание вашего задания, срок выполнения, стоимость





Контрольные вопросы

к лекции № 7 «Нелинейные задачи оптимизации»

по предмету

«Методы оптимальных решений»

 

1. Задачами безусловной оптимизации называются такие задачи, в которых:

 

А) кроме целевой функции задаются некоторые  дополнительные условия, которые должны быть выполнены;

 

Б) задается лишь одна целевая функция f=f(X)→max (min)  без указания ограничений и граничных условий;

 

В) и А), и Б).

 

2. Задачами условной оптимизации называются такие задачи, в которых:

 

А) кроме целевой функции задаются некоторые  дополнительные условия, которые должны быть выполнены;

 

Б) задается лишь одна целевая функция f=f(X)→max (min)  без указания ограничений и граничных условий;

 

В) и А), и Б).

 

 

            3. Если в точке X0 матрица Гессе Н(X) функции f(X) отрицательно определена, то точка X0 является:

 

А) точкой максимума функции f(X);

 

Б) точкой минимума функции f(X);         

 

В) седловой точкой функции f(X).

 

 

            4. Если в точке X0 матрица Гессе Н(X) функции f(X) положительно определена, то точка X0 является:

 

А) точкой максимума функции f(X);       

 

Б) точкой минимума функции f(X);  

 

В) седловой точкой функции f(X).

 

 

5. Метод Ньютона – Рафсона применяется для численного поиска:

 

А)  стационарных точек функций; 

 

Б) экстремумов функций при отсутствии ограничений;

 

В) и А), и Б).

 

 

6. Метод множителей Лагранжа применяется для решения задач:

 

А) условной оптимизации с ограничениями на переменные в форме равенств; 

 

Б) безусловной оптимизации;

 

В) и А), и Б).

 

 

7. Градиентные методы применяются для решения задач:

 

А) условной оптимизации с ограничениями на переменные в форме равенств; 

 

Б) безусловной оптимизации;

 

В) условной оптимизации с ограничениями на переменные в форме неравенств.

 

 

8. Если точка X0 является стационарной точкой выпуклой функции f(X) на множестве Rn, то X0 является точкой:

 

А)  глобального максимума функции f(X);

 

Б) глобального минимума функции f(X);

 

В) не А) и не Б).

 

 

            9.  Если точка X0 является стационарной точкой вогнутой функции f(X) на множестве Rn, то X0 является точкой:

 

А)  глобального максимума функции f(X);

 

Б) глобального минимума функции f(X);

 

В) не А) и не Б).

 

 

10. Пара векторов (X*,λ*)  называется седловой точкой функции Лагранжа Φ(X,λ), если выполняются неравенства:

 

А) Φ(X*,λ*)≤ Φ(X*,λ)≤Φ(X,λ*);

 

Б) Φ(X*,λ)≤ Φ(X*,λ*)≤Φ(X,λ*);

 

В) Φ(X,λ*)≤ Φ(X*,λ*)≤Φ(X*,λ).