Градиентные методы оптимизации

Градиентные методы оптимизации основаны на разложении целевой функции Ф(Р) в окрестности точки Piв ряд Тейлора и пренебрежении членами разложения второго и более высоких порядков. Второй член разложения, учитываемый в методах,  представляет собой вектор-градиент целевой функции Ф(Р), где P= Pi  . Полученное  направление является направлением максимального убывания функции.

Одним из наиболее известных и простейших методов первого порядка является метод наискорейшего спуска Коши. В этом методе в качестве вектора Sj  , определяющего направление, в котором уменьшается целевая функция,  выбирается антиградиент этой функции. Новые значения вектора переменных  вычисляются по формуле (5)

Ссылка на основную публикацию
Adblock detector