Полная версия

Главная arrow Товароведение arrow Планирование и организация эксперимента в легкой промышленности

  • Увеличить шрифт
  • Уменьшить шрифт


<<   СОДЕРЖАНИЕ ПОСМОТРЕТЬ ОРИГИНАЛ   >>

ГРАДИЕНТНЫЕ МЕТОДЫ ПОИСКА ОПТИМАЛЬНОГО РЕШЕНИЯ МНОГОФАКТОРНОГО ЭКСПЕРИМЕНТА

Все градиентные методы основаны на предварительном определении градиента функции отклика <р:

где Т,Т, ..., & — единичные векторы в направлении координатных осей; chр /dxt частные производные функции по /-му фактору, оценками которых являются соответствующие коэффициенты регрессии.

Предполагается, что функция <р непрерывна и однозначна. Если ее разложить в ряд Тейлора в окрестностях точки, в которой берется значение градиента, и ограничиться лишь линейными членами, можно показать, что координаты градиента совпадают с коэффициентами полученного уравнения регрессии.

Метод градиента

Суть метода градиента состоит в поиске кратчайшего пути к оптимуму. В точке начала движения Л (рис. 7.1) ставят полный или дробный факторный эксперимент, который в узком диапазоне может дать линейную аппроксимацию функции, т.е. получить уравнение вида:

где у — отклик; Ь0, Ь{, Ь2, ... bh ..., bk коэффициенты регрессии; хх2,...,х... хк факторы; к — количество факторов.

Известно, что градиент функции отклика ф имеет вид (формула (7.1)).

Поэтому

т.е. коэффициенты регрессии являются частными производными по координатным осям, что позволяет легко определить направление движения.

При этом факторный эксперимент проводить необязательно. Его можно заменить шаговой процедурой, которая состоит в следующем.

От точки А делают шаг влево АХ, и шаг вправо АХ7, измеряя при этом величину у. Тогда

где Ау — разность значений у между левой и правой точками.

Схема оптимизации методом градиента

Рис. 7.1. Схема оптимизации методом градиента

Аналогично

где АХ2 — шаг вдоль оси Х2; Ау2 разность значений у между верхней и нижней (вдоль Х2) точками.

Движение в выбранном направлении продолжается до тех пор, пока у растет. Как только этот рост прекращается, процедуру можно повторить. Если при очередной процедуре у уже не растет, значит, оптимум найден.

Одной из модификаций метода градиента является метод крутого восхождения.

Метод крутого восхождения (метод Бокса — Уилсона)

Метод крутого восхождения (МКВ) представляет собой процедуру изменения независимых переменных пропорционально величинам коэффициентов регрессии и последовательного перемещения в направлении градиента функции отклика по пути крутого восхождения, т.е. в направлении наибольшего увеличения отклика. Если необходима минимизация, то тогда мы говорим о методе крутого (наискорейшего) спуска.

Направление крутого восхождения — это направление, в котором у возрастает наиболее быстро и параллельно нормали к контурам поверхности отклика (рис. 7.2). Обычно в качестве пути крутого восхождения мы выбираем линию, проходящую через центр области экспериментирования и нормальную к контурам подобранной поверхности отклика. Сущность такой оптимизации состоит в следующем. Пусть, например, критерием оптимальности служит функция отклика у, представленная в виде уравнения (7.2).

Схема оптимизации по методу крутого восхождения

Рис. 7.2. Схема оптимизации по методу крутого восхождения

Один из влияющих факторов Xt принимают за базовый и для него вычисляют произведение соответствующего коэффициента регрессии bt на интервал варьирования dxt. Например, для первого фактора Х{ это произведение имеет вид { • х,).

Затем для базового фактора Х1 выбирают шаг движения Ах,*, с которым будет осуществляться оптимизация. Шаг движения выбирается произвольно, однако он должен быть меньше интервала варьирования dx{. При этом необходимо помнить, что небольшой шаг увеличит число опытов при движении к оптимуму, а большой шаг движения увеличит вероятность проскочить область оптимума. Поэтому рекомендуется учитывать нижнюю границу, которая задается возможностью фиксирования двух соседних опытов, и верхнюю, которая ограничивается областью определения факторов.

После этого вычисляют шаг движения g по формуле

Для всех остальных факторов шаги движения к оптимальным значениям рассчитывают по формуле

Если какой-то фактор имеет ограничения, то его стабилизируют на максимально (минимально) возможном уровне, а другие продолжают изменять с тем же шагом.

Движение к оптимуму начинают от центра плана, который использовался для получения математического описания функции отклика. Значения факторов на каждом новом шаге находят путем прибавления к соответствующим предыдущим значениям. Так осуществляется оптимизация по методу крутого восхождения.

В случае поиска минимума функции у новые значения факторов находят из предыдущих путем вычитания шага Ах,-*. Такой способ оптимизации называют методом наискорейшего спуска.

Если есть подозрение, что существует несколько оптимумов, то рекомендуется начинать движение от разных исходных точек, располагаемых в разных областях факторного пространства. Движение к оптимуму прекращают в следующих случаях:

  • • значения (одного или нескольких) факторов или функций отклика вышли на границы допустимых значений;
  • • достигнут экстремум критерия оптимальности у.

В первом случае на этом оптимизация заканчивается, а во втором — в области экстремума функции у ищут ее новое математическое описание, используя полный факторный эксперимент или метод дробных реплик. Если удается получить адекватное описание этой функции в виде (7.2), то продолжают оптимизацию методом крутого восхождения (см. рис. 7.2). Очевидно, оптимум, найденный в результате первого крутого восхождения, был локальным.

Если же в области оптимума не удается получить адекватного уравнения регрессии вида (7.2), то переходят к планированию эксперимента для получения математического описания функции у в виде многочлена второй степени. Методика проведения таких экспериментов будет представлена позже.

 
<<   СОДЕРЖАНИЕ ПОСМОТРЕТЬ ОРИГИНАЛ   >>