
- •Общие требования, предъявляемые к параметру оптимизации (по):
- •2. Способ переформулировки задачи с целью сокращения числа изучаемых по:
- •3. Сокращение числа отдельных параметров оптимизации (по) с помощью корреляционного анализа.
- •4. Свойства коэффициентов парной корреляции и последовательность выполнения корреляционного анализа.
- •5. Способ построения графов корреляционных свойств
- •6. Способ обработки данных пассивного эксперимента приемами метода случайного баланса.
- •7. Способ решения компромиссных задач
- •8. Достоинства и недостатки метода случайного баланса.
- •9. Метод перебора при решении компромиссных задач
- •10.Получение приближенных оценок коэффициентов регрессии по выделенным эффектам.
- •11.Графический способ поиска компромисса.
- •12.Критерий, по которому заканчивают отсеивание факторов и их взаимодействий.
- •13.Шкала желательности и правила пользования ею.
- •14. Способ, с помощью которого, не строя диаграмм рассеяния для всех парных взаимодействий, можно выделить наиболее значимые из них.
- •15. Способ построения обобщенной функции желательности. Преимущества использования данного способа.
- •16. Идея снятия значимых эффектов и способ их снятия.
- •17. Способ преобразования исходных значений свойств в соответствующие желательности.
- •18. Количественная оценка эффектов, выделенных с диаграмм рассеяния факторов и проверка статистической значимости.
- •19. Способы оценки ошибок опыта.
- •20. Возможности априорного ранжирования параметров оптимизации. Цели этого ранжирования.
- •21. Необходимость рандомизации при определении ошибок опыта.
- •22. Методы экспериментального отсеивания факторов.
- •23. Способ проверки однородности дисперсии. Случай использования критерия Кочрена g.
- •24. Ненасыщенные, насыщенные, сверхнасыщенные экспериментальные планы.
- •25. Способы отсеивания факторов с помощью полностью насыщенных планов.
- •26. Основная идея, положенная в основу всех методов отсеивания факторов.
- •27. Метод априорного ранжирования факторов и последовательность его выполнения.
- •28. Последовательность всех этапов решения задачи отсеивания по методу случайного баланса. (мсб)
- •29.Построение априорной диаграммы рангов
- •30. Способы составления матриц планирования в методе случайного баланса.
- •31.Способ расчета коэффициента конкордации в случае связанных и несвязанных рангов.Проверка статистической значимости коэффициента конкордации.
- •33. Возможные случаи распределения факторов по рангам.
- •34) Методика построения диаграмм рассеяния в методе случайного баланса.
- •35.Способы сравнения точек зрения двух исследователей.
- •36) Критерии по которым отбираются наиболее значимые факторы с диаграммы.
- •37) Определение по выделенным эффектам приближенных оценок коэффициентов регрессии.
- •38.Способ определения доверительных интервалов коэффициентов регрессии. Статистически значимые и статистически незначимые коэффициенты регрессии.
- •39. Параллельный перенос начала координат исходного уравнения в новый центр. Определение величин параметра оптимизации в новом центре.
- •40. Генерирующее соотношение и определяющий контраст.
- •41.Преимущества предоставления уравнения регрессии в канонической форме.
40. Генерирующее соотношение и определяющий контраст.
Генерирующее соотношение показывает, с каким из эффектов смешан данный эффект. Пример x1x2=x3 (1)-эффект 3 смешан с эффектами 1 и 2. Умножим (1) на x3,то x32=x1x2x3 (xi2=1)=> x1x2x3=1. Символическое обозначение произведения столбцов равное (+1) или (-1) называют определяющим контрастом . С помощью него можно определить систему смешивания эффектов. Чтобы определить какой эффект смешан с данным, надо умножить обе части определяющего контраста на столбец, соответствующий данному эффекту: х1= х12 х2 х3, х1= х2 х3, т.к. х12=1; х3= х1 х2.
41.Преимущества предоставления уравнения регрессии в канонической форме.
Вид
уравнения регрессии в такой форме удобен
для анализа и оптимизации. Поскольку
все факторы Х
входят в квадрате, следовательно,
изменения значения
будет зависеть от знаков коэффициентов
и не зависит от направления движения
по оси
от
центра S.
Параметр оптимизации
будет
возрастать всегда, когда эта величина
>0 и уменьшается <0.