- •Лекция 1. Общие сведения по теории вероятностей.
- •Условные и безусловные вероятности.
- •1.5. Формула полной вероятности и формула Байеса
- •Понятие случайного события.
- •1) Вероятность достоверного события равна 1;
- •2) Вероятность невозможного события равна 0;
- •Вероятность случайного события заключена
- •1.2. Алгебра событий.
- •1.3. Зависимые и независимые события.
- •1.4. Основные формулы теории вероятностей.
- •1.5. Формула полной вероятности и формула Байеса
- •1.6. Частная теорема о повторении опытов.
- •2.1. Случайные величины и их законы распределения.
- •2.2. Функция распределения.
- •2 .3. Вероятность попадания случайной величины
- •2.4. Плотность распределения
- •2.5. Числовые характеристики случайной величины
- •2.6 Понятие о моментах случайной величины.
- •2.7. Основные свойства математического ожидания
- •Свойства математического ожидания:
- •Свойства дисперсии случайной величины:
- •Лекция 3. Основные законы распределения
- •3.1. Гипергеометрическое распределение
- •3.5. Закон равной вероятности
- •3.7. Закон распределения модуля разности
- •3.8. Композиция законов распределения
- •3.1.Гипергеометрическое распределение.
- •3.5. Закон равной вероятности.
- •3.7. Закон распределения модуля разности.
- •Статистики
- •4.1. Основные задачи математической статистики
- •4.2. Основные понятия и определения. Выборочного метода
- •4.3. Выборочные характеристики. Состоятельные,
- •Свойства выборочных средних и дисперсий.
- •Доверительный интервал. Доверительная вероятность.
- •Задача определения закона распределения случайной величины.
- •2. Задача проверки правдоподобия гипотез.
- •3.Задача нахождения неизвестных параметров распределения.
- •4.2. Основные понятия и определения. Выборочного метода.
- •Генеральная совокупность и выборка из нее.
- •4.3. Выборочные характеристики. Состоятельные, несмещенные и эффективные оценки характеристики.
- •4.5. Доверительный интервал. Доверительная вероятность.
- •5.1. Определение характеристик эмпирического
- •5.2. Сопоставление и проверка сходимости
- •Координаты характерных точек кривой
- •5.3. Сопоставление эмпирического распределения
- •5.4. Статистическая проверка гипотез.
- •5.5. Проверка гипотезы о законе распределения случайной
- •Критерий
- •Критерий 2
- •5.6. Проверка гипотезы равенства двух выборочных средних
- •5.7. Проверка гипотезы равенства двух выборочных
- •5.8. Проверка гипотезы равенства ряда дисперсий .
- •Критерий Бартлета.
- •Критерий Кохрана.
- •5.9. Проверка гипотезы равенства ряда средних.
- •5.10. Метод исключения грубых ошибок измерения
- •5.11. Выбор числа наблюдений
- •6.1.Закон больших чисел и центральная
- •6.2. Неравенство Чебышева.
- •Неравенство Чебышева.
- •6.3. Закон больших чисел (теорема Чебышева).
- •6.4 Теорема Бернулли.
- •7.2. Коэффициент корреляции и корреляционное отношение.
- •7.3. Корреляционный анализ
- •7.4 Выбор уравнения регрессии
- •7.5. Понятие о множественной корреляции
- •Лекция 8. Основы планирования
- •8.6.1. Метод крутого восхождения.
- •8.1. Основные определения.
- •«Черный ящик »
- •8.3. Полный факторный эксперимент.
- •8.3.1 Выбор интервалов варьирования факторов
- •8.3.2 Полный факторный эксперимент типа 2
- •Построение матрицы 2
- •8.3.3. Свойства полного факторного эксперимента типа 2 к
- •8.3.4. Полный факторный эксперимент
- •8.3.5 Анализ модели.
- •8.3.5.1. Проверка значимости коэффициентов модели.
- •Расчет дисперсии опытов и оценка их однородности
- •Расчет дисперсий параметра оптимизации и коэффициентов регрессии
- •Проверка значимости коэффициентов регрессии
- •8.3.5.2. Проверка адекватности модели
- •8.4. Дробный факторный эксперимент.
- •8.4.1.Минимизация числа опытов.
- •Дробная реплика
- •8.4.3. Выбор полуреплик. Генерирующие соотношения и определяющие контрасты
- •8.4.4.Выбор 1/4-реплик. Обобщающий
- •8.6. Оптимизация функции отклика.
- •8.6.1. Метод крутого восхождения.
- •6.6.2. Методика расчета крутого восхождения
- •6.7. Принятие решений после построения модели процесса
- •8.5 Рандомизация опытов.
- •8.6 Оптимизация функции отклика
- •8.6.1. Метод крутого восхождения. Движение по градиенту
- •8.6.2. Методика расчета крутого восхождения
- •8.7.Принятие решений после построения
- •9.1. Статистический анализ точности обработки.
- •9.3. Статистический анализ посредством малых выборок.
- •9.4. Статистический анализ с помощью точечных
- •9.4.1. Карта средних значений (карта « »)
- •9.4.2. Карта медиан (карта )
- •9.4.3. Карты « »
- •9.4.4. Метод средних арифметических значений и
- •9.4.4. Контрольные карты по неизмеримым
- •Карта «р»
- •Карта «с».
Построение матрицы 2
№ опыта |
X |
Х |
Х |
Буквенное обозначение |
Y |
1 2 3 4 5 6 7 8 |
- - + + - - + + |
- + - + - + - + |
+ + + + - - - - |
с ас. ас аbc 1 b а аb |
y1 y2 y3 y4 y5 y6 y7 y8
|
Остальные приемы несколько сложнее и мы рассматривать их не будем.
По аналогии с полным факторным экспериментом 2 можно дать геометрическую интерпретацию полного факторного эксперимента 2 .
Геометрической интерпретацией служит куб, координаты вершин которого задают условия опытов. Если поместить центр куба в точку основного уровня факторов, а масштабы по осям выбрать так, чтобы интервал варьирования равнялся единице, то получится куб, изображенный ниже. Куб задает область эксперимента, а центр куба является центром этой области
3 4
7 8
1 2
5 6
Рис. 5
8.3.3. Свойства полного факторного эксперимента типа 2 к
Мы научились строить матрицы планирования полных факторных экспериментов с факторами на двух уровнях. Теперь выясним, какими общими свойствами эти матрицы обладают независимо от числа факторов. Говоря о свойствах матриц, мы имеем в виду те из них, которые определяют качество модели. Ведь эксперимент и планируется для того, чтобы получить модель, обладающую некоторыми оптимальными свойствами. Это значит, что оценки коэффициентов модели должны быть наилучшими, и что точность предсказания параметра оптимизации не должна зависеть от направления в факторном пространстве, ибо заранее не ясно куда предстоит двигаться в поисках оптимума. Два свойства следуют непосредственно из построения матрицы. Первое из них - симметричность относительно центра эксперимента - формулируется следующим образом: алгебраическая сумма элементов вектор-столбца каждого фактора равна нулю, или
xij = 0 ,
где j - номер фактора; N - число опытов.
Второе свойство - так называемое условие нормировки - формулируется следующим образом: сумма квадратов элементов каждого столбца равна числу опытов, или
x2 ij = N.
Это свойство - следствие того, что значения факторов в матрице задают +1, -1. Все это свойства отдельных столбцов матрицы планирования.
Теперь остановимся на свойстве совокупности столбцов. Сумма почленных произведений любых двух вектор-столбцов матрицы равна нулю, или
xijxiu = 0 , u j , j , u = 0, 1, 2, 3, ... , k .
Это важное свойство называется ортогональностью матрицы планировки.
Четвертое свойство называется рототабельностью, т.е. точки в матрице планирования подбираются так, что точность предсказания значений параметра оптимизации одинакова на равных расстояниях от центра и не зависит от направления.
Пример. Даны две матрицы планирования :
a) - - b) - +
+ - + -
- + - +
+ + + -
Проверим выполнимость трех свойств для каждой из матриц. Первое свойство:
(-1)+(+1)+(-1)+(+1)=0 – первый столбец матрицы а),
(-1)+(-1)+(+1)+(+1)=0 – второй столбец матрицы а) ,
(-1)+(+1)+(-1)+(+1)=0 – первый столбец матрицы b),
(+1)+(-1)+(+1)+(-1)=0 – второй столбец матрицы b) .
Второе свойство: x2 ij = N также выполняется для обеих матриц (столбцы обеих матриц имеют одинаковое число единиц). С третьим свойством, однако, дело обстоит иначе. Если для матрицы а) формула xijxiu = 0 , u j выполняется – (+1)+(-1)+
+(-1)+(+1) = 0 , то для матрицы b) нет – (-1)+(-1)+(-1)+(-1) = - 4. Следовательно, матрица b) спланирована неверно.