- •1.Адаптивные методы краткосрочного прогнозирования: метод Брауна.
- •2.Адаптивные методы среднесрочного прогнозирования модификация метода стохастической аппроксимации
- •3.Адаптивные методы среднесрочного прогнозирования: методы дисконтирования.
- •4.Адресация в сети Internet. Службы Internet.
- •5.Анализ барьеров входа-выхода
- •6.Вероятностная модель рынка с тремя состояниями.
- •7.Внутренняя норма доходности irr инвестиционного проекта
- •8.Восемь этапов проведения организационных изменений (Джон Коттер)
- •9.Генерация и удаление транзактов. Имитация обслуживания.
- •10.Графический метод решения антагонистической игры.
- •11.Графический метод решения задач линейного программирования
- •12.Двойственные задачи линейного программирования.
- •13.Дискретные функции. Непрерывные функции.
- •14.Дискриминантный анализ.
- •15.Задачи имитационного моделирования и принципы построения. Общий вид задачи имитационного моделирования.
- •2. Подготовка исходных данных
- •3. Выбор средств моделирования
- •4. Разработка программы модели
- •5. Проверка адекватности и корректировка модели
- •16.Имитация многоканальных устройств. Смешанная модель.
- •17.Инвестиционные проекты и их финансовые потоки. Основные оценки эффективности инвестиционного проекта.
- •18.Индекс доходности pi инвестиционного проекта.
- •19.Квазимонопольное поведение фирмы на рынке
- •20.Классификация информационных систем. Модели данных.
- •1.Реляционная модель данных или отношение "один к одному" (1:1).
- •2.Иерархическая модель данных или отношение "один ко многим" (1:n).
- •3.Сетевая модель данных или отношение "многие ко многим" (m:n).
- •21.Классификация средств информационных технологий по функциональному признаку. Case средства в информационных технологиях.
- •22.Классификация экспертных систем.
- •23.Кластерный анализ.
- •24.Максимин, минимакс и связывающее их неравенство.
- •25.Метод главных компонент.
- •26.Метод канонических корреляций.
- •27.Методология исследования отраслевых рынков.
- •28.Методы выбора управленческих решений с использованием моделей нелинейного программирования
- •29.Методы выделения тренда. Оценивание параметров трендовых моделей.
- •30.Множественный корреляционный анализ.
- •31.Множественный регрессионный анализ.
- •32.Модели авторегрессии.
- •33.Модели и алгоритмы дискретного программирования при управлении экономикой
- •34.Моделирование одноканальных систем массового обслуживания. Структура модели. Понятие транзакта.
- •35.Моделирование случайных чисел с равномерным распределением. Формирование случайных чисел с заданным законом распределения.
- •Метод аналитического преобразования случайных величин
- •Нормальное распределение.
- •Метод табличного преобразования случайных величин
- •36.Модель 4 сфер влияния: барьеры на пути перемен и стратегии их преодоления.
- •37.Модель делового цикла Самуэльсона-Хикса.
- •38.Модель динамического мультипликатора Кейнса.
- •39.Модель классического проведения организационных изменений.
- •40.Модель обзора четырех сфер влияния.
- •41.Модель перекрывающихся контрактов.
- •42.Модель перекрывающихся поколений: случай производственной функции типа Кобба-Дугласа и логарифмических предпочтений.
- •43.Модель управления запасами. Классификация затрат и формулы Уилсона
- •44.Неоклассическая модель экономического роста Солоу-Свэна.
- •45.Одноканальная модель с приоритетами. Одноканальная модель с различными типами транзактов.
- •46.Олигополия. Стратегическое взаимодействие фирм на рынке.
- •47.Оптимальный выбор решений на моделях линейного программирования
- •48.Основные задачи манипулирования данными в ходе управленческой деятельности.
- •49.Основные принципы поиска информации в Internet. Поисковые ресурсы Internet. Бизнес и Internet.
- •50.Основные формы представления данных в информационных технологиях.
- •51.Основные характеристики системы обслуживания с ожиданием
- •52. Основные характеристики системы обслуживания с отказом
- •53.Оценка монопольной власти фирм на рынке.
- •55.Оценка потерь общества от монополии.
- •56.Ошибки, часто совершаемые при проведении орг изменений на восьми этапах Коттера.
- •57.Парадигма «Структура – поведение - результат» и ее роль в исследовании отраслевых рынков.
- •58.Понятие антагонистической игры. Решение антагонистической игры.
- •59.Понятие седловой точки игры. Теорема о седловой точке.
- •60.Постановка задач оптимального выбора управленческих решений на статических моделях
- •61.Потоки платежей. Дисконтирование и приведенная стоимость потока. Устойчивость оценки приведенной стоимости потока.
- •62. Потоки требований и их характеристики.
- •63.Представление регулярно структурированных данных в текстовых формах.
- •64.Принципы построения и анализа имитационных моделей. Основные и вспомогательные события. Завершение моделирования. Таймер модельного времени.
- •65.Проверка гипотез о значениях параметров многомерной случайной величины.
- •66.Простые и сложные процентные ставки. Основные свойства и формулы.
- •67. Процедура «Поиск решения» и её применение для решения оптимизационных задач
- •68. Пуассоновский поток требований и его характеристики.
- •69.Регистраторы очередей. Передача транзактов
- •70.Реинжиниринг бизнес процессов на примере компании Kodak.
- •71.Сети эвм. Основные понятия. Классификация. Протоколы сети Internet.
- •72.Системы управления базами данных (субд). Структура субд.
- •73.Сравнительный анализ основных типов рыночных структур: совершенной конкуренции, монополии, монополистической конкуренции, олигополии. Индексы концентрации.
- •74.Средства и задачи формальной обработки данных.
- •75.Средства создания и сопровождения информационных систем.
- •76.Стационарные траектории и стационарные состояния динамической системы. Понятие устойчивости стационарного состояния.
- •77.Структура гипертекстового документа. Цвет и инструкции заголовка гипертекстового документа. Гиперссылки и форматирование гипертекстового документа. Пример простейшего сайта.
- •78.Структура процессов информационных технологий.
- •79.Структура ресурсов информационных технологий.
- •80.Структура средств информационных технологий.
- •81.Существование решения антагонистической игры в смешанных стратегиях.
- •82.Таймер модельного времени. Представление результатов моделирования.
- •83.Теневые цены (двойственные оценки) в задачах линейного программирования
- •84. Теоремы двойственности в линейном программировании
- •85. Технология разработки математических моделей оптимального управления экономикой
- •86.Точечные и интервальные оценки многомерных статистик.
- •87.Факторный анализ.
- •88.Финансовые ренты. Основные понятия и формулы.
- •89.Формирование видения компании: базовая идеология.
- •90.Характеристика симплекс-метода.
- •91.Ценовая дискриминация и ценовая политика фирмы на товарном рынке.
- •92.Чистый приведенный доход npv инвестиционного проекта.
- •93.Эконометрическое моделирование отраслевой функции затрат.
24.Максимин, минимакс и связывающее их неравенство.
Даны платежные матрицы двух игроков, где описаны соотношения стратегий игроков с выигрышами (проигрышами) в зависимости от выбранной стратегии. Если у игроков конечное число стратегий, то:
I – m, и II – n имеем матрицу mxn, тогда
|
1 |
… |
n |
min |
1 |
a11 |
… |
a1n |
|
… |
… |
… |
… |
MAX |
m |
am1 |
… |
amn |
|
|
1 |
… |
n |
1 |
a11 |
… |
a1n |
… |
… |
… |
… |
m |
am1 |
… |
amn |
max |
|
MIN |
|
Сумма матриц=0
Принято задавать только матрицу выигрышей для первого игрока.
Выбираем min элемент из каждой строки
Выбираем максиму из минимумов: maxmin - Максимально гарантированный размер выигрыша.
Для второго игрока:
Выбираем max элемент из каждого столбца
Выбираем минимум из максимумов: minmax
Теорема о неравенстве минимаксов:
max min aij ≤ min max aij
i j j i
Доказательство:
Если maxminij=minmaxij
то, элемент матрицы является минимумом в своей строке и максимумом в столбце, и называется седловой точкой.
25.Метод главных компонент.
Метод главных компонент (МГК) применяется для снижения размерности пространства наблюдаемых векторов, не приводя к существенной потере информативности. Предпосылкой МГК является нормальный закон распределения многомерных векторов. В МГК линейные комбинации случайных величин определяются характеристическими векторами ковариационной матрицы. Главные компоненты представляют собой ортогональную систему координат, в которой дисперсии компонент характеризуют их статистические свойства.
Пусть дан исходный набор векторов X линейного пространства Lk. Применение метода главных компонент позволяет перейти к базису пространства Lm (m≤k), такому что: первая компонента (первый вектор базиса) соответствует направлению, вдоль которого дисперсия векторов исходного набора максимальна. Направление второй компоненты (второго вектора базиса) выбрано таким образом, чтобы дисперсия исходных векторов вдоль него была максимальной при условии ортогональности первому вектору базиса. Аналогично определяются остальные векторы базиса. В результате, направления векторов базиса выбраны так, чтобы максимизировать дисперсию исходного набора вдоль первых компонент, называемых главными компонентами (или главными осями). Получается, что основная изменчивость векторов исходного набора векторов представлена несколькими первыми компонентами, и появляется возможность, отбросив оставшиеся (менее существенные) компоненты, перейти к пространству меньшей размерности.
Результатом применения МГК является вычисление матрицы W размера m*k, осуществляющей проекцию векторов пространства Lk на подпространство, натянутое на главные компоненты:
Y = W*(X - μ), Y ∈ Lm, X ∈ Lk.
Где X - вектор из исходного набора, Y - координаты вектора в подпространстве главных компонент, μ - математическое ожидание вектора X начального набора.
П
усть
имеется реализация (20 наблюдений)
двумерного вектора X.
На рисунке представлена совокупность
наблюдений.
Определение главных компонент Y вектора X состоит в определении новых осей координат по условию: направление координаты y1 должно соответствовать максимальному рассеянию наблюдений, направление y2 должно соответствовать направлению с максимальном рассеянием наблюдений среди всех направлений ортогональных y1.
Е
сли
исходные данные нормировать, то начало
координат главных компонент будет
соответствовать X
= (x1,x2)т
, дисперсии
компонент, будут равны единице.
Решение задачи методом главных компонент сводится к поэтапному преобразованию матрицы исходных данных X.
Пусть X – матрица исходных данных размерностью n*k (n – число объектов наблюдения, k – число элементарных аналитических признаков), тогда Z – матрица центрированных и нормированных значений признаков, элементы матрицы вычисляют по формуле:
zi,j =( xi,j - xj )/Sj,
где: xi,j - i-ое значение j-ой компоненты вектора X, i=1,2, ... ,n; j=1,2, ... ,k,
xj - оценка математического ожидания j-ой компоненты вектора X: xj =∑i xi,j/n,
Sj - корень квадратный из оценки дисперсии j-ой компоненты вектора X:
S2j = ∑i (xi,j - xj )2/(n-1).
Матрица оценок парных корреляций R вычисляется по формуле:
R=(Zт*Z)/(n-1).
Напомним, что оценка ковариационной матрицы C вычисляется по формуле:
C = (Xт*X)/(n-1).
Далее вычисляется диагональная матрица Λ собственных (характеристических) чисел.
Множество решений λj находят решением характеристического уравнения |R - λI| = 0. Характеристики вариации λj - показатели оценок дисперсий каждой главной компоненты. Суммарное значение Σλj равно сумме оценок дисперсий элементарных признаков xj. При условии стандартизации исходных данных, эта сумма равна числу элементарных признаков k.
Решив характеристическое уравнение, находят его корни λj. После этого вычисляют собственные векторы матрицы R. Реально это означает решение k систем линейных уравнений для каждого при j = 1, ..., k. В общем виде система имеет вид:
(1-λj )*v1j + r12*v2j +r13*v3j + ... +r1k*vkj = 0,
r21*v1j + (1-λj )*v2j +r23*v3j + ... +r2k*vkj = 0,
...............................................................
rk1*v1j + rk2*v2j +rk3*v3j + ... +(1-λj )*vkj = 0,
Приведенная система объединяет однородные линейные уравнения, и так как число ее уравнений равно числу неизвестных, она имеет бесконечное множество решений. Конкретные значения собственных векторов при этом можно найти, задавая произвольно по крайней мере величину одной компоненты каждого вектора.
Далее вычисляется матрица A – матрица компонентного отображения, ее элементы akj – весовые коэффициенты. Вначале A имеет размерность k*k – по числу элементарных признаков Xj, затем в анализе остается m наиболее значимых компонент, m ≤ k. Вычисляют матрицу A по известным данным матрицы собственных чисел Λ и нормированных собственных векторов V по формуле A = V*Λ1/2.
G – матрица значений главных компонент размерностью k*n, G = A-1Zт . Эта матрица в общем виде записывается:
g11 |
g12 |
... |
g1n |
g21 |
g22 |
... |
g2n |
... |
... |
... |
... |
gk1 |
gk1 |
... |
gkn |
Эта матрица показывает значения всего набора главных компонент (число главных компонент равно k). При снижении размерности до m главных компонент размер матрицы будет m*n. Величина m либо назначается пользователем, либо определяется по значениям λj. Например, в ППП "Statgraphics" по умолчанию остаются только те главные компоненты, собственные числа которых не меньше единицы.
