
- •Вопросы госэкзамена по направлению
- •09.03.03 «Прикладная информатика», 2020-2021 уч.Год Дисциплина «Вычислительные системы, сети и телекоммуникации»
- •Понятие вычислительной системы; архитектура и организация; этапы развития
- •Краткая характеристика первого и второго поколений вычислительных систем
- •Технические новации вычислительных систем третьего поколения
- •Специфика вычислительных систем четвертого и пятого поколений
- •Концепция вычислительной машины с хранимой в памяти программой
- •Классификация вычислительных систем, таксономия Флинна
- •Основная память вычислительной машины; временные характеристики
- •Структура вычислительной машины фон Неймана
- •Устройство управления вычислительной машины фон Неймана
- •Арифметико-логическое устройство, укрупненное представление тракта данных
- •Управление трактом данных, стек, машинный цикл с прерыванием
- •Шестиуровневая модель современной вычислительной системы
- •Параллельные вычислительные системы, закон Амдала
- •Параллелизм
- •Параллелизм на уровне инструкций
- •Параллелизм данных
- •Параллелизм задач
- •Распределённые операционные системы
- •Закон Амдала
- •Эталонная модель взаимодействия открытых систем
- •Физический уровень модели osi/rm
- •Потенциальная скорость передачи данных; формулы Шеннона и Найквиста
- •Канальный уровень модели osi/rm; система стандартов ieee 802
- •Межсетевой уровень модели osi/rm
- •Транспортный уровень модели osi/rm
- •Назначение и примеры реализации уровней 5, 6, 7 модели osi/rm
- •Дисциплина «Сетевое управление и протоколы»
- •Стеки коммуникационных протоколов
- •Способы и протоколы маршрутизации в ip-сетях
- •Адресация в сетях ip, классы сетей
- •Структурирование ip-сетей с помощью подсетей; маски подсетей
- •Протокол iPv6
- •Дисциплина «Мультимедиа технологии»
- •Психофизиологический закон Вебера-Фехнера
- •Кривые равной громкости; динамический диапазон
- •Восприятие сложных звуков, критические полосы
- •Градиент передачи яркости, гамма-коррекция
- •Цветовые модели
- •Цветовые стандарты
- •Цветовое пространство yCbCr
- •Цветовая субдискретизация
- •Дисциплина «Методы обработки аудио и видео данных»
- •Дискретизация, теорема Котельникова
- •Квантование; шум квантования
- •Основы устранения избыточности и сжатия аудиоданных с потерями
- •Характеристики электронных изображений
- •Растрово-пиксельный принцип электронного изображения
- •Дисциплина «Статистическая обработка информации»
- •Разделы статистической обработки информации: теория оценок, теория проверки статистических гипотез
- •Смещенность оценки; примеры смещенных и несмещенных оценок
- •Состоятельность оценки; примеры состоятельных и несостоятельных оценок
- •Эффективность оценки; функции штрафа и риска
- •Смещенность симметричного распределения: выборочное среднее, выборочная медиана, усеченное среднее
- •Метод моментов: пример нахождения параметров равномерного распределения
- •Оценка закона распределения случайной величины: эмпирическая интегральная функция распределения
- •Оценка закона распределения случайной величины: метод гистограмм
- •Коэффициенты асимметрии и эксцесса; диаграммы Каллена-Фрея
- •Дисциплина «Построение и анализ графовых моделей»
- •Графы: определения, соотношение числа ребер и вершин
- •Изоморфизм графов, примеры
- •Пути, цепи, циклы; связность графов; алгоритм нахождения компонент связности
- •Эйлеров цикл: определение, условие существования, алгоритм нахождения
- •Гамильтонов цикл: определение, алгоритм нахождения на основе динамического программирования
- •Деревья: остовное дерево, алгоритм Крускала
- •Способы хранения структуры графа в эвм
- •Алгоритм поиска кратчайшего пути в графе
- •Задача о коммивояжере: оптимальный и эвристический алгоритмы решения
- •Раскраска графов, эвристический алгоритм раскраски
- •Дисциплина «Имитационное моделирование»
- •Входные потоки заявок смо: классификация и основные характеристики
- •Модель сервера смо
- •Модель буфера смо; дисциплины обслуживания
- •Классификация Кендалла
- •Теорема Литтла
- •Время пребывания заявки в системе типа m/m/1; среднее количество заявок в системе
- •Три леммы о пуассоновском потоке (слияние, расщепление, выход m/m/1)
- •Расчет однонаправленных сетей массового обслуживания (сети Джексона)
Метод моментов: пример нахождения параметров равномерного распределения
В тех
случаях, когда исследователю необходимо
провести оценку произвольных
параметров случайной величины (например,
границ в равномерном распределении
или показателя в экспоненциальном)
можно воспользоваться достаточно
универсальным методом
моментов (ММ). Суть
метода заключается в следующем. Параметры
случайной величины однозначно задают
функцию распределения
,
а, значит, и все моменты распределения.
Тогда, если необходимо оценить t
параметров
,
можно составить следующую систему из
t
уравнений:
(1)
Переразрешив
данную систему относительно
,
получим новую систему уравнений,
позволяющую найти параметры распределения
через его моменты:
(2)
После оценки моментов и подстановки их в систему (1) получим оценки для искомых параметров распределения.
Пример нахождения параметров равномерного распределения
По выборке равномерно распределенных случайных величин необходимо одновременно оценить оба параметра данного распределения (левую границу a и правую границу b). Известно, что:
Решив данную систему относительно a и b получим:
Оценив
по выборке
и
и, подставив их в данную систему, получим
оценки по ММ для a
и b.
Очевидным недостатком данного метода является сложность переразрешения системы (1) в систему (2) для некоторых распределений, а также невысокая точность в случае одновременного оценивания большого количества параметров.
Оценка закона распределения случайной величины: эмпирическая интегральная функция распределения
Для
оценки интегральной функции обычно
исходят из определения, согласно
которому
показывает, с какой вероятностью
случайная величина попадает в область
(см. формулу 1.1). Соответственно оценка
может быть осуществлена, например,
следующим способом:
(1)
Оценка
называется эмпирической
интегральной функцией распределения.
Как можно видеть из выражения (1),
является ступенчатой функцией,
скачкообразно изменяющейся в точках
на величину, равную 1/N.
Рисунок 1 – График интегральной и эмпирической интегральной функции для распределения хи-квадрат (объемы выборок – 10, 30, 100)
Очевидно, что чем больше объем выборки N, тем меньше величина «ступеньки» и, значит, тем более точной будет оценка функции . Этот факт выражается в следующих теоремах.
Теорема Гливенко-Кантелли.
Пусть
- бесконечная последовательность из
чисел, распределенных согласно функции
.
Пусть
- эмпирическая интегральная функция
распределения, построенная по первым
N
элементам выборки. Тогда:
.
Здесь
обозначает точную
верхнюю грань для
ошибки в оценке. Таким образом,
эмпирическая интегральная функция
распределения является состоятельной
оценкой интегральной функции
распределения.
Теорема Колмогорова.
Скорость сходимости функции к определяется из следующего выражения:
при
Здесь
- случайная величина, распределенная
по закону Колмогорова:
Т. е.
максимальная погрешность в оценке в
среднем убывает обратно пропорционально
корню из объема выборки:
(ср. с выражениями (2.3) и (2.5)).