- •1.1. Поняття операційної системи.
- •1.5. Поняття асемблера, компілятора, транслятора, інтерпретатора.
- •1.6. Завантажувачі. Завдання завантажувачів. Принципи побудови завантажувачів.
- •1.7. Принципи об’єктно-орієнтованого програмування (парадигми програмування, поняття класу).
- •1.8. Наслідування (Просте наслідування. Множинне наслідування).
- •1.9. Інкапсуляція. Поняття, сфери застосування.
- •1.10. Поліморфізм. Поняття, сфери застосування.
- •1.11. Принципи розробки розподілених клієнт-серверних програм. Особливості розробки мережевих програм з використанням сокетів.
- •2.1 Багаторівнева комп’ютерна організація – структура й призначення рівнів.
- •2.2 Схема комп’ютера з єдиною шиною. Основні характеристики та принципи роботи шини комп’ютера.
- •2.3 Структура процесора, внутрішні блоки, види регістрів.
- •2.4 Команди процесора, структура команд. Цикл Фон-Неймана.
- •2.5 Структуру пам’яті комп’ютера. Елементи статичної та динамічної пам’яті.
- •2.6 Переривання, типи, алгоритм обробки переривання процесором.
- •2.7 Організація оперативної пам’яті, адресний простір, сегменти пам’яті, дескриптори сегментів.
- •3.1 Загальні відомості з теорії систем. Класифікація систем.
- •3.2 Поняття вимірювальної шкали. Види шкал.
- •3.3 Показники якості та ефективності та крітерії їх оцінювання.
- •3.4 Вирішення багатокрітеріальних задач.
- •3.5 Вирішення задачі вибору.
- •3.6 Декомпозиція. Компроміси між повнотою та простотою.
- •3.7 Агрегування. Види агрегування.
- •3.8 Поняття експертних методів. Експертні системи.
- •4.1. Методи розрахунку часових параметрів і критичних шляхів мережевої моделі проекту. Табличний метод.
- •4.2. Методи розрахунку часових параметрів і критичних шляхів мережевої моделі проекту. Матричний метод визначення часових параметрів.
- •4.3. Метод класичного варіаційного числення. Рішення варіаційної задачі із закріпленими граничними крапками.
- •4.4. Метод класичного варіаційного числення. Рівняння Ейлера-Лагранжа.
- •4.5. Постановка задачі оптимального управління. Класифікація задач оптимального управління.
- •4.6. Характеристика керованості і спостережності. Постановка завдання. Критерії керованості і спостережності.
- •6.1 Основні теоретико-множинні (об’єднання, пересічення, віднімання, декартовий добуток) операції реляційної алгебри. Коротка характеристика та приклади.
- •6.2. Основні нормальні форми. Характеристика і приклади відносин, що знаходяться в 1нф, 2нф, 3нф.
- •Id, category, product1, product2, product3
- •6.3. Основні оператори мови маніпулювання даними. Оператор вибірки даних (одно- і багатотабличні запити оператора select).
- •7.2) Модели детерминированных цифровых сигналов
- •7.3. Алгоритми оптимальної обробки при розрізненні двійкових сигналів.
- •7.4. Потенціальна завадостійкість при прийомі ам, чм та фм сигналів.
- •7.5. Багатократні та комбіновані методи модуляції.
- •7.6. Методи боротьби з помилками, що виникають в каналах зв’язку. Завадостійке кодування.
- •7.7 Основні параметри завадостійких кодів. Принципи виявлення та виправлення помилок.
- •7.8 Циклічні коди. Згортальні коди.
- •7.9 Статичні методи стиснення інформації Алгоритм арифметичного стиснення.
- •7.10 Оптимальне кодування інформації. Алгоритми формування коду Хофмана та Шенона-Фано.
- •7.11 Аналогочислові перетворення безперервного сигналу на базі теореми Котельникова в.А.
- •7.12 Пропускна спроможність двійкового каналу зв’язку з перешкодами та без перешкод.
- •8.1. Протоколи фізичного рівня.
- •8.2. Характеристика лінійних сигналів, що використовуються в комп’ютерних мережах.
- •8.4. Загальні характеристики канального рівня.
- •8.5. Протокол hdlc.
- •8.6. Методи доступу в мережу.
- •8.7. Протокол ip. Адресація в ip-мережах.
- •8.8. Протокол tcp.
- •9.1 Алгоритм принятия решения по управлению кс
- •9.2. Архітектура систем управління комп’ютерними мережами.
- •9.3. Управління потоком інформації шляхом раціонального вибору параметрів протоколу.
- •9.4. Управління обслуговуванням різнорідного трафіку: дисципліни обслуговування, їх переваги та недоліки.
- •9.5. Управління якістю обслуговування. Забезпечення якості обслуговування шляхом управління мережевими ресурсами.
- •9.6. Основні стандарти управління комп’ютерними мережами. Мережеве управління за стандартом tmn: визначення, функціональні області, інтерфейси.
- •9.7. Модель управління протоколів snmp та cmip: структура, стандартизовані елементи, переваги та недоліки.
- •10.1. Основні концепції побудови обчислювальних систем, що самоорганізуються.
- •10.2. Класифікація процесорів по архітектурі системи команд (cisc, risc).
- •10.3. Показники ефективності паралельних часових моделей алгоритмів.
- •10.4. Основні ознаки класифікації Флинна. Фрагмент класифікації Флинна.
- •10.5. Відмінності командної чарунки в vliw-процесорі від командної чарунки процесора з послідовною обробкою даних.
- •11.1Стадії та етапи створення асу тп.
- •11.2 Склад і коротка характеристика розділів технічного проекта.
- •11.3 Склад і зміст проектних рішень з технічного забезпечення.
- •11.4Склад і задачі організацій, що беруть участь у роботах зі створення асу тп.
- •11.5Перелік видів випробувань асу тп та їх короткий зміст.
- •11.6 Розрахунок вартості проектних робіт ресурсним методом.
- •11.7 Застосування елементних кошторисних норм для розрахунку вартості пусконалагоджувальних робіт.
7.9 Статичні методи стиснення інформації Алгоритм арифметичного стиснення.
Cжатием информации называется кодирование, производимое в целях сокращения избыточности передаваемых сообщений, и производится с целью уменьшения количества битов, необходимых для хранения и передачи информации, что даёт возможность передавать сообщения более быстро и хранить более экономно и оперативно.
Все методы сжатия информации основаны на двух стратегиях:
стратегия преобразования информации, где учитывается поведение сигнала на предыдущем интервале времени;
статистическая стратегия, которая основывается на вероятностной характеристике. Код при статистическом кодировании выбирается таким образом, чтобы более вероятные значения передавались с помощью более коротких комбинаций кода, а менее вероятные – с помощью более длинных. В результате уменьшается средняя длина кода.
Арифметический код предназначен для сжатия без потерь на основе представления данных в виде чисел нормированных в интервале от 0 до 1.
Кодирование осуществляется в несколько этапов:
составление таблицы кода. Каждому символу выделяется интервал чисел внутри диапазона [0, 1], который пропорциональный вероятности данного символа. Например, слово РАДИОВИЗИР:
Символ |
Вероятность |
Интервал |
А |
0.1 |
0 – 0.1 |
Д |
0.1 |
0.1 – 0.2 |
В |
0.1 |
0.2 – 0.3 |
И |
0.3 |
0.3 – 0.6 |
З |
0.1 |
0.6 – 0.7 |
О |
0.1 |
0.7 – 0.8 |
Р |
0.2 |
0.8 – 1.0 |
каскадное кодирование, заключающееся в последовательном выделении интервала для комбинации символов внутри предыдущих созданных интервалов.
Шаг |
Символ |
Интервал |
0 |
начало кода |
0 – 1 |
1 |
Р |
0.8 – 1 |
2 |
А |
0.8 – 0.82 |
3 |
Д |
0.802 – 0.804 |
4 |
И |
0.8026 – 0.8032 |
5 |
О |
… |
6 |
В |
… |
7 |
И |
… |
8 |
З |
… |
9 |
О |
… |
10 |
Р |
… |
Границы нового интервала определяются путем прибавления границ очередного кодируемого символа умноженных на вершину интервала кодируемого символа к нижней границе предыдущего символа.
(для А: [0.8 + 0.2*0 = 0.8] – [0.8 + 0.1*0.2 = 0.82])
Добавление очередного символа приводит к сужению интервала. Наиболее вероятные сужают интервал наименьше. Т.е., чем шире конечный интервал, тем больше степень сжатия можно достичь.
Декодирование осуществляется по любому числу из конечного интервала путем обратного алгоритма пересчета. Пересчет чисел в декодировании производится вычитанием из имеющегося числа нижней границы интервала декодированного символа и делением разности на величину интервала декодированного символа.
7.10 Оптимальне кодування інформації. Алгоритми формування коду Хофмана та Шенона-Фано.
Оптимальное (эффективное) кодирование
Для полного использования пропускной способности канала необходимо осуществить эффективное кодирование, которое обеспечит устранение избыточности в сообщениях, что приходят от источника. Кодирование при котором обеспечивается полное использование пропускной способности канала называется оптимальным.
Первая теорема Шеннона дает ответ на вопрос, всегда ли можно осуществить оптимальное кодирование: если есть канал с пропускной способностью С, то сообщение из любого источника с энтропией Н(х)можно закодировать так, что окажется возможным передавать эти сообщения со скоростью как угодно близкой к С/Н(х) сообщений в секунду (С двоичных единиц за секунду. Рассмотрим справедливость теоремы для двоичного канала связи.
Пусть алфавит источника сообщений создает конечную систему.
Для сообщения хi длинна кодовой комбинации равна mi, а вероятность ее появления Р(хі). Количество информации что содержится в i-м сообщении равно Ixi=-logP(xi). Пропускная способность канала будет полностью использована, если на каждыйдвоичный символ будет приходится один бит информации. Это будет в том случае, когда количество двоичных символов в кодовой комбинации будет равно количеству информации что содержится в ней. Таким образом, условием опримального кодирования является равенство.
Усреднив это сообщение повсем возможным сообщениям получим:
Меньше чем Н(х) средняя длинна сообщения быть не может.
Максимальная скорость что может быть достигнута в двоичном канале без помех равна:
Оптимальные коды:
Код Шеннона-Фано
Все множество возможных сообщений записывается в порядке уменьшения вероятности их появления, а потом разбивается на две группы так, что бы суммы вероятностей в одной и во второй группе были примерно одинаковы. Первой цифрой для одной (н-р верхней) группы выбирается ноль, а для другой – единица или наоборот. После этого каждая группа разделяется на две подгруппы с приме6рно одинаковыми суммарными вероятностями, причем в верхних подгруппах следующей цифрой выбирают ноль, а в нижних – единицу.
Процесс повторяется до тех пор пока в каждой подгруппе не останется по одному сообщению. Оптимальность обеспечивается: 1) ни одна кодовая комбинация не может быть началом другой 2) так как при каждом разбиении мы приписываем к одной подгруппе ноль, а к другой единице, обеспечивается равномерное распределение нулей и единиц – необходимое условие полного использования пропускной способности канала, 3) При каждом разделении сообщений на две группы с примерно равными суммарными вероятностями, эти вероятности в сообщении каждой группы примерно вдвое меньше начальных. Поэтому сообщение хi, что после k разбивок останется единственным в своей группе будет примерно равно Р(хi)=1/2k, откуда k=-log2P(xi). Но число знаков в кодовой комбинации (mi) равно числу разбивок, таким образом ее длинна равна:
Что отвечает условию оптимального кодирования. Пример:
При решении практических задач не всегда удается разделить таблицу на две части с одинаковой вероятностью. Этот не достаток устраняется при использовании кода Хаффмана.
Код Хаффмана
Аналогично к коду Шеннона-Фано при использовании кода Хаффмана строится таблица в порядке уменьшения вероятности появления сообщений. Сообщения хn и хn-1 соединяются в одну группу с вероятностью Р(х)=Р(хn)+Р(хn-1). Такое объединение повторяется до тех пор пока Р(х) не станет равно 1.
При
кодировании кодом Хаффмана строится
таблица
Отличие в кодировании в том, что в коде Шеннона-Фано формирование начинается со старшого (лівого) разряда. В коде Хаффмана кодове комбинации котируються начиння с младшего (правого) разряда.