- •1. Основные задачи оис
- •6. Современные информационные системы
- •7. Тенденции развития информационных систем
- •8. Агрегативное описание систем
- •9.Теоретико-множественный подход к описанию систем
- •10. Описание системы в виде черного ящика
- •11. Качественные методы описания системы
- •12.Количественные методы описания системы
- •13.Основные понятия и определения информационной системы.
- •14. Рассмотрение информационной системы как открытой системы
- •15.Этапы обращения информации
- •16.Виды информационных систем.
- •17. Понятия сообщений, сигнала.
- •18. Измерение информации
- •19. Основные меры информации
- •Синтаксическая мера информации.
- •Семантическая мера информации
- •Прагматическая мера информации
- •20.Энтропия.
- •21. Энтропия объединения двух статистически независимых источников информации
- •22. Условная энтропия
- •23. Энтропия объединения двух статистически связанных ансамблей
- •24. Дифференциальная энтропия и ее свойства
- •25.Эпсилон-энтропия случайной величины
- •1.7. Эпсилон-энтропия случайной величины
- •26.Количество информации
- •27. Скорость передачи информации и пропускная способность каналов связи
- •28.Потери в канале связи
- •29.Среднее количество принятой информации
- •30. Техническая скорость передачи
- •31. Скорость передачи информации
- •32. Пропускная способность дискретных каналов связи
- •33. Математические модели сигналов
- •35. Временная форма представления детерминированных сигналов
- •36.Частотная форма представления детерминированных сигналов в этом случае в качестве базисных выбраны функции:
- •(Такие функции целесообразно выбирать при анализе инвариантных во времени линейных систем). Для периодического сигнала u(t) коэффициенты сk для базисных функций называются спектром и определяются
- •37. Спектры периодического сигнала
- •38. Спектры непериодических сигналов
- •39. Распределение энергии в спектре
- •40. Соотношение между длительностью импульсов и шириной их спектров.
- •41. Каналы и системы связи
- •42. Основные определения
- •43. Непрерывная модуляция (амплитудная, частотная, фазовая)
- •44.Импульсная модуляция (амплитудно-импульсная, широтно импульсная, частотно-импульсная модуляция)
- •45. Цифровые методы модуляции (импульсно-кодовая, дифференциальная, дельта–модуляция).
- •46. Спектральный анализ модулированных колебаний.
- •47.Кодирование информации
- •48. Общие понятия теории кодирования
- •49.Аналоговые преобразователи
- •50. Эффективное кодирование (Методика Шеннона и Фэно, методика Хафмена)
- •51. Методы сжатия информации
- •52. Помехоустойчивое кодирование
- •53.Линейные групповые коды
- •Задача 12
- •54. Технические средства кодирования и декодирования для групповых кодов. Циклическое кодирование
- •55. Квантование информации
- •56. Классификация методов дискретизации
- •57, Дикретизация по времени
- •58. Выбор точности отсчетов по теореме Котельникова
- •59. Квантование по уровню
- •60. Проблемы развития современных ис Проблемы современных информационных систем
- •Какие преимущества дают облачные системы?
29.Среднее количество принятой информации
а) В случае, если символы источника сообщения появляются равновероятно и взаимно независимо, то для подсчета энтропии такого рода сообщений используют формулу Хартли:
I
= n
*
m
(бит);
=
m
(бит/ символ)
где m – объем алфавита источника дискретных сообщений.
б) Если же символы источника сообщения генерируются с различными вероятностями, но взаимно независимы, то используют формулу Шеннона:
I
= - n*
(бит)
=
-
(бит/символ),
где
- вероятность появления символа ai.
в) В случае же неравновероятного появления источника сообщения и наличия статистических зависимостей между соседними символами энтропию такого рода источника можно определить с помощью формулы Шеннона с условными вероятностями:
/
)*
(
/
)
(бит/ символ),
где Р ( / ) – условная вероятность появления символа после символа .
30. Техническая скорость передачи
По аналогии с информационными характеристиками источников сообщений (§ 1.6), для каналов передачи сообщений так же можно использовать информационные параметрами, характеризующие их качество. Одной из важнейших характеристик, определяющих качество канала, является скорость передачи информации (Q), под которой понимают среднее количество информации передаваемое по каналу в единицу времени. Для вычисления значения Q можно использовать соотношение:
,
где
-
техническая скорость передачи символов
сообщений, под которой подразумевают
число элементарных сигналов (символов),
передаваемых по каналу в единицу времени
(символ / сек.).
H – среднее количество информации, приходящиеся на один элементарный сигнал или символ (бит / символ).
Техническая скорость передачи символов сообщений (W) зависит от свойств и технических средств канала. С учетом возможных различий в длительностях символов, можно считать, что
,
где
-
среднее значение длительности символа.
За единицу измерения скорости передачи информации (Q) принимается бот = [бит/сек].
31. Скорость передачи информации
По аналогии с информационными характеристиками источников сообщений (§ 1.6), для каналов передачи сообщений так же можно использовать информационные параметрами, характеризующие их качество. Одной из важнейших характеристик, определяющих качество канала, является скорость передачи информации (Q), под которой понимают среднее количество информации передаваемое по каналу в единицу времени. Для вычисления значения Q можно использовать соотношение:
,
где - техническая скорость передачи символов сообщений, под которой подразумевают число элементарных сигналов (символов), передаваемых по каналу в единицу времени (символ / сек.).
H – среднее количество информации, приходящиеся на один элементарный сигнал или символ (бит / символ).
Техническая скорость передачи символов сообщений (W) зависит от свойств и технических средств канала. С учетом возможных различий в длительностях символов, можно считать, что
,
где - среднее значение длительности символа.
32. Пропускная способность дискретных каналов связи
Для теории и практики важно знать, до какого предела и каким путем можно повысить скорость передачи информации по конкретному каналу, а поэтому другой важнейшей характеристикой канала является предельное количество информации, которое может быть передано по нему за единицу времени. Данная характеристика получила название пропускной способности канала (С), т.е.
,
где m – объём алфавита передаваемого сообщения.
Пропуская способность канала измеряется также как и скорость передачи информации в ботах.
Пропускная
способность канала имеет ограниченное
значение, как при передаче дискретных
сообщений, так и непрерывных сигналов.
Это объясняется тем, что при увеличении
числа возможных значений сигнала (xk)
увеличение количества передаваемой
информации возможно лишь до тех пор,
пока возможно уверенное распознавание
этих значений. Если же отличия между
соседними значениями сигнала (Δx)
становится меньше среднего уровня шума,
то увеличение числа возможных значений
сигнала не увеличивает количества
передаваемой информации. Поэтому
пропускная способность канала растет
с увеличением отношения полезного
сигнала к шуму (отношение сигнал / шум).
Количественное соотношение между
пропускной способностью канала связи
(
)
при передаче непрерывных сообщений,
его частотными характеристиками и
средними мощностями сигнала и шума (
и
Pш)
определяется соотношением:
-
(бит/сек)(3.26)
де
– верхняя граничная частота в спектре
частот канала.
