- •1. Основные задачи оис
- •6. Современные информационные системы
- •7. Тенденции развития информационных систем
- •8. Агрегативное описание систем
- •9.Теоретико-множественный подход к описанию систем
- •10. Описание системы в виде черного ящика
- •11. Качественные методы описания системы
- •12.Количественные методы описания системы
- •13.Основные понятия и определения информационной системы.
- •14. Рассмотрение информационной системы как открытой системы
- •15.Этапы обращения информации
- •16.Виды информационных систем.
- •17. Понятия сообщений, сигнала.
- •18. Измерение информации
- •19. Основные меры информации
- •Синтаксическая мера информации.
- •Семантическая мера информации
- •Прагматическая мера информации
- •20.Энтропия.
- •21. Энтропия объединения двух статистически независимых источников информации
- •22. Условная энтропия
- •23. Энтропия объединения двух статистически связанных ансамблей
- •24. Дифференциальная энтропия и ее свойства
- •25.Эпсилон-энтропия случайной величины
- •1.7. Эпсилон-энтропия случайной величины
- •26.Количество информации
- •27. Скорость передачи информации и пропускная способность каналов связи
- •28.Потери в канале связи
- •29.Среднее количество принятой информации
- •30. Техническая скорость передачи
- •31. Скорость передачи информации
- •32. Пропускная способность дискретных каналов связи
- •33. Математические модели сигналов
- •35. Временная форма представления детерминированных сигналов
- •36.Частотная форма представления детерминированных сигналов в этом случае в качестве базисных выбраны функции:
- •(Такие функции целесообразно выбирать при анализе инвариантных во времени линейных систем). Для периодического сигнала u(t) коэффициенты сk для базисных функций называются спектром и определяются
- •37. Спектры периодического сигнала
- •38. Спектры непериодических сигналов
- •39. Распределение энергии в спектре
- •40. Соотношение между длительностью импульсов и шириной их спектров.
- •41. Каналы и системы связи
- •42. Основные определения
- •43. Непрерывная модуляция (амплитудная, частотная, фазовая)
- •44.Импульсная модуляция (амплитудно-импульсная, широтно импульсная, частотно-импульсная модуляция)
- •45. Цифровые методы модуляции (импульсно-кодовая, дифференциальная, дельта–модуляция).
- •46. Спектральный анализ модулированных колебаний.
- •47.Кодирование информации
- •48. Общие понятия теории кодирования
- •49.Аналоговые преобразователи
- •50. Эффективное кодирование (Методика Шеннона и Фэно, методика Хафмена)
- •51. Методы сжатия информации
- •52. Помехоустойчивое кодирование
- •53.Линейные групповые коды
- •Задача 12
- •54. Технические средства кодирования и декодирования для групповых кодов. Циклическое кодирование
- •55. Квантование информации
- •56. Классификация методов дискретизации
- •57, Дикретизация по времени
- •58. Выбор точности отсчетов по теореме Котельникова
- •59. Квантование по уровню
- •60. Проблемы развития современных ис Проблемы современных информационных систем
- •Какие преимущества дают облачные системы?
26.Количество информации
Количество информации – это числовая характеристика информации, отражающая ту степень неопределенности, которая исчезает после получения информации. За единицу количества информации принимается один бит.
Бит – слишком маленькое количество информации. На практике чаще применяются более крупные единицы, чтобы измерить количество информации, например байт, являющийся последовательностью из восьми бит. Именно восемь битов или один байт, используется для того, чтобы закодировать символы алфавита. Один байт также является минимальной единицей адресуемой памяти компьютера, т.е. обратиться в память компьютера можно к байту, а не к биту.
1 килобайт – 1024 байт
1 мегабайт – 1024 кб
…
27. Скорость передачи информации и пропускная способность каналов связи
В условиях отсутствия помех скорость передачи информации определяется количеством информации, переносимым символом сообщения в единицу времени и равна
(5.1)
n – количество символов, вырабатываемых источником сообщения за единицу времени.
H – энтропия, снимаемая при получении одного символа сообщения.
Техническая скорость передачи
(
симв/сек ) , (5.2)
где
-
время передачи одного символа вторичного
алфавита.
Таким образом, для сообщений, составленных из равновероятных взаимонезависимых символов равной длительности скорость передачи информации
(
бит/сек ).
В случае неравновероятных символов равной длительности
(
бит/сек )
Пропускная способность ( или емкость канала связи ) есть максимальная скорость передачи информации по данному каналу связи:
(
бит/сек ).
28.Потери в канале связи
При неравной вероятности появления символов (формула Шеннона) количество информации, содержащееся в сообщении заданной длины (n), снижается. Другим фактором, снижающим энтропию, а, следовательно, и количество информации в сообщении заданной длины (n), является наличие статистической зависимости между символами – корреляции.
Из-за корреляционных связей между символами и неравновероятного их появления количество информации в реальных сообщениях падает. Количественно эти потери информации характеризуются коэффициентом избыточности (R)
(1.11)
где
—
максимальное количество информации,
которое может содержать один символ
сообщения, определяемое по формуле
(1.6);
Н — среднее количество информации, которое переносит один символ в реальных сообщениях;
m — число символов в алфавите источника сообщений (объём алфавита).
Средняя скорость передачи (скорость передачи) характеризует среднее количество информации, передаваемое по каналу в единицу времени. Этот показатель тоже зависит от наличия шумов и помех. В любом реальном канале связи всегда имеют место помехи и искажения как детерминированного, так и случайного характера, что ведет к потере информации в канале. Действительно, если на передающем конце канала количество информации, приходящейся на один символ сообщения равно I1, то вследствие воздействия шума после прохождения канала на один символ принятого сообщения будет приходиться количество информации равное I2, причем
-
I2 = I1 – ΔI ,
где ΔI представляет собой количественную меру потери информации при передаче одного символа. Так как среднее количество информации, переносимое одним символом по каналу с шумом, уменьшается, то, очевидно, что снижается и пропускная способность канала с шумом по сравнению с каналом без шумов.
