![](/user_photo/2706_HbeT2.jpg)
- •51. Амплитудно-импульсная модуляция. Спектр аим - колебаний. Почему она применена в представленной схеме уравновешивания?
- •Рве 2.28. Импульсная модуляция: а — периодическая последовательность исходных импульсов; б—модулирующий сигнал; в — аим; г — шим; д — фим; е — икм
- •52. Частотное и временное разделение каналов.
- •53. Фильтрация сигналов. Операторы фильтрации.
- •54. Вероятность и информация. Информационное содержание сигнала.
- •55. Энтропия, количество информации по Шеннону.
- •56. Описание непрерывных колебаний во временной и частотной областях.
- •57. Базисные функции. Ортогональные и ортонормированные функции.
- •58. Спектральная плотность случайных колебаний. “Белый шум” и его свойства.
- •59. Случайные колебания и корреляционные функции.
- •60. Способы повышения помехоустойчивости передачи информации.
- •61. Корреляционное разделение каналов и корреляционная фильтрация.
- •62. Демодуляция частотно – модулированных колебаний.
- •63. Виды каналов передачи информации.
- •64. Информация и фазы обращения информации.
- •65. Виды информации. Устранение избыточности информации.
- •66. Структурные меры информации.
- •67. Статистические меры информации. Информационное содержание сигнала.
- •68. Частотная модуляция. Спектры чм – колебаний.
- •69. Какие виды модуляции гармонических колебаний можно обнаружить в радиокомпасе и каковы их спектры?
- •70. Модуляция гармонических колебаний. Виды амплитудной модуляции и как они представлены в арк?
- •71. Дискретизация сигналов. Теорема Котельникова.
- •72. Систематические (семантические) меры информации. Источники и приемники информации.
- •73. Геометрические меры информации. Каким образом они представлены в индикаторах сои?
- •74. Количество информации. Аддитивные меры Хартли.
- •75. Импульсная модуляция, шим, спектр широтно-импульсных колебаний.
63. Виды каналов передачи информации.
Канал передачи информации состоит из линии передачи связи и ряда физических устройств: модуляторов и демодуляторов, кодирующих и декодирующих устройств, устройств принятия решений, и т.д.
Существуют каналы с обратной связью. Варианты структуры каналов передач информации:
Вид структуры:
1.
элементарное;
2.
с модуляцией;
3.
с модуляцией и кодированием;
4.
с решающими устройствами;
5.
с обратной связью;
Каналом связи называют совокупность устройств, имеющих один вход и один выход и предназначенных для передачи сигналов на расстояние. Канал связи является составной частью системы связи, в состав которой могут входить несколько каналов связи, а также устройства уплотнения каналов, которые обеспечивают передачу сообщений от нескольких источников информации по одному каналу связи.
64. Информация и фазы обращения информации.
Информация - это отражение реального мира, понятия Инф есть сведения является объектом хранения ,передачи и преобразования.
Понятие информация совершенно с моделями реальных отражаемыми их сущность в той степени какой это необходимости для практических целей .
Таким образом под информацией нужно понимать не сами пред-ты и процессы и их хар-ки виде чисел формул ,описание, чертежей, символов образов и др. абстрактных хар-к
Инф-я может быть отнесена к абстрактн. категориям подробных мат-й формулам, но проявляется она всегда материально энергетической форме в виде сигналов.
Изобразим схему материализования информации:
Фаза обращения информации
Восприятие формирует образа объекта производства его опознания и оценка
Подготовка - осуществив борьбу с шумом получают сигналы для передачи и обработки ,нормирования ,квантования модуляция и другие.
Передача – при этом осуществляется переход информации на расстояние по средствам сигналов различной физической природы по механизмам; гидравлической, пневматической, акустической, оптической, электрическим или электромагнитным каналам.
Обработка заключается в решении задач связанных с преобразованием .
Преобразование информации требуется ,тогда , когда в цикле обращения принимает участие человек.
65. Виды информации. Устранение избыточности информации.
Виды информации.
Информацию можно различать по областям знаний (биологический, технический и т.д.), по физической природе (зрительная, слуховая, вкусовая, тактильная), а также по структурно-метрическим свойствам. Для технических наиболее пригодно последнее.
Параметры информации относятся набор числовых оценок, значение каких-л параметров. Результаты количественных определений при исследовании, анализе контроля. Ею пользуются чаще всего в науке и технике (для выражения результатов измерения). Топологическая – к ней относятся карта местности, образы. Абстрактная – в ней применяется исследование на высоком теоретическом уровне, когда нужны ответвление, обобщение и символы.
Устранение избыточности информации.
66. Структурные меры информации.
При использование их учитывается кол-во содержащихся информационных элементов в информации дискретном комплексе связи м/у ними или комбинации из них. Под информационным элементом понимают неделимые части (т.е. кванты) информации, а также элементы алфавита числовых систем. Различают: геометрическую, комбинаторную, аддитивную, (мера Хартли).
Геометрическая мера – количество информации определяется путём измерения длины линии, площади или объема геометрической модели в количестве дискретных единиц. Можно определить потенциальную, т.е. максимально возможное количество информации в заданных структурных габаритах, которые называют информационной ёмкостью исследуемой части информационный системы, она может представляться числом показывающем количество квантов в полном массиве информации. Если дискретные отчёты осуществляются через интервалы ∆Х, ∆t, ∆N, то непрерывные координаты распадаются на элементы, кванты, количество которых будет:
mX=X/∆X; mТ=T/∆T; mN=N/∆N;
а количество информации определяемым геометрическим методом :
М= mX* mТ * mN;
Комбинаторная мера – количество информации в этой мере вычисляется как количество комбинаторных элементов. В комбинаторике рассматриваются различные меры соединения элементов (сочетание, перестановка, размещение). В комбинаторике возможно в комплексах с неодинаковыми элементами переменными связями или разнообразными позициями. Образование комбинаторики есть одна из форм кодирования. Комбинаторика различает различные виды элементов: сочетание h по l; их возможное число :
Перестановки h: Ph=1*2*3…h=h!;
Размещение из h по l: Alh=h!/l! ;
Аддитивная мера – введём понятие глубины h и длинны l числа.
Глубиной h назовём количество элементов (знаков), содержащихся в принятом алфавите. Глубина числа соответствует основанию системы счисления и кодирования. В каждый момент реализуется один какой-нибудь знак.
Длинной l числа назовём количество повторения алфавита необходимых и достаточных для представления чисел нужной величины. l - соответствует разрядности системы счисления и кодирования. При глубине h и длине l количество чисел выразится Q=hl , т.е. ёмкость экспонента зависит от числа l. В следствии показательного закона зависимости Q(l) , Q не очень удобная мера для оценки информационный ёмкости, поэтому Хартли ввёл аддитивную двоичную логарифмическую меру, позволяющую вычислить количество информации в двоичных единицах (битах), для этого берётся не само число Q, а его двоичный логарифм: I= log2Q= log2hl= llog2h; бит.
Он обозначает количество информации по Хартли. Если количество разрядов (длинна l=1) и принять двоичную систему исчисления для которой глубина h=2, то log221=1 бит.
Это если единица информации принятая в системе оценки, она соответствует одному элементарному событию, которое может произойти или не произойти.
Аддитивная мера удобна тем, что обеспечивает возможное сложение а также пропорционально информационной длине числа l.