Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Dokumentalnaya_elektrosvyaz_timoschenko.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
395.04 Кб
Скачать

№1

Информация –это новые сведения которые подлежат приему и передаче.

Сообщение-форма представления информации.

Соообщение представленное в виде удобном для передачи на расстояние наз. Сигналом.

В современной науке рассматриваются два вида информации:

  • Объективная (первичная) информация — свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре[1].

  • Субъективная (семантическая,смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе.

Жизненный цикл сообщения выглядит следующим образом:

  • Отправитель кодирует идею или мысль в сообщение,

  • передаёт сообщение через среду общения получателю.

  • Получатель получает сообщение и декодирует смысл.

Типы сообщений: запрос/вопросответкомандаповествованиеуведомлениепредложение.

Сигнал (в теории информации и связи) — материальный носитель информации, используемый для передачи сообщений в системе связи. Сигнал может генерироваться, но его приём не обязателен, в отличие от сообщения, которое должно быть принято принимающей стороной, иначе оно не является сообщением. Сигналом может быть любой физический процесс, параметры которого изменяются в соответствии с передаваемым сообщением.

В теории информации и связи сигналом называется материальный носитель информации, используемый для передачи сообщений по системе связи. Сигналом может быть любой физический процесс, параметры которого изменяются в соответствии с передаваемым сообщением.

2

1.2.2 Дискретный сигнал

<="" p="">

Рисунок 6. Дискретный сигнал.

Дискретный сигнал (discrete signal) по своим значениям также является непрерывной функцией, но определенной только по дискретным значениям аргумента. По множеству своих значений он является конечным (счетным) и описывается дискретной последовательностью отсчетов (samples) y(nt), где y1 y  y2, t - интервал между отсчетами (интервал или шаг дискретизации, sample time), n = 0,1,2,...,N. Величина, обратная шагу дискретизации: f = 1/t, называется частотой дискретизации (sampling frequency). Если дискретный сигнал получен дискретизацией (sampling) аналогового сигнала, то он представляет собой последовательность отсчетов, значения которых в точности равны значениям исходного сигнала по координатам nt.

Непрерывные сигналы характеризуются своим спектром. Спектр сигнала — это эквивалентный ему набор синусоидальных составляющих (называемых также гармоникамиили частотными составляющими). Спектр сигнала получается разложением функции, выражающей зависимость формы сигнала от времени, в ряд Фурье. Спектр периодического сигнала — линейчатый (дискретный), он состоит из гармоник с кратными частотами. Спектр непериодического сигнала — непрерывный. Типичный спектр речевого сигнала показан на рис. 1.

3

Особенность доументальной электрой электросвязи состоит в том,что необходимо преобразовать все виды сигналов в код.

Документальной электросвязью называют вид электрической связи,

предназначенной для доставки сообщений, представленных в виде

документов.

№4

Базисным понятием всей теории информации является понятие энтропии. Энтропия – мера неопределенности некоторой ситуации. Можно также назвать ее мерой рассеяния и в этом смысле она подобна дисперсии. Но если дисперсия является адекватной мерой рассеяния лишь для специальных распределений вероятностей случайных величин (а именно – для двухмоментных распределений, в частности, для гауссова распределения), то энтропия не зависит от типа распределения. С другой стороны, энтропия вводится так, чтобы обладать, кроме универсальности и другими желательными свойствами. Так, если некий опыт имеет равновероятных исходов, а другой опыт m равновероятных исходов, то составной опыт имеет nm таких исходов. Если мы вводим меру неопределенности f , то естественно потребовать, чтобы она была такова, чтобы во-первых, неопределенность росла с ростом числа возможных исходов, а во-вторых, неопределенность составного опыта была равна просто сумме неопределенности отдельных опытов, иначе говоря, мера неопределенности была аддитивной: f(nm)=f(n)+f(m). Именно такая удобная мера неопределенности была введена К. Шенноном:

H(X)= — P (Xi) log P (Xi),

где Х – дискретная случайная величина с диапазоном изменчивости NP(Xi) – вероятность i – го уровня X.

Рассматривая все возможные многоуровневые и многофазные методы шифрования, теорема Шеннона — Хартли утверждает, что пропускная способность канала  , означающая теоретическую верхнюю границу скорости передачи данных, которые можно передать с данной средней мощностью сигнала   через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности   равна:

где

 — пропускная способность канала, бит/с;

 — полоса пропускания канала, Гц;

 — полная мощность сигнала над полосой пропускания, Вт или В²;

 — полная шумовая мощность над полосой пропускания, Вт или В²;

 — частное от деления отношения сигнала к его шуму (SNR) на гауссовский шум, выраженное как отношение мощностей.

Одно и то же сообщение можно закодировать различными способами. Оптимально закодированным будем считать такой код, при котором на передачу сообщений затрачивается минимальное время. Если на передачу каждого элементарного символа (0 или 1) тратиться одно и то же время, то оптимальным будет такой код, который будет иметь минимально возможную длину.

№5

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]