Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Tema_1 1.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
250.34 Кб
Скачать

Свойства информации

  1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.

  2. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

    • преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

    • искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

  3. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

  4. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

  5. Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

  6. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Кодирование- это трансформирование передаваемого сообщения в послание или сигнал, который может быть передан.

Декодирование — это перевод символов отправителя в мысли получателя. Оно включает восприятие (факт получения) послания получателем, его интерпретацию (как понял) и оценку (что и как принял). Если символы, выбранные отправителем, имеют точно такое же значение для получателя, последний будет знать, что именно имел в виду отправитель, когда формулировалась его идея.

В дискретной системе связи при отсутствии помех информация на выходе канала связи (канала ПИ) полностью совпадает с информацией на его входе, поэтому скорость передачи информации численно равна производи­тельности источника сообщений:

                     .                                             

При наличии помех часть информации источника теряется и скорость пере­дачи информации оказывается меньшей, чем производительность источ­ника. Одновременно в сообщение на выходе канала добавляется информация о помехах(рис.5).

         

 Поэтому при наличии помех необходимо учитывать на выходе канала не всю информацию, даваемую источником, а только взаимную информа­цию:

                      бит/с.                                               

На основании формулы (20) имеем

                                  или

                     ,         

где    H¢(x) - производительность источника;

H¢(x/y) - ²ненадёжность “ канала(потери) в единицу времени;

H¢(y) - энтропия выходного сообщения в единицу времени;

H¢(y/x)=H’(n) –энтропия помех ( шума) в единицу времени.

Пропускной способностью канала связи (канала передачи информации) C называется максимально возможная скорость передачи информации по каналу

                     .                                                        

Для достижения максимума учитываются все возможные источники на выходе и все возможные способы кодирования.

Таким образом, пропу­скная способность канала связи равна максимальной производительности источника на входе канала, полностью согласованного с характеристиками этого канала, за вычетом потерь информации в канале из-за помех.

В канале без помех C=max H¢(x), так как  H¢(x/y)=0. При использовании равномерного кода с основанием k, состоящего из n элементов длительностью , в канале без помех      

                     ,

при k=2             бит/c.                                                                

Для  эффективного использования пропускной способности канала необходимо его согласование с источником информации на входе. Такое согласование возможно как для каналов связи без помех, так и для каналов с помехами на основании двух теорем, доказанных К.Шенноном.

1-ая теорема (для канала связи без помех):

Если источник сообщений имеет энтропию H (бит на символ), а канал связи – пропу­скную способность C (бит в секунду), то  можно закодировать сообще­ния таким образом, чтобы передавать информацию по каналу со средней скоростью, сколь угодно близкой к величине C, но не превзойти её.

         К.Шеннон предложил и метод такого кодирования, который получил название статистического или оптимального кодирования.  В дальнейшем идея такого кодирования была развита в работах Фано и Хаффмена и в настоящее время широко используется на практике для “cжатия сообщений”.

         2-ая теорема (для каналов связи с помехами):

         Если пропускная способность канала равна C, а производительность источ­ника H’(x)<C, то путём соответствующего кодирования можно передавать информацию по каналу связи со скоростью, сколь угодно к C и с вероятно­стью ошибки, сколь угодно близкой к нулю. Если же H’(x)>C, то можно за­кодировать источник таким образом, что ненадёжность будет меньше, чем H’(x)-C+e, где e. – сколь угодно малая величина.

Не существует способа кодирования, обеспечивающего ненадёж­ность, меньшую, чем H'(x)-C.

         К сожалению, теорема К.Шеннона для каналов с шумами(помехами) указывает только на возможность та­кого кодирования, но не указывает способа построения соответствующего кода. Однако известно, что при приближении к пределу, устанавливаемому теоремой Шеннона, резко возрастает время запаздывания сигнала  в уст­ройствах кодирования и декодирования из-за увеличения длины кодового слова n. При этом вероятность ошибки на выходе канала стремится к величине

                              

Очевидно, что   ® 0, когда n×tэ ® ¥, и следовательно, имеет место “обмен” верности передачи на скорость и задержку передачи.

Представление чисел в памяти компьютера имеет специфическую осо­бенность, связанную с тем, что в памяти компьютера числа должны рас­полагаться в байтах — минимальных по размеру адресуемых ячейках па­мяти. Адресом числа считают адрес первого байта. В байте может содер­жаться произвольный код из восьми двоичных разрядов.

 

1. Целые числа представляются в памяти компьютера с фиксирован­ной запятой. В этом случае каждому разряду ячейки памяти компьютера соответствует один и тот же разряд числа, запятая находится справа после младшего разряда (то есть вне разрядной сетки).

Для кодирования целых чисел от 0 до 255 достаточно иметь 8 разрядов двоичного кода (8 бит).

Десятичное число

Двоичный код

0

0000 0000

1

0000 0001

2

0000 0010

254

1111 1110

255

11111111

Для кодирования целых чисел от 0 до 65 535 требуется шестнадцать бит; 24 бита позволяют закодировать более 16,5 миллионов разных значе­ний.

Если для представления целого числа в памяти компьютера отведено N бит, то количество различных значений будет равно 2N.

Максимальное значение целого неотрицательного числа достигается в случае, когда во всех ячейках стоят единицы. Если под представление целого положительного числа отведено N бит, то максимальное значение будет равно 2N -1.

Прямой код целого числа может быть получен следующим образом: число переводится в двоичную систему счисления, а затем его двоичную запись слева дополняют необходимым количеством незначащих нулей, соответствующим количеству незаполненных разрядов, отведённых для хранения числа.

 

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]