Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Экзамен2.docx
Скачиваний:
6
Добавлен:
26.09.2019
Размер:
872.14 Кб
Скачать
  1. Информация и данные. Термин информация происходит от латинского information, что означает разъяснение, осведомление, изложение. С позиции материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). Сообщение - это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.п. В широком смысле информация - это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами. Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. Информатика рассматривает информацию как концептуально связанные между собой сведения, данные, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Наряду с информацией в информатике часто употребляется понятие данные. Покажем, в чем их отличие. Данные могут рассматриваться как признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если появляется возможность использовать эти данные для уменьшения неопределенности о чем-либо, данные превращаются в информацию. Поэтому можно утверждать, что информацией являются используемые данные. Одной из важнейших разновидностей информации является информация экономическая. Ее отличительная черта - связь с процессами управления коллективами людей, организацией. Экономическая информация сопровождает процессы производства, распределения, обмена и потребления материальных благ и услуг. Значительная часть ее связана с общественным производством и может быть названа производственной информацией. Экономическая информация - совокупность сведений, отражающих социально-экономические процессы и служащих для управления этими процессами и коллективами людей в производственной и непроизводственной сфере При работе с информацией всегда имеется ее источник и потребитель (получатель). Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю, называются информационными коммуникациями. Для потребителя информации очень важной характеристикой является ее адекватность. Адекватность информации - это определенный уровень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и т.п.

  2. Свойства информации. Объективность (Зависит от человеческого фактора).Полнота (Зависит от полного объема информации).Достаточной (Зависит от требования к данной информации).Адекватность (Это информация, соответствующая реальности).Доступность (На сколько та или иная информация доступна нам в том или ином объеме).Актуальность (Зависит от своевременности предоставления той или иной информации)

  3. Виды информации.

По способу восприятия Визуальная - воспринимается органами зрения. Мы видим все вокруг. Аудиальная - воспринимается органами слуха. Мы слышим звуки вокруг нас. Тактильная - воспринимается тактильными рецепторами. Обонятельная - воспринимается обонятельными рецепторами. Мы чувствуем ароматы вокруг. Вкусовая - воспринимается вкусовыми рецепторами. Мы чувствуем вкус. По форме представления Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка; Числовая - в виде цифр и знаков, обозначающих математические действия; Графическая - в виде изображений, событий, предметов, графиков; Звуковая - устная или в виде записи передача лексем языка аудиальным путем.

  1. Основные понятия теории информации: носитель сигнал, сообщение. Сигнал - это информационная функция, несущая сообщение о физических свойствах, состоянии или поведении какой-либо физической системы, объекта или среды, а целью обработки сигналов можно считать извлечение определенных информационных сведений, которые отображены в этих сигналах (кратко - полезная или целевая информация) и преобразование этих сведений в форму, удобную для восприятия и дальнейшего использования. Носитель информации – среда для записи и хранения информации. Люди обмениваются информацией в форме сообщений. Сообщение — это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п. Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

  2. Дискретная и непрерывная информация. Виды дискретизации. Аналоговый сигнал – сигнал непрерывно изменяющееся по амплитуде и во времени. Аналоговые сигналы используют в телефонной связи телевидении. Сигнал называется дискретным если он может принимать лишь конечное число значении в конечном числе моментом времени.

  3. Алфавитный подход к измерению информации. Объем данных. При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы. Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел, т.е. пропуск между словами. Полное количество символов алфавита принято называть мощностью алфавита. Будем обозначать эту величину буквой N. При алфавитном подходе к измерению информации количество информации зависит не от содержания, а от размера текста и мощности алфавита. 1 байт = 8 бит. В любой системе единиц измерения существуют основные единицы и производные от них. Для измерения больших объемов информации используются следующие производные от байта единицы: 1 килобайт = 1Кб = 210 байт = 1024 байта. 1 мегабайт = 1Мб = 210 Кб = 1024 Кб. 1 гигабайт = 1Гб = 210 Мб = 1024 Мб.

  4. Мера количества информации по шеннону (разновероятные сообщения) Использование формулы  Шеннона. Общий случай вычисления количества информации в сообщении об одном из N, но уже неравновероятных событий. Этот подход был предложен К.Шенноном в 1948 году.

Основные информационные единицы:

Iср -  количество бит информации, приходящееся в среднем на одну букву;

M  - количество символов в сообщении

I – информационный объем сообщения

pi -вероятность появления i символа в сообщении; i - номер символа; 


Iср = -      

Значение  Iср достигает максимума при равновероятных событиях, то есть при равенстве всех pi                             p= 1 / N.

В этом случае формула Шеннона превращается в формулу Хартли.