Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры до 20 бил1.doc
Скачиваний:
43
Добавлен:
24.09.2019
Размер:
812.54 Кб
Скачать

1. Информация,ее cв-ва.Виды инфор-ых процессов.Формулы Хартли и Шеннона для измерения кол-ва инф-ции.

Информатика – молодая научная дисциплина, изучающая вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием инф-ции в различных сферах человеческой деят-ти

Информация – отображение реального мира с помощью сведений, сообщений.

Именно с позиций принятия решения рассматриваются качественные признаки инф-ции, ее потребительские свойства.

  1. Объективность инф-ции – независимость ее от мнений и суждений субъекта.

  2. Достоверность инф-ции – соответствие ее реальному состоянию внешнего мира

        1. Полнота инф-ции – достаточность имеющихся сведений для понимания и принятия решения.

        2. Актуальность (своевременность) инф-ции.

        3. Полезность (ценность) инф-ции. Информация может рассматриваться как ценная или, наоборот, бесполезная с точки зрения задач, для решения которых ее можно применить.

        4. Доступность: возможность получения инф-ции данным потребителем.

        5. Своевременность: соответствие инф-ции нуждам потребителя в данный момент времени.

Работа с информацией. Информационные процессы (работа с информацией): поиск, сбор, хранение, передача, обработка, использование, защита и некоторые другие. Среди перечисленных можно выделить три основных типа информационных процессов: хранение, передача, обработка..Хранение инф-ции. Здесь необходимо ввести понятие носителя инф-ции.

Носитель инф-ции – это среда для записи и хранения инф..Передача инф. – это передача какого-либо сигнала. Сигнал – это способ передачи инф.. Он представляет собой физический процесс, имеющий информационное значение.Процесс передачи инф. предполагает наличие ее источника и приемника, между которыми действует канал связи. По каналу связи посредством сигналов передается сообщение, несущее ту или иную информацию. Обычно передаваемая информация закодирована, и правило кодирования должно быть известно как источнику, так и получателю. Различают дискретные и аналоговые сигналы.Аналоговый (непрерывный) сигнал – сигнал, непрерывно меняющийся во времени. Дискретный (прерывистый) сигнал – сигнал, который может принимать конечное число значений в конечное число моментов времени.Сигналы, передающие текстовую информацию, т.е. последовательности символов – дискретны.Обработка инф.

В общем случае можно сказать, что обработка инф. – это преобразование инф. из одного вида в другой по строгим формальным правилам.

1. По способу восприятия. У человека пять органов чувств, и отсюда выделяют пять видов инф.: зрительная, звуковая, тактильная вкусовая, обонятельная.

2. По способу отображения: текстовая; числовая; графическая; звуковая.

Наиболее полно можно судить об объекте или явлении, если соединяются различные формы представления инф..

3. По общественному значению: личная (наследственность; знания, умения, опыт; эмоции, интуиция), массовая (обыденная; общественно-политическая; эстетическая) специальная: (научная; производственная; техническая; управленческая).

4. По способу передачи: дискретная и непрерывная.

5. По месту возникновения: входной, выходной, внутренней, внешней.

6. По стабильности: постоянной и переменной.

7. По стадии обработки: первичная, вторичная, промежуточная, результатная.

8. По предметной области: статическая, коммерческая, нормативная.

Может быть: качественной и некачественной, полной и неполной.

Измерение инф-ции.: 1) вероятностный подход;2) объемный подход.

.. Обозначим N – количество возможных событий, I - количество инф. в сообщении о том, что произошло одно из N событий (N=2, I=1). Связь между этими величинами выражается формулой Хартли: = N, I= log2N.

(формула количества инф.) имеет вид: Ф. Шеннона.

Легко сосчитать, что при этом условии получаем I=1 бит. Форм.можно использовать и в тех случаях, когда возможные результаты опыта не являются равновероятными. Пусть в урне 10 шаров (1 черный и 9 белых). Р1=1/10, Р2=9/10, тогда количество инф. I=0,469 бит. Мы видим, что количество инф. оказалось меньшим, чем для опыта с 2-мя равновероятными исходами I=1 бит.

Теоремы Шеннона: