Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика экзамен.docx
Скачиваний:
5
Добавлен:
17.04.2019
Размер:
143.52 Кб
Скачать

3 Вопрос:

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Пример. Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю).

Рассмотрим систему из двух электрических лампочек, которые независимо друг от друга могут быть включены или выключены. Для такой системы возможны следующие состояния:

Лампа    А             0              0              1              1

Лампа    В             0              1              0              1

Чтобы получить полную информацию о состоянии системы, необходимо задать два вопроса типа «да-нет» — по лампочке А и лампочке В соответственно. В этом случае количество информации, содержащейся в данной системе, определяется уже в 2 бита, а число возможных состояний системы — 4. Если взять три лампочки, то необходимо задать уже три вопроса и получить 3 бита информации. Количество состояний такой системы равно 8 и т. д.

Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:

i=log2N,

где i — количество информации в битах; N —. число возможных состояний. Ту же формулу можно представить иначе:

N =2i.

Группа из 8 битов информации называется байтом. Если бит — минимальная единица информации, то байт ее основная единица. Существуют производные единицы информации: килобайт (кбайт, кб), мегабайт (Мбайт, Мб) и гигабайт (Гбайт, Гб).

1 кб  =1024 байта   - 210 (1024) байтов.

1 Мб = 1024 кбайта = 220(1024 x 1024) байтов.

1 Гб = 1024 Мбайта - 230 (1024х1024 х 1024)байтов.

Эти единицы чаще всего используют для указания объема памяти ЭВМ.

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------

4 Вопрос:

Процессы, связанные с поиском, хранением, передачей, обработкой и использованием информации, называются информационными процессами.

Основные понятия:

Поиск информации - это извлечение хранимой информации. Методы поиска информации:

 непосредственное наблюдение;

общение со специалистами по интересующему вас вопросу;

чтение соответствующей литературы;

просмотр видео, телепрограмм;

прослушивание радиопередач, аудиокассет;

 работа в библиотеках и архивах;

запрос к информационным системам, базам и банкам компьютерных данных;

 другие методы.

Сбор и хранение. Сбор информации не является самоцелью. Чтобы полученная информация могла использоваться, причем многократно, необходимо ее хранить. Хранение информации - это способ распространения информации в пространстве и времени. Способ хранения информации зависит от ее носителя (книга- библиотека, картина- музей, фотография- альбом). ЭВМ предназначен для компактного хранения информации с возможностью быстрого доступа к ней. Информационная система - это хранилище информации, снабженное процедурами ввода, поиска и размещения и выдачи информации. Наличие таких процедур- главная особенность информационных систем, отличающих их от простых скоплений информационных материалов. Например, личная библиотека, в которой может ориентироваться только ее владелец, информационной системой не является. В публичных же библиотеках порядок размещения книг всегда строго определенный. Благодаря ему поиск и выдача книг, а также размещение новых поступлений представляет собой стандартные, формализованные процедуры.

Передача. В процессе передачи информации обязательно участвуют источник и приемник информации: первый передает информацию, второй ее получает. Между ними действует канал передачи информации - канал связи. Канал связи - совокупность технических устройств, обеспечивающих передачу сигнала от источника к получателю. Кодирующее устройство - устройство, предназначенное для преобразования исходного сообщения источника к виду, удобному для передачи. Декодирующее устройство - устройство для преобразования кодированного сообщения в исходное. Деятельность людей всегда связана с передачей информации.

----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------