Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
вопросы и ответы по информатики (version 0.1).docx
Скачиваний:
4
Добавлен:
22.12.2018
Размер:
135.1 Кб
Скачать

17. Понятие «информация» в науках о неживой и живой природе, обществе и технике.

Информация — сведения о чем-либо, независимо от формы их представления.

Понятие информация в окружающем мире делится на 3 мира

1)Микромир, сюда входят микрообъекты (Молекулы, Клетки и т.д.)

2)Макромир- это мир в котором размеры объектов сравнимы с человеком, сюда входят макрообъекты которые подразделяются на живые, неживые и искусственные.

Неживые: Камень, скала, песок, ракушки и т.д.

Живые: Человек, животные, растения

Искусственные: все что создано человеком

3)Мега мир: сюда входят космос, галактика…

Социально значимые св-ва информации

Человек существо социальное, для общения с другими людьми ему необходимо обмениваться информацией.

Св-ва информации

1)Понятность

2)Полезность

3)Достоверность и актуальность

4)Полнота и точность

5)Знание и незнание

18. Количество информации как мера уменьшения неопределенности знаний.

1 байт = 8 бит

За единицу кол-во информации принимается такое кол-во информации которое содержит сообщение, уменьшающее неопределённость знание в 2 раза.

Такая единица называется бит.

1 Байт = 3 бит и равняется 8

1 Килобайт =210 байт = 1024 бит

1 Мегабайт =210 килобайт = 220 килобит

1 Гигабайт =210мегобайт

1 Терабайт = 210 гигабайт

Формулы связи между кол-вом событий и кол-вом информации

N=2I

N- кол-во возможных событий, i кол-во информации.

19. Алфавитный подход к определению количества информации.

При хранении и передачи информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать её как последовательность символов – знаков (букв, цифр, кодов-цветов и т.д.)

Набор символов знаковой системы (алфавита) можно рассматривать как различные возможные состояния (события)

Определение мощности русского алфавита

Информационная ёмкость буквы в Русском алфавите (не используя буквы Ё) составляет 5 бит.

I(снизу с)=i(умножить на) K

I(c)=i*K

I(с) - информационная ёмкость сообщения

i-кол-во информации которое несёт 1н символ

К- кол-во символов

20. Формула Шеннона.

Эта величина также называется средней энтропией сообщения. Величина  называется частной энтропией, характеризующей только i-e состояние.

Таким образом, энтропия события x является суммой с противоположным знаком всех произведений относительных частот появления события i, умноженных на их же двоичные логарифмы[1]. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.

Шеннон предположил, что прирост информации равен утраченной неопределённости, и задал требования к её измерению:

  1. мера должна быть непрерывной; то есть изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции;

  2. в случае, когда все варианты (буквы в приведённом примере) равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать значение функции;

  3. должна быть возможность сделать выбор (в нашем примере букв) в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.