
- •Тема 1. Информация и информатика
- •1.1. Информация в материальном мире Сигналы и данные
- •Данные и методы
- •Понятие об информации
- •Пример процесса преобразования данных в информацию
- •Динамический характер информации
- •Требование адекватности методов
- •Взаимодействие данных и методов
- •Свойства информации
- •Операции над данными
- •Определение, предмет и задачи информатики Определение
- •Предмет информатики
- •Основная задача информатики
- •Направления и практические приложения информатики
- •Истоки и предпосылки информатики
- •Единицы измерения данных Математические основания
- •Двоичная система счисления
- •Плотность информации
- •Троичная система счисления
- •Восьмеричная (8) и шестнадцатеричная (16) системы счислений
- •Позиционные системы счисления
- •Представление числа
- •Запись числа
- •Перевод вещественного числа из десятичной системы счисления в двоичную систему
- •Перевод целого числа из десятичной системы счисления в двоичную систему
- •Перевод дробной части вещественного числа из десятичной системы счисления в двоичную
- •Перевод вещественного числа из двоичной системы счисления в десятичную
- •Перевод целой части числа
- •Перевод дробной части числа
- •Перевод из двоичной в восьмеричную и шестнадцатеричную системы
- •Перевод из восьмеричной и шестнадцатеричной систем в двоичную
- •Пример из теста Министерства образования и науки рф
- •Меры и единицы количества и объема информации
- •Кодирование данных Кодирование текстовых данных
- •Универсальная система кодирования текстовых данных unicode
- •Пример 1 из теста Министерства образования и науки рф
- •Пример 2 из теста Министерства образования и науки рф
- •Пример 3 из теста Министерства образования и науки рф
- •Кодирование графических данных
- •Цветовая система rgb и цветовой режим True Color
- •Режим High Color
- •Индексный метод кодирования цвета
- •Кодирование звуковой информации
- •Кодирование видеоинформации
- •Видеоформаты и видеостандарты
- •Расширения видеофайлов
- •Пример 1 из теста Министерства образования и науки рф
- •Пример 2 из теста Министерства образования и науки рф
- •Алгебра логики
- •Логические выражения
- •Пример из теста Министерства образования и науки рф
Расширения видеофайлов
AVI (Audio-Video Interleaved) - это расширение огромного количества видеофайлов, но не является форматом или кодеком. Это контейнер, разработанный Microsoft, в котором могут храниться потоки 4-х типов - видео, аудио, текст и midi.
WMV (Windows Media Video) - это формат от Microsoft, именно в нем можно получить видеоролик, сделанный с помощью программы Movie Maker.
MOV - формат Apple Macintosh QuickTime, может содержать кроме видео также графику, анимацию, 3D. Чаще всего для проигрывания этого формата нужен QuickTime Player.
MKV - тоже контейнер, который может содержать видео, аудио, субтитры, меню и пр. Имеет открытый код, пока не очень распространен, но очень перспективен.
3gp - видео для мобильных телефонов третьего поколения, имеют малый размер и низкое качество.
FLV (Flash Video) - формат видео для размещения и передачи в Интернете, используется такими площадками для размещения видеоклипов, как YouTube, RuTube, Tube.BY, Google Video, Муви и многие другие.
SWF (Shockwave Flash) - это расширение анимации созданной в программе Adobe Flash, а также видео в формате flash, проигрывается браузерами с помощью Flash Player. Флеш-ролики широко распространены в Интернете.
m2v, m2p - расширения видео в формате MPEG-2.
Количество информации. Формулы Хартли и Шеннона |
Следует различать объем информации и количество информации. Ранее мы говорили лишь об объемах информации, понимая под этим объем хранимых или передаваемых данных.
Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения "орла" и "решки" будут различаться.
Формулу для вычисления количества информации в случае различных вероятностей событий предложил Клод Шеннон в 1948 году. В этом случае количество информации определяется по формуле:
|
|
где I - количество информации; N - количество возможных событий; рi - вероятность i-го события.
Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:
Р1 = 1/2, р2 = 1/4, р3 = 1/8, р4 = 1/8.
Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле
Такой подход к определению количества информации называется вероятностным.
Для частного, но широко распространенного и рассмотренного выше случая, когда события равновероятны (pi= 1/N), величину количества информации I можно рассчитать по формуле Ральфа Хартли
|
|
открытой им в 1928 г.
По этой формуле можно определить, например, количество информации, которое получим при бросании симметричной и однородной четырехгранной пирамидки:
I = log24 = 2 бита. Таким образом, при бросании симметричной пирамидки, когда события равновероятны, мы получим большее количество информации (2 бита), чем при бросании несимметричной (1,75 бита), когда события неравновероятны.
Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.