
- •1 Вопрос. Информатика как наука и вид практической деятельности.
- •Вопрос 2. Основные понятия информатики: информация, информационный процесс.
- •3 Вопрос. Измерение информации: Вероятностный подход
- •4 Вопрос. Измерение информации: объёмный подход
- •5 Вопрос. Представление текста в памяти эвм
- •4.Структурирование текста
- •8 Вопрос. Представление вещественный чисел в памяти эвм
- •9 Вопрос. Дискретное представление графической информации в памяти эвм
- •10 Вопрос. Кодирование цвета в памяти эвм
- •1. Законы грассмана:
- •3. Связь глубины цвета и количества цветов в изображении
- •11 Вопрос. Сжатие информации
- •12 Вопрос. Алгебра логики
- •13 Вопрос. Логические основы эвм
- •14 Вопрос. Типовые Логические основы эвм
- •15 Вопрос. Информационные модели систем
- •16 Вопрос. Системный анализ объекта моделирования
- •17 Вопрос. Реляционная модель данных и базы данных
- •18 Вопрос. Компьютерное математическое моделирование
- •2. Этапы компьютерного математического моделирования (охарактеризовать каждый)
- •19 Вопрос. Классификация компьютерных математических моделей
- •2.Классификация компьютерных моделей по цели моделирования
- •20 Вопрос. Нестрогое определение алгоритма.
- •1.Нестрогое определение алгоритма
- •3. Формы представления алгоритмов
- •21 Вопрос. Базовые алгоритмические структуры
3 Вопрос. Измерение информации: Вероятностный подход
зависимость количества информации в сообщении от вероятности получения сообщения (формула, пример задачи)
формула Хартли (в каких случаях используется, пример задачи)
определение бита с точки зрения вероятностного подхода
среднее количество информации, приходящееся на одно из множества сообщений. Энтропия системы. Формула Шеннона (пример задачи)
Связь информации и энтропии (формула, пример)
Зависимость кол-ва информации в сообщении от вероятности получения этого сообщения.
В математической теории информации исходят из того, что в некотором сообщение Xt количество информации L (xt) зависит не от её конкретного содержания, степени важности и т.д., а от вероятности получения этого сообщения P (xt).
Вероятность события А равно относительно числа исходов, благоприятствующих событию А(m) к числу всех равновозможных исходов .
Сумма вероятности всех возможных исходов опыта равна 1.
Чем меньше вероятность получить сообщение, тем больше информации содержится в нем.
Если все сообщения от данного источника поступают с одинаковой вероятностью, то вероятность одного из N равновероятных событий, а количество информации в этом сообщении определяется по формуле :
Формула Хартли. (1928г). Зависимость количества информации в сообщении от количества равновероятных сообщения.
Формула Хартли
I = - log(1/N) = log N
Если все сообщения от данного источника поступают с одинаковой вероятностью, то вероятность одного из N равновероятных сообщений,
P = 1/N
А кол-во информации в этом сообщении определяется по формуле Хартли.
Бит – это кол-во информации получаемое при получении одного из двух равновероятных сообщений.
N=2 log2N = log22=1 (бит)
Среднее кол-во информации, приходящееся на одно из множества сообщений. Энтропия системы. Формула Шеннона.
Энтропия – численная мера неопределенности наших знаний о состоянии некоторой системы (источника сообщений).
В теории информатики чаще всего необходимо знать не кол-во информации l(xi), содержащееся в отдельном сообщении, а среднее кол-во информации приходящееся на одно из множества передаваемых сообщений создаваемых системой (источником сообщения) – то есть энтропию системы.
Формула Шеннона -
N – количество разных сообщений, которые может генерировать система.
Pi – вероятность появления некоторого сообщения.
Связь информации и энтропии ( формула, примеры)
Количество информации (I), полученное из сообщения о состоянии системы, равно разности неопределенностей наших знаний о состоянии системы, изменившихся «до» и «после» получения сообщения. ( )
Если сообщение полностью снимает неопределенность относительно состояния системы, то количество информации в этом сообщении численно равно энтропии системы до получения сообщения.
Пример. Сколько информации содержится в сообщении о том, что на игральной кости выпало четное число очков? Решение.