
- •Вопрос №2. Канал связи с точки зрения оти
- •Вопрос № 3. Определение понятия информация
- •Кроме этого информация обладает еще следующими свойствами:
- •Вопрос №4 виды источников сообщения: дискретная и непрерывная
- •Вопрос №5 критерии эффективности канала связи: пропускная способность, надежность, помехоустойчивость.
- •Вопрос №6 свойства информации. Понятность, полнота, массовость, интерпретируемость, достоверность
- •Вопрос №7 классификация информации по различным критериям.
- •Вопрос № 8 входная, выходная, внутрисистемная информация
- •Вопрос № 9 исходная, результирующая информация. Дискретная, непрерывная информация
- •Вопрос № 10 информационные процессы
- •Вопрос № 11 информация в живой природе
- •Вопрос № 16 информационное общество. Информатизация общества
- •Вопрос № 17 энтропия как мера неопределенности выбора
- •Вопрос № 20 правила определения энтропии по Шеннону
- •Вопрос № 22 метод половинного деления
- •Вопрос № 23 основные свойства энтропии. Информационная энтропия источника и термодинамическая энтропия
- •Вопрос № 24 содержательный подход к количественному измерению информации
- •Вопрос № 26 компьютер- универсальное средство обработки информации
- •Вопрос № 27 представление числовой информации в компьютере. Форма с фиксированной точкой
- •Вопрос № 28 пердставление числовой информации. Форма с плавающей точкой
- •Вопрос № 29 представление символьной информации в памяти компьютера
- •Вопрос № 30 представление графической информации в памяти компьютера
- •Вопрос № 31 растровое представление
- •Вопрос № 33 представление звуковой информации
- •1000 Измерений за 1 секунду — 1 килогерц (кГц).Характерные частоты дискретизации аудиоадаптеров: 11кГц, 22 кГц, 44,1 кГц и др.
- •Вопрос № 34 системы счисления. Позиционные и непозиционные
- •Вопрос № 35 позиционные системы счисления
- •Вопрос № 36 алгоритм перевода целых десятичных чисел в кратные системы счисления
- •Вопрос № 39 восьмеричная система счисления
- •Вопрос № 40 шестнадцатиричная система счисления
- •Вопрос № 41 арифметика в позиционных системах счисления
Вопрос № 22 метод половинного деления
Метод половинного деления или дихотомии (дихотомия - сопоставленность
или противопоставленность двух частей целого) при нахождении корня
уравнения f(x)=0 состоит в делении пополам отрезка [a; b], где находится
корень. Затем анализируется изменение знака функции на половинных отрезках,
и одна из границ отрезка [a; b] переносится в его середину. Переносится та
граница, со стороны которой функция на половине отрезка знака не меняет.
Далее процесс повторяется. Итерации прекращаются при выполнении одного из
условий: либо длина интервала [a; b] становится меньше заданной погрешности
нахождения корня ?, либо функция попадает в полосу шума ?1 – значение
функции сравнимо с погрешностью расчетов.
Вопрос № 23 основные свойства энтропии. Информационная энтропия источника и термодинамическая энтропия
1. Энтропия является величиной вещественной и неотрицательной, т.к. значения вероятностей pn находятся в интервале 0-1, значения log pn всегда отрицательны, а значения -pn log pn в (1.4.2) соответственно положительны.
2. Энтропия - величина ограниченная, т.к. при pn 0 значение -pn log pn также стремится к нулю, а при 0 < pn 1 ограниченность суммы всех слагаемых очевидна.
3. Энтропия равна 0, если вероятность одного из состояний источника информации равна 1, и тем самым состояние источника полностью определено (вероятности остальных состояний источника равны нулю, т.к. сумма вероятностей должна быть равна 1).
4. Энтропия максимальна при равной вероятности всех состояний источника информации:
Термодинамическая энтропия S, часто просто именуемая энтропия, в химии и термодинамике является функцией состояния термодинамической системы.
Энтропи́я (информационная) — мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Так, возьмём, например, последовательность символов, составляющих какое-либо предложение на русском языке. Каждый символ появляется с разной частотой, следовательно, неопределённость появления для некоторых символов больше, чем для других. Если же учесть, что некоторые сочетания символов встречаются очень редко, то неопределённость ещё более уменьшается (в этом случае говорят об энтропии n-ого порядка, см. Условная энтропия).
Концепции информации и энтропии имеют глубокие связи друг с другом, но, несмотря на это, разработка теорий в статистической механике и теории информации заняла много лет, чтобы сделать их соответствующими друг другу. Ср. тж. Термодинамическая энтропия
Если следование символов алфавита не независимо (например, во французском языке после буквы «q» почти всегда следует «u», а после слова «передовик» в советских газетах обычно следовало слово «производства» или «труда»), количество информации, которую несёт последовательность таких символов (а следовательно и энтропия) очевидно меньше. Для учёта таких фактов используется условная энтропия.