
- •1.Аксиоматический и операционный методы введения научных понятий и определений на примереестественнонаучных…….
- •2. Определение информатики……
- •4. Определение энтропии и количественных единиц измерения. Вероятность результата в опыте и величина энтропии. Величина энтропии в опыте с равновероятными и с не равновероятными исходами.
- •7. Энтропия и информация. Информация в опыте с равновероятными исходами, количество информации в системе с равновероятными бинарными исходами. Формула Хартли.
- •9. Источники по Шеннону:
- •12. Позиционные сисемы счисления : представление и правила перевода положительных рациональных чисел в произвольных позиционных системах счисления
- •13. Позиционные сисемы счисления : представление и правила перевода положительных рациональных чисел в произвольных позиционных системах счисления с кратными основаниями
- •14. Позиционные сисемы счисления : представление и правила перевода целых отрицательных чисел в произвольных позиционных системах счисления
- •15. Связь информационной емкости двоичного кода и динамического диапазона представления целых чисел
- •16) Экономичность систем счисления.
- •17. Способы представления и кодирования инф-ии в эвм, единицы измерения инф-ии.
4. Определение энтропии и количественных единиц измерения. Вероятность результата в опыте и величина энтропии. Величина энтропии в опыте с равновероятными и с не равновероятными исходами.
Энтропия является мерой неопределенности опыта, в котором проявляются случайные события
Единица измерения неопределенности при двух возможных равновероятных исходах опыта называется бит
Величина энтропии с равновероятными исходами: Энтропия - мера неопределенности опыта, имеющего n равновероятных исходов: f(n) = log2n
n – равновероятные исходы в опыте
f(n) = Н – энтропия
Логарифм выбран, т.к. соответствует свойствам: f(1)=0;f(n) возрастает с ростом n;
f(a умножить на b)=f(a)+f(b), где a умножить на b – сложный опыт и результат 1опыта не может повлиять на 2;
Основание «2» выбрано по свойству логарифма (отношение логарифмов по любому основанию), также оно является удобным основанием, поскольку в этом случае за единицу измерения принимается неопределенность, содержащаяся в опыте, имеющем лишь два равновероятных исхода, которые можно обозначить, например, ИСТИНА (True) и ЛОЖЬ (False) Т.е. Н=log2n
Единица измерения неопределенности при двух возможных равновероятных исходах опыта называется бит.
Поскольку каждый исход случаен, он вносит свой вклад в неопределенность всего опыта, но так как все n исходов равнозначны, разумно допустить, что и их неопределенности одинаковы. Из свойства аддитивности неопределенности, а также того, что общая неопределенность равна log2n, следует, что неопределенность, вносимая одним исходом составляет 1/nlog2n=-1/nlog21/n=-plog2p, где p=1/n - вероятность любого из отдельных исходов. Таким образом, неопределенность, вносимая каждым из равновероятных исходов, равна: H = - p log2p
Величина энтропии с не равновероятными исходами: например, p(A1) и p(A2) тогда:
H1 = - p(A1) log2 p(A1) и H2 = - p(A2) log2 p(A2); H = H1 + H2 = -p(A1) log2 p(A1) - p(A2) log2 p(A2), где A1, A2 - исходы 1 и 2 опыта. Таким образом применяя n-количество опытов
Н = - (сумме от i=1 до n (p(Ai) log2 p(Ai))
5. Энтропия сложного опыта, состоящего из ряда независимых опытов. Условие максимальной энтропии термодинамической системы и опыта с множественными исходами.
Энтропия сложного опыта, состоящего из нескольких независимых, равна сумме энтропий отдельных опытов: f(n1 умножить на n2)=f(n1)+f(n2), где n1 умножить на n2 – сложный опыт и результат 1опыта не может повлиять на 2
Пусть имеется два опыта с одинаковым числом исходов n, но в одном случае они равновероятны, а в другом – нет, тогда выполняется следующее:
Н = - (сумме от i=1 до n (p(Ai) log2 p(Ai)) <= log2n. При прочих равных условиях наибольшую энтропию имеет опыт с равновероятными исходами, т.е. энтропия максимальна в опытах, где все исходы равновероятны.
Впервые понятие энтропии было введено в 1865 г. немецким физиком Рудольфом Клаузиусом как функции состояния термодинамической системы, определяющей направленность самопроизвольных процессов в системе. Клаузиус сформулировал II начало термодинамики. В частности, он показал, что энтропия достигает максимума в состоянии равновесия системы. Позднее (в 1872 г.) Людвиг Больцман, развивая статистическую теорию, связал энтропию системы с вероятностью ее состояния, дал статистическое (вероятностное) толкование II-му началу термодинамики и, в частности, показал, что вероятность максимальна у полностью разупорядоченной (равновесной) системы, причем, энтропия и термодинамическая вероятность оказались связанными логарифмической зависимостью. Другими словами, в физике энтропия оказывается мерой беспорядка в системе. При этом беспорядок понимается как отсутствие знания о характеристиках объекта (например, координат и скорости молекулы); с ростом энтропии уменьшается порядок в системе, т.е. наши знания о ней.
6. Энтропия сложного опыта, состоящего из ряда зависимых опытов. Условие максимальной энтропии опыта с множестсвенными исходами. Соотношение энтропии в опытах с зависимыми и независимыми результатами (условной и безусловной энтропий).
Условная энтропия – энтропия сложного опыта, где на результат опыта b влияет результат опыта a, зависимые опыты. Тогда р(Ai умножить на Bj)=p(Ai)умножить на pAi(Bj), где pAi(Bj) - вероятность наступления исхода Bj при условии, что в первом опыте имел место исход Ai.
Тогда: log2р(Ai умножить на Bj) = log2 p(Ai) + log2pAi(Bj), Н(a умножить на b)= Н(a) + Ha(b)
Если опыты a и b независимы, то, Ha(b)=H(b) причем это оказывается наибольшим значением условной энтропии. Другими словами, опыт a не может повысить неопределенность опыта b ; он может либо не оказать никакого влияния (если опыты независимы), либо понизить энтропию b. Т.е. 0<= Ha(b)<= H(b) – условная энтропия не превышает безусловную. Н(a умножить на b)<= Н(a)+ H(b), причем равенство достигается, когда а и b независимы