
- •§1. Носители информации
- •§2. Основные понятия информатики
- •§3. Моделирование и формализация
- •§4. Основные принципы формализации
- •§5. Меры информации
- •§6. Объем информации V (объемный подход).
- •§7. Количество информации / (энтропийный/вероятностный подход)
- •Какова же связь энтропии с информацией?
- •§7. Кодирование и шифрование информации
- •7.1. Кодирование графической информации
- •Цветовые модели rgb и cmyk
- •Другие цветовые модели
- •7.2. Кодирование звука
- •Цифро-аналоговое и аналого-цифровое преобразование звуковой информации
- •§7. Общие понятия о позиционных и непозиционных системах счисления
- •Непозиционные системы счисления
- •1) Число 1988.
- •Позиционные системы счисления
- •Первые позиционные системы счисления
- •Двенадцатеричная система счисления
- •Шестидесятеричная система счисления
- •Какие позиционные системы счисления используются сейчас?
- •Десятичная система счисления
- •Двоичная система счисления
- •Алфавит десятичной, двоичной, восьмеричной и шестнадцатеричной систем счисления
- •Правила перевода
- •Восьмеричная и шестнадцатеричная системы счисления
- •Взаимное преобразование двоичных, восьмеричных и шестнадцатеричных чисел
- •§9. История развития вычислительной техники
- •§10. Архитектура эвм
- •Эвм, построенные по принципу Фон Неймана
- •Аналитическая машина Беббиджа
- •Основополагающие принципы логического устройства эвм (Фон Нейман)
- •§11. Внешние устройства эвм
- •§12. Внутренние устройства эвм
- •§13. Программное обеспечение эвм
- •13.1. Операционные системы
- •13.2. Понятие файловой системы
- •13.3. Операционная система ms dos для ibm-совместимых персональных компьютеров
- •§14. Инструментальные программные средства общего назначения
- •§15. Инструментальные программные средства специального назначения
- •§16. Программные средства профессионального уровня
- •§17. Назначение и место систем Maple
- •Maple в Интернете
- •Понятие о функциях и операторах.
- •§18. Алгоритмы и способы их описания Понятие алгоритма
- •Способы описания алгоритмов
- •Структурные схемы алгоритмов
- •18.1. Этапы подготовки и решения задач на эвм
- •§19. Системы программирования
- •§20. История языков программирования
- •§21. Паскаль как язык структурно-ориентированного программирования
- •21.1. Процедуры и функции в Pascal
- •21.2. Внешние библиотеки в Pascal
- •21.3. Модули
- •21.4. Работа с файлами
Какова же связь энтропии с информацией?
Из определения энтропии следует, что энтропия это числовая характеристика, отражающая ту степень неопределенности, которая исчезает после проведения опыта, то есть после получения информации. То есть, после проведения опыта получаем определенную информацию. Следовательно:
Энтропия опыта равна той информации, которую мы получаем в результате его осуществления. То есть:
Информация I – это содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с ним энтропии является количественной мерой информации.
Значит, если H1 – начальная энтропия (до проведения опыта), H2 – энтропия после проведения опыта, то информация
I=H1–H2=log2n1–log2n2=log2 (n1/n2).
Очевидно, что в случае, когда получен конкретный результат, H2=0, и, таким образом, количество полученной информации совпадает с начальной энтропией и подсчитывается при помощи формулы Хартли.
Итак, мы ввели меру неопределенности – энтропию и показали, что начальная энтропия (или убыль энтропии) равна количеству полученной в результате опыта информации. Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, значение H будет равно 1 при n=2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (например, бросание монеты). Такая единица количества информации называется «бит».
Замечание: вероятностный подход учитывает ценность информации для конкретного получателя (действительно, ведь речь идет о благоприятных событиях).
Пример: определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел». По формуле Хартли: H=log234=5 бит (здесь считаем, что появление каждой буквы равновероятно). По формуле Шеннона (для неравновероятных исходов) это значение равно 4,72 бит. Здесь значение, полученное по формуле Хартли – максимальное количество информации, которое моет приходиться на один знак.
§7. Кодирование и шифрование информации
В современном обществе успех любого вида деятельности сильно зависит от обладания определенными сведениями (информацией) и от отсутствия их (ее) у конкурентов. Чем сильней проявляется указанный эффект, тем больше потенциальные убытки от злоупотреблений в информационной сфере и тем больше потребность в защите информации. Одним словом, возникновение индустрии обработки информации привело к возникновению индустрии средств ее защиты и к актуализации самой проблемы защиты информации, проблемы информационной безопасности.
Одна из наиболее важных задач (всего общества) – задача кодирования сообщений и шифрования информации.
Вопросами защиты и скрытия информации занимается наука кpиптология (криптос – тайный, логос – наука). Кpиптология имеет два основных напpавления – кpиптогpафию и кpиптоанализ. Цели этих направлений пpотивоположны. Кpиптогpафия занимается построением и исследованием математических методов пpеобpазования инфоpмации, а кpиптоанализ – исследованием возможности pасшифpовки инфоpмации без ключа. Термин «криптография» происходит от двух греческих слов: криптоc и грофейн – писать. Таким образом, это тайнопись, система перекодировки сообщения с целью сделать его непонятным для непосвященных лиц и дисциплина, изучающая общие свойства и принципы систем тайнописи.
Информация любого типа: символьная, графическая, звуковая, командная для представления на электронных носителях кодируется на основании алфавита, состоящего только из двух символов (0, 1). Информация представленная в аналоговом виде, для того, чтобы быть сохраненной в электронной памяти, оцифровывается и приводится к двоичному коду.
Каждая ячейка электронной памяти обладает информационной ёмкостью 1 бит. Физически, в зависимости от способа регистрации информации, это может быть конденсатор, находящийся в одном из двух состояний: разряжен (0), заряжен (1); элемент магнитного носителя: размагничен (0), намагничен (1); элемент поверхности оптического диска: нет лунки (0), есть лунка (1). Одним из первых носителей информации, представленной в двоичном коде, была бумажная перфокарта, пробитое отверстие на которой означало 1, а цельная поверхность 0.