- •Тема 11. Телекоммуникационные технологии
- •Тема 1. Информация и информационные процессы введение
- •1.1. Информация. Информационные объекты различных видов
- •1.2. Виды и свойства информации
- •1.3. Основные информационные процессы. Хранение, передача и обработка информации
- •Вопросы для самоконтроля
- •Тема 2. Измерение информации
- •2.1. Подходы к измерению информации
- •2.2. Единицы измерения информации
- •2.3. Вероятностный подход к измерению информации
- •Вопросы для самоконтроля
- •Тема 3. Представление информации
- •3.1. Язык как способ представления информации. Кодирование информации
- •3.2. Позиционные и непозиционные системы счисления
- •3.3. Перевод чисел из одной системы счисления в другую
- •3.4. Арифметические операции в позиционных системах счисления
- •Вопросы для самоконтроля
- •Тема 4. Представление данных в компьютере
- •4.1. Компьютерное кодирование чисел
- •4.2. Компьютерное кодирование текста
- •4.3. Компьютерное кодирование графики
- •4.4. Компьютерное кодирование звука
- •Вопросы для самоконтроля
- •Тема 5. Программное обеспечение компьютера
- •5.1. Программное обеспечение компьютера. Классификация
- •5.2. Системное программное обеспечение. Операционные системы
- •5.3. Файлы и файловая система
- •5.4. Служебные программы
- •5.5. Компьютерные вирусы. Антивирусные программы
- •5.6. Системы программирования
- •5.7. Архивация
- •Вопросы для самоконтроля
- •Тема 6. Аппаратное обеспечение работы компьютера
- •6.1. История развития компьютерной техники
- •6.2. Классификация компьютеров. Компьютерные платформы
- •6.3. Функциональное устройство компьютера
- •6.4. Архитектура компьютера
- •6.5. Состав компьютера
- •6.6. Память компьютера и ее основные характеристики
- •Основные типы устройств хранения информации
- •6.7. Устройства ввода―вывода
- •6.8. Устройство обработки информации
- •6.9. Искусственный интеллект и достижения современной компьютерной техники
- •Вопросы для самоконтроля
- •Тема 7. Основы математической логики
- •7.1. Основные понятия формальной логики
- •7.2. Логические выражения и логические операции
- •7.3. Построение таблиц истинности для логических функций
- •7.4. Логические функции и их преобразования. Законы логики
- •7.5. Построение логических схем
- •7.6. Логическая реализация типовых устройств компьютера
- •Вопросы для самоконтроля
- •Тема 8. Основы алгоритмизации и программирования
- •8.1. Понятие об алгоритме и исполнителе алгоритмов. Свойства алгоритмов
- •8.2. Способы записи алгоритма
- •8.3. Основные алгоритмические конструкции
- •8.4. Линейный алгоритм
- •8.5. Разветвляющийся алгоритм
- •8.6. Циклический алгоритм
- •Вопросы для самоконтроля
- •Тема 9. Информационное моделирование
- •9.2. Объект, система, модель, моделирование
- •9.2. Виды моделей. Информационная модель
- •9.3. Этапы моделирования. Создание моделей
- •9.4. Компьютерное моделирование
- •Вопросы для самоконтроля
- •Тема 10. Информационные технологии
- •10.1. Операционные системы. Особенности операционной системы Windows
- •10.2. Работа c объектами Windows
- •10.3. Техника работы с окнами
- •10.4. Операции с файлами, папками и дисками
- •10.5. Практические задания
- •10.6. Создание и редактирование графических документов.
- •10.7. Растровая компьютерная графика
- •10.8. Векторная компьютерная графика
- •10.9 Графический редактор Paint
- •10.10. Текстовый редактор и процессор, интерфейс, возможности
- •10.11. Создание и редактирование табличных документов
- •10.12. Создание и редактирование баз данных
- •10.13. Создание и редактирование компьютерных презентаций
- •Вопросы для самоконтроля
- •Тема 11. Телекоммуникационные технологии
- •11.1. Компьютерные сети. Виды, классификация
- •11.2. Сетевое программное обеспечение и сетевой протокол
- •11.3. Локальные компьютерные сети
- •11.4. Глобальные компьютерные сети
- •11.5. Интернет. Сервисы сети Интернет
- •11.6. Поиск информации в Интернет
- •11.7. Правовые и этические нормы общения в сети Интернет
- •11.8. Практическая работа
- •Вопросы для самоконтроля
- •Литература (использована при создании электронного ресурса "Информатика и информационно―коммуникационные технологии", рекомендуется в качестве дополнительного материала для изучения школьниками)
2.3. Вероятностный подход к измерению информации
Формулу для вычисления количества информации, учитывающую неодинаковую вероятность событий, предложил К. Шеннон в 1948 году. Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем x выражается формулой: x=log2 (1/p). Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить следующим образом ― чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.
Рассмотрим некоторую ситуацию. В коробке имеется 50 шаров. Из них 40 белых и 10 черных. Очевидно, вероятность того, что при вытаскивании "не глядя" попадется белый шар больше, чем вероятность попадания черного. Можно сделать заключение о вероятности события, которые интуитивно понятны. Проведем количественную оценку вероятности для каждой ситуации. Обозначим pч ― вероятность попадания при вытаскивании черного шара, рб ― вероятность попадания белого шара. Тогда: рч=10/50=0,2; рб40/50=0,8. Заметим, что вероятность попадания белого шара в 4 раза больше, чем черного. Делаем вывод: если N ― это общее число возможных исходов какого-то процесса (вытаскивание шара), и из них интересующее нас событие (вытаскивание белого шара) может произойти K раз, то вероятность этого события равна K/N. Вероятность выражается в долях единицы. Вероятность достоверного события равна 1 (из 50 белых шаров вытащен белый шар). Вероятность невозможного события равна нулю (из 50 белых шаров вытащен черный шар).
Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем x выражается формулой: . В задаче о шарах количество информации в сообщении о попадании белого шара и черного шара получится: .
Рассмотрим некоторый алфавит из m символов: и вероятность выбора из этого алфавита какой-то i-й буквы для описания (кодирования) некоторого состояния объекта. Каждый такой выбор уменьшит степень неопределенности в сведениях об объекте и, следовательно, увеличит количество информации о нем. Для определения среднего значения количества информации, приходящейся в данном случае на один символ алфавита, применяется формула . В случае равновероятных выборов p=1/m. Подставляя это значение в исходное равенство, мы получим
Рассмотрим следующий пример. Пусть при бросании несимметричной четырехгранной пирамидки вероятности выпадения граней будут следующими: p1=1/2, p2=1/4, p3=1/8, p4=1/8, тогда количество информации, получаемое после броска, можно рассчитать по формуле:
Для симметричной четырехгранной пирамидки количество информации будет: H=log24=2(бит).
Заметим, что для симметричной пирамидки количество информации оказалось больше, чем для несимметричной пирамидки. Максимальное значение количества информации достигается для равновероятных событий.
Вопросы для самоконтроля
1. Какие подходы к измерению информации вам известны? 2. Какова основная единица измерения информации? 3. Сколько байт содержит 1 Кб информации? 4. Приведите формулу подсчета количества информации при уменьшении неопределенности знания. 5. Как подсчитать количество информации, передаваемое в символьном сообщении?