- •Понятия информации. Общая характеристика процессов сбора, передачи, обработки и накопления информации
- •Что такое информация
- •Свойства информации
- •Количество информации
- •3.3. Алгоритмический метод определения количества информации
- •Кодирование символьной информации в эвм
- •Представление графической информации
- •Представление звуковой информации
- •Информационные ресурсы и информационные технологии
- •7.1 Информационный ресурс
- •7.2 Информационные технологии.
- •Архитектура компьютера
- •1.1 Принцип двоичного кодирования.
- •1.2 Принцип однородности памяти.
- •1.3 Принцип адресности.
- •1.4 Принцип программного управления.
- •2 Архитектура эвм
- •2.1 Классическая архитектура эвм
- •2.2 Виды архитектур эвм
- •2.2.1 Однопроцессорная архитектура
- •2.2.2 Многопроцессорная архитектура
- •2.2.3 Архитектура с параллельными процессорами.
- •2.2.4 Многопроцессорная обработка misd
- •2.2.5 Многомашинная вычислительная система.
- •2.2.6 Принцип открытой архитектуры.
- •3 Система команд эвм
- •3.1 Порядок выполнения команды
- •3.2 Архитектура системы команд cisc и risc
- •4.Структура персональных компьютеров
- •4.1 Системный блок
- •4.2 Видеосистема компьютера
- •4.2.1 Монитор на базе электронно-лучевой трубки
- •4.2.2 Газоразрядные мониторы.
- •4.2.3 Жидкокристаллические мониторы lcd (Liquid Crystal Display)
- •4.2.4 Сенсорный экран
- •4.3 Клавиатура
- •4.4 Манипуляторы
- •Хранение информации
- •1.2 Оперативные запоминающие устройства
- •1.2 Постоянные запоминающие устройства
- •2 Структура хранения данных
- •Файловая система fat
- •Файловая система ntfs
- •Лекция 4 Логические основы построения цифровых автоматов
- •1 Аппарат булевой алгебры
- •2 Законы алгебры логики
- •3 Логический синтез переключательных и вычислительных схем
- •4 Основы элементной базы цифровых автоматов
- •Программное обеспечение и его основные характеристики
- •1 Классификация программного обеспечения
- •2 Прикладное программное обеспечение
- •2.1 Пакеты прикладных программ
- •2.2 Проблемно-ориентированные, интегрированные и методо-ориентированные пакеты прикладных программ
- •2.2.1 Проблемно-ориентированные пакеты прикладных программ
- •Системы обработки текстов (текстовые редакторы).
- •Системы обработки электронных таблиц.
- •Системы управления базами данных
- •Системы деловой графики
- •Организаторы работ
- •Пакеты программ мультимедиа
- •Системы автоматизации проектирования
- •Группа финансовых программ
- •2.2.2 Интегрированные ппп
- •Полносвязанные интегрированные пакеты
- •Объектно-связанные интегрированные пакеты
- •2.2.3 Методо-ориентированные ппп.
- •2.3 Программный продукт
- •3 Системное по
- •3.1 Классификация системного по
- •3.2 Виды и основные функции операционных систем
- •3.3 Взаимодействие с аппаратными средствами
- •3.3.1 Средства проверки дисков
- •3.3.2 Средства управления виртуальной памятью
- •32-Разрядная архитектура
- •Многозадачность и многопоточность
- •Графический пользовательский интерфейс
- •Использование виртуальной памяти
- •3.4.3 Характеристика операционной системы Linux
- •Лекция 6 инструментальное по
- •1 Инструментальное по
- •2 Языки программирования
- •2.1 Машинные языки
- •2.2 Машинно-ориентированные языки
- •2.3 Языки высокого уровня
- •3 Типы языков программирования высокого уровня
- •3.1. Процедурный (алгоритмический) язык
- •3.2 Функциональный (аппликативный) язык
- •3.3 Логический (реляционный) язык
- •3.4 Объектно-ориентированный язык
- •3.5 Проблемно – ориентированный язык
- •4 Средства создания программ
- •4.1 Язык программирования
- •4.2 Текстовый редактор
- •4.3 Трансляторы
- •4.4 Библиотеки стандартных подпрограмм
- •4.5 Редактор связей
- •4.6 Загрузчик
- •4.7 Вспомогательные программы
- •5 Интегрированные программные среды
- •5.1 Интегрированные системы программирования
- •5.2 Среды быстрого проектирования
- •6 Виды систем программирования
- •6.1 Процедурное (алгоритмическое или императивное) программирование
- •6.2 Структурное программирование
- •6.3 Объектно-ориентированное программирование
- •6.4 Декларативное программирование
- •6.4.1 Функциональное программирование
- •6.4.2 Логическое программирование
- •Лекция 7 компьютерные сети
- •1 Основные понятия
- •2 Классификация компьютерных сетей
- •2.1 Топологии сетей.
- •2.2 Классификация по способу организации
- •2.3 Классификация по территориальной распространенности
- •2.4 Классификация по принадлежности
- •2.5 Классификация по скорости передачи
- •2.6 Классификация по типу среды передачи
- •2.7 Классификация по взаимодействию
- •2.8 Классификация по технологии использования сервера
- •3 Архитектура сети
- •4 Internet
- •4.1 История сети internet
- •4.2 Компоненты Internet
- •5.2 Протокол ip.
- •6 Система адресации в Internet
- •6.1 Адрес станции
- •6.2 Цифровой адрес
- •6.3 Доменный адрес
- •7 Услуги, предоставляемые сетью internet
- •7.1 Электронная почта
- •7.2 World-wide-web (Всемирная информационная сеть)
- •7.2.1 Гипертекст
- •7.2.2 Создание страниц www.
- •7.2.3 Поиск в информации www
- •Поисковые каталоги
- •Рейтинговые системы
- •Поисковые указатели
- •7.3 Телеконференции Usenet
- •7.4 Telnet
- •7.5 Internet Relay Chat
- •Компьютерная безопасность
- •Что такое компьютерный вирус.
- •1 Что такое компьютерный вирус
- •2 Разновидности компьютерных вирусов
- •2.1 Деление по способу заражения
- •2.1.1 Перезаписывающие вирусы
- •2.1.2 Вирусы-компаньоны
- •2.1.3 Файловые черви
- •2.2.2 Загрузочные вирусы
- •2.2.3 Макровирусы
- •2.2.4 Сетевые вирусы
- •Появление первых вирусов (справка)
- •Первые вирусы
- •Первые вирусные эпидемии
- •3 Антивирусные средства
- •4 Защита информации в internet
- •4.1 Особенности работы во Всемирной сети
- •4.2 Понятие о несимметричном шифровании информации
- •4.3 Принцип достаточности защиты
- •4.4 Понятие об электронных сертификатах
Количество информации
В определенных, весьма широких условиях можно пренебречь качественными особенностями информации и выразить ее количество числом, а также сравнить количество информации, содержащейся в различных группах данных.
В современной информатике приняты следующие характеристики измерения информации:
энтропийный;
объемный;
алгоритмический.
3.1 Энтропийная характеристика информации
Количество информации в сообщении определяется при энтропийном методе тем, насколько уменьшится неопределенность в появлении некоторых событий после получения сообщения и выражается математической зависимостью от совокупности вероятности этих событий.
H = log 2 N,
Данную формулу предложил в 1928 г Хартли, США.
Если исходов N, но их вероятности различны: p1, p2… pN, то применяют формулу Клода Шеннона, США, предлженную в середине 40-х
H= - (p1 log2 P1 + p2 log2 P2 + … +pNlog2PN).
Легко заметить, что если вероятности p1, … ,pNравны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.
В вычислительной технике вся обрабатываемая информация не зависимо от ее природы (текст, число, изображение и т.д.) представляется в двоичной форме записи числа, т.е. состоящая из двух символов 0 и1. Один такой символ называетсябитом.
Битв теории информации— количество информации, необходимое для различения двух равновероятных сообщений, уменьшающее неопределенность знаний в 2 раза.
Битом в вычислительной техникеназывают наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Примеры:
«Орел–решетка» при бросании монеты. 2 исхода, исходы равновероятны. В сообщении: “Монета выпала орлом” – 1 бит информации. Было два возможных исхода, остался 1.
3.2 Объемный (символьный) метод определения количества информации
Объемный (символьный) метод определения количества информации представляет собой определение количества символов, содержащихся в конкретном сообщении.
Например, одно и тоже число можно записать разными способами:
1 – й способ – 20;
2 –й способ – “двадцать”;
3 –й способ – ХХ;
4 –й способ – 011 000.
Символьный методне связывает количество информации в сообщении с его содержанием.
Алфавит – все множество символов данного языка, включая цифры, знаки препинания и даже пробел.
Полное количество символов – мощность алфавитаN. В русском языкеN=54 (все буквы + пробел + цифры + знаки препинания). При этом (принимаем, что появление символов равновероятно)
I54=log254 = 5,755.
Если количество символов в тексте равно М, то текст несет объем информации I54*М или 5,755 М (при любом содержании!)
Количество информации– функция от мощности алфавита и объема текста.
Одна страница текста на разных языках – разные объемы информации.
Достаточныйалфавит содержит 256 символов – русский и латинский алфавиты, цифры, знаки препинания и др. символы, включая элементы псевдографики.
Бит слишком мелкая единица измерения. На практике чаще применяется более крупная единица – байт, равная восьми битам.
Именно восемь бит требуется для того, чтобы закодировать любой из 256 символов. Считая появление различных символов равновероятным, находим, что энтропия достаточного алфавита составляет
I256 =log2 256 = 8 бит = 1 байт.
Значит, любая книга, набранная на компьютере, имеет объем информации 8Sбайт, гдеS– число символов. При 40 строках по 60 символов 1 страница содержит 2400 байт информации.
При строгом подходе для определения объема информации на одной странице надо брать формулу Шеннона.
Широко используются также еще более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230байт,
1 Терабайт (Тбайт) = 1024 Гбайт = 240байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 250байт.
Скорость передачи информации измеряется в Кбайт/с, бит/с, байт/с.