
- •Казаккулова л.Г. Информатика
- •Содержание
- •Введение
- •Глоссарий
- •Основные понятия и методы теории информации и кодирования
- •Формы, свойства, показатели качества информации
- •Поиск информации
- •Меры и единицы количества и объема информации
- •Системы счисления
- •Кодирование данных в эвм
- •Основные понятия алгебры логики
- •Логические основы эвм
- •История развития эвм
- •Вопросы для самоконтроля
- •Технические средства реализации информационных процессов
- •Архитектура эвм
- •Состав и назначение основных элементов персонального компьютера
- •Вопросы для самоконтроля
- •Программные средства реализации информационных процессов
- •Классификация программного обеспечения
- •Системное программное обеспечение (спо)
- •Системы программирования
- •Прикладное программное обеспечение
- •Понятие файла, файловой структуры
- •Операционная система ms Windows
- •Вопросы для самоконтроля
- •Классификация программного обеспечения.
Поиск информации
Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением, рисунок 1.
Рисунок 1 - Схема передачи информации
Свойства информации:
Дуализм информации характеризует ее двойственность. С одной стороны информация объективна в силу объективности данных с другой —субъективна в силу субъективности применяемых методов.
Полнота информации характеризует степень достаточности данных для принятия решения или создания новых данных на основе имеющихся.
Достоверность информации — это свойство характеризующее степень соответствия информации реальному объекту с необходимой точностью. Информация достоверна если она отражает истинное положение дел.
Адекватность информации выражает степень соответствия создаваемого с помощью информации образа реальному объекту процессу явлению.
Доступность информации —это возможность получения информации при необходимости. Доступность складывается из двух составляющих: из доступности данных и доступности методов. Отсутствие хотя бы одного дает неадекватную информацию.
Актуальность информации. Информация существует во времени так как существуют во времени все информационные процессы.
Объективность информации – независимость от личного мнения.
Формы представления информации:
1.Знаковая письменная - в виде различных знаков среди которых принято выделять:
символьную в виде текста чисел специальных символов (например химические формулы дорожные знаки)
графическую (рисунки схемы чертежи карты графики диаграммы)
табличную
2. В виде жестов и сигналов (например сигналы регулировщика дорожного движения)
3.Устная словесная
Меры и единицы количества и объема информации
При измерении информации различают:
содержательный подход – если сообщение несет 1 бит информации, то оно уменьшает неопределенность знаний в 2раза;
алфавитный подход – 1 бит – это информационный вес символа двоичного алфавита.
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией.
Любая информация может рассматриваться как уменьшение неопределенности наших знаний об окружающем мире (в теории информации принято говорить именно об уменьшении неопределенности, а не об увеличении объема знаний).
Случайность любого события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности.
Пусть, например, абсолютно незнакомый нам студент сдает экзамен, результатом которого может служить получение оценок «неуд.», «удов.», «хор.» или «отл.». Поскольку мы ничего не знаем о данном студенте, то степень неопределенности всех перечисленных результатов сдачи экзамена совершенно одинакова. Напротив, если нам известно, как он учится, то уверенность в некоторых исходах будет больше, чем в других.
Наиболее просто определить количество информации в случае, когда все исходы события могут реализоваться с равной долей вероятности. В этом случае для вычисления информации используется формула Хартли (1)1:
i = log2N, (1)
где i – количество информации,
N – множество сообщений.
Согласно этой формуле процесс получения информации рассматривается как выбор одного сообщения из конечного наперёд заданного множества N равновероятных сообщений, а количество информации i, содержащееся в выбранном сообщении, определяется как двоичный логарифм N.
Наиболее простую форму для формулы (1) можно представить следующим образом:
2i = N (2)
Пример: Из колоды выбрали 8 карт и положили на стол рисунком вниз. Верхнюю карту перевернули. Сколько информации будет заключено в сообщении о том, какая карта оказалась сверху?
Решение: Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. Событие, заключающееся в открытии карты, для нашего случая могло иметь 8 возможных вариантов. Следовательно, информация о реализации одного из них равняется
i = log2 8 = 3 бита
Пример: Бросают монету. При броске может выпасть «орел» или «решка». Сколько информации будет заключено в сообщении о том, что выпал «орел» или «решка»?
Решение: Воспользуемся формулой Хартли. Для данной задачи N=2, следовательно, i = log2 2 = 1 бит.
В более сложной ситуации, когда исходы события ожидаются с разной степенью уверенности, требуются более сложные вычисления по формуле Шеннона (3):
i = (p1*Log2p1+ p2*Log2p2+….+ pi*Log2pi +….+pn*Log2pn), (3)
где n – количество возможных событий,
pi – вероятности отдельных событий.
Бит – минимальная единица количества информации (необходимое для различения двух равновероятных сообщений).
При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.
В ЭВМ информация представляется в виде набора бит, позволяющих описывать различную информацию.
Байт – основная единица измерения информации в ЭВМ.
1 байт = 8 битам.
Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Существуют производные единицы информации: килобайт (Кбайт, Кб), мегабайт (Мбайт, Мб), гигабайт (Гбайт, Гб), терабайт (Тбайт, Тб), петабайт (Пбайт, Пб).
1 Кб = 1024 байта = 210 (1024) байтов.
1 Мб = 1024 Кбайта = 220 (10242) байтов.
1 Гб = 1024 Мбайта = 230 (10243) байтов.
1 Тб = 1024 Гбайта = 240 (10244) байтов.
1 Пб = 1024 Тбайт = 250 (10245) байтов.