
- •Введение
- •2 ) Классификация наук
- •Глава 1. Теоретические основы информатики. Информация, ее виды и свойства
- •Единицы количества информации: вероятностный и объемный подходы Вероятностный подход
- •Объемный подход
- •Вопросы и задания
- •12. Задание:
- •13. Задание:
- •Глава 2. Программное обеспечение
- •Операционная система
- •Однопользовательские ос
- •Функции операционной системы
- •Примеры операционных систем
- •Вопросы и задания
- •Глава 3. Система счисления
- •Вопросы и задания
- •Глава 4. Логика и элементы математической логики
- •В) Операция "конъюнкция" – логический элемент и - умножение
- •Глава 5. Компьютерная сеть
- •Раздел I
Информатика
|
TJFirmin |
Введение
Основные устройства компьютера и связи между ними представлены на схеме (рис. 1). Жирными стрелками показаны пути и направления движения информации, а простыми стрелками — пути и направления передачи управляющих сигналов.
Рис. 1. Общая схема компьютера
В составе процессора имеется ряд специализированных дополнительных ячеек памяти, называемых регистрами.
Регистр выполняет функцию кратковременного хранения числа или команды.
2 ) Классификация наук
Фундаментальные науки
Науки
Прикладные
науки
…
Рис. 2 Классификация наук (Заполнить)
Фундаментальная наука – это такая наука, которая дает инструмент для описания новых явлений в других науках.
Глава 1. Теоретические основы информатики. Информация, ее виды и свойства
1. Теоретические основы информатики — пока не вполне сложившийся и устоявшийся раздел науки. Он возникает на наших глазах, что делает его особенно интересным: нечасто удается наблюдать и даже участвовать в рождении новой науки! Как и теоретические разделы других наук, теоретическая информатика формируется в основном под влиянием потребностей обучения информатике.
2. Теоретическая информатика - наука в значительной степени математизированная. Она базируется на ряде разделов математики: теории автоматов и алгоритмов, математической логике, теории формальных языков и грамматик, реляционной алгебре, теории информации и др.
3. Понятие «информация» является одним из фундаментальных в современной науке вообще и базовым для информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно.
4. В простейшем бытовом понимании с термином «информация» обычно ассоциируются некоторые сведения, данные, знания и т. п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы, и т. д. При этом предполагается, что имеются «источник информации» и «получатель информации».
Единицы количества информации: вероятностный и объемный подходы Вероятностный подход
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней. Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2, ..., N
Введем в рассмотрение численную величину, измеряющую неопределенность - энтропию (обозначим ее Н). Согласно развитой теории, в случае равновероятного выпадания каждой из граней величины N и Н связаны между собой формулой Хартли Н = log2 N.
Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, H будет равно единице при N = 2.
Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты, при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».
В случае, когда вероятности Р{ результатов опыта (в примере, приведенном выше, - бросания игральной кости) неодинаковы, имеет место формула Шеннона
Н
= -
i
log2
Pi
;
В случае равновероятности событий Pi = 1/N и формула Шеннона переходит в формулу Хартли.
В качестве примера определим количество
информации, связанное с появлением
каждого символа в сообщениях, записанных
на русском языке. Будем считать, что
русский алфавит состоит из 33 букв и
знака «пробел» для разделения слов. По
формуле Хартли Н = log2 34
5,09 бит.
Однако в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто.
Воспользуемся для подсчета Н формулой Шеннона: Н 4,72 бит. Полученное значение H, как и можно было предположить, меньше вычисленного ранее. Величина Н, вычисляемая по формуле Хартли, является максимальным количеством информации, которое могло бы приходиться на один знак.
Аналогичные подсчеты Н можно провести и для других языков, например, использующих латинский алфавит — английского, немецкого, французского и др. (26 различных букв и «пробел»). По формуле Хартли получим Н = log2 27 4,76 бит.