Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Informatika-2013.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
564.48 Кб
Скачать

Информатика 17/22

TJFirmin

Введение

Основные устройства компьютера и связи между ними представлены на схеме (рис. 1). Жирными стрелками показаны пути и направления движения информации, а простыми стрелками — пути и направления передачи управляющих сигналов.

Рис. 1. Общая схема компьютера

В составе процессора имеется ряд специализированных дополнительных ячеек памяти, называемых регистрами.

Регистр выполняет функцию кратковременного хранения числа или команды.

2 ) Классификация наук

Фундаментальные науки

Науки

Прикладные

науки

Рис. 2 Классификация наук (Заполнить)

Фундаментальная наука – это такая наука, которая дает инструмент для описания новых явлений в других науках.

Глава 1. Теоретические основы информатики. Информация, ее виды и свойства

1. Теоретические основы информатики — пока не вполне сложившийся и устоявшийся раздел науки. Он возникает на наших глазах, что делает его особенно интересным: нечасто удается наблюдать и даже участвовать в рождении новой науки! Как и теоретические разделы других наук, теоретическая информатика формируется в основном под влиянием потребностей обучения информатике.

2. Теоретическая информатика - наука в значительной степени математизированная. Она базируется на ряде разделов математики: теории автоматов и алгоритмов, математической логике, теории формальных языков и грамматик, реляционной алгебре, теории информации и др.

3. Понятие «информация» является одним из фундаментальных в современной науке вообще и базовым для информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно.

4. В простейшем бытовом понимании с термином «информация» обычно ассоциируются некоторые сведения, данные, знания и т. п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы, и т. д. При этом предполагается, что имеются «источник информации» и «получатель информации».

Единицы количества информации: вероятностный и объемный подходы Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней. Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2, ..., N

Введем в рассмотрение численную величину, измеряющую неопределенность - энтропию (обозначим ее Н). Согласно развитой теории, в случае равновероятного выпадания каждой из граней величины N и Н связаны между собой формулой Хартли Н = log2 N.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, H будет равно единице при N = 2.

Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты, при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».

В случае, когда вероятности Р{ результатов опыта (в примере, приведенном выше, - бросания игральной кости) неодинаковы, имеет место формула Шеннона

Н = - i log2 Pi ;

В случае равновероятности событий Pi = 1/N и формула Шеннона переходит в формулу Хартли.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле Хартли Н = log2 34 5,09 бит.

Однако в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто.

Воспользуемся для подсчета Н формулой Шеннона: Н 4,72 бит. Полученное значение H, как и можно было предположить, меньше вычисленного ранее. Величина Н, вычисляемая по формуле Хартли, является максимальным количеством информации, которое могло бы приходиться на один знак.

Аналогичные подсчеты Н можно провести и для других языков, например, использующих латинский алфавит — английского, немецкого, французского и др. (26 различных букв и «пробел»). По формуле Хартли получим Н = log2 27 4,76 бит.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]