Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
бомбочки теория.doc
Скачиваний:
7
Добавлен:
30.07.2019
Размер:
164.35 Кб
Скачать

1. Общие представления об информации

Информатика - это наука, изучающая структуру и наиболее общие свойства информации, ее поиск, хранение, передачу и обработку с применением ЭВМ.

Информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии. Наименьшее количество информации, снимающей неопределенность системы с двумя равновероятностными состояниями, равно одному биту.

Сигнал – физический процесс ), несущий сообщение о событии или состоянии объекта наблюдения. Сообщение – форма представления информации в виде совокупности знаков, используемая для передачи. Перенос информации источника на структуру носителя называется кодированием.

1 бит (bit - сокращение от англ. binary digit - двоичное число) - единица измерения информационной емкости и количества информации.

На физическом уровне бит является ячейкой памяти, которая в каждый момент времени находится в одном из двух состояний: «0» или «1».

Байт (byte) 8 бит

Слово (word) 2 байта или 16 бит.

2. Кибернетический, семантический и объемный подходы к измерению информации.

Кибернетический: Данный подход основан на подсчёте числа символов в сообщении. Этот подход не связывает количество информации с содержанием сообщения, позволяет реализовать передачу, хранение и обработку информации с помощью технических устройств, не теряя содержания (смысла).

Алфавит любого языка включает в себя конечный набор символов. Исходя из вероятностного подхода к определению количества информации, набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события) N. N при алфавитном подходе называют мощностью алфавита. Информационная ёмкость каждого знака зависит от количества знаков в алфавите. Следовательно, каждый из N символов несёт i бит информации.

2i = N

Остаётся подсчитать количество символов в тексте сообщения: I = k*i

Алфавитный подход является объективным способом измерения информации и подходит для работы технических устройств.

Объемный: С точки зрения аппаратной организации компьютера бит, очевидно, является наименьшей возможной единицей информации. Объем же информации в некотором тексте, записанном двоичными знаками в памяти компьютера (или на внешнем носителе информации) подсчитывается чрезвычайно просто, по количеству двоичных символов. При этом, в частности, невозможно нецелое количество битов (в отличие от кибернетического подхода).

Для удобства использования введены более крупные чем бит единицы количества информации. Двоичное слово из восьми знаков (и количество информации, содержащейся в нем) называется байт. 1024 байта образуют килобайт (Кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Семантический: Учитывает целесообразность и полезность информации. Применяется при оценке эффективности получаемой информации и ее соответствия реальности.

В рамках этого подхода рассмотрим такие меры, как целесообразность, полезность и истинность информации.

5. Формулы Р.Хартли, К.Шеннона.

В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

I = log2 K ,

Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.

Иногда формулу Хартли записывают так:

I = log2 K = log2 (1 / р) = - log2 р,

т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

Если I - количество информации,

К - количество возможных событий,

рi - вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:

I = - Sum рi log2 рi,

где i принимает значения от 1 до К.

Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:

I = - Sum 1 / К log2 (1 / К) = I = log2 К.

При равновероятных событиях получаемое количество информации максимально.

6. Кодирование информации.

Кодирование информации – это процесс формирования определенного представления информации.

Двоичное кодирование текстовой информации

Традиционно для кодирования одного символа используется количество информации равное1 байту (1 байт = 8 битов).

Для кодирования одного символа требуется один байт информации.

Учитывая, что каждый бит принимает значение 1 или 0, получаем, что с помощью 1 байта можно закодировать 256 различных символов. (28=256)

Кодирование заключается в том, что каждому символу ставиться в соответствие уникальный двоичный код от 00000000 до 11111111 (или десятичный код от 0 до 255).

Кодирование графической информации

принципы кодирования монохромного изображения, то есть изображения, состоящего из любых двух контрастных цветов – черного и белого, зеленого и белого, коричневого и белого и т. д. Для простоты обсуждения будем считать, что один из цветов – черный, а второй – белый. Тогда каждый пиксел изображения может иметь либо черный, либо белый цвет. Поставив в соответствие черному цвету двоичный код "0”, а белому – код "1”, мы сможем закодировать в одном бите состояние одного пикселя монохромного изображения. А так как байт состоит из 8 бит, то на строчку, состоящую из 640 точек, потребуется 80 байтов памяти, а на все изображение – 38 400 байтов. Общепринятым на сегодняшний день, дающим достаточно реалистичные монохромные изображения, считается кодирование состояния одного пикселя с помощью одного байта, которое позволяет передавать 256 различных оттенков серого цвета от полностью белого до полностью черного. В этом случае для передачи всего растра из 640x480 пикселов потребуется уже не 38 400, а все 307 200 байтов.

Цветное изображение может формироваться различными способами. Один из них – метод RGB (от слов Red, Green, Blue – красный, зеленый, синий), который опирается на то, что глаз человека воспринимает все цвета как сумму трех основных цветов – красного, зеленого и синего. при данной схеме кодирования цвета на изображение одного пикселя требуется 3 байта, или 24 бита, памяти. Этот способ представления цветной графики принято называть режимом True Color (true color – истинный цвет) или полноцветным режимом.

3. Использование систем счисления в программировании.

В позиционной системе счисления любое вещественное число может быть

представлено в следующем виде:

Aq=±(an-1*qn-1+an-2*qn-2+...+a0*q0+a-1*q-1+a-2*q-2+...+a-m*q-m)

или

1012 = 1*22 + 0*21 + 1*20

Здесь A - само число;

q - основание системы счисления;

ai - цифры принадлежащие алфавиту данной системы счисления;

n - количество целых разрядов числа;

m - количество дробных разрядов числа;

Перевод дробной части числа из десятичной системы в новую систему

счисления

1.Последовательно умножать дробную часть десятичного числа и

получаемые дробные части произведений на основание новой системы до тех

пор, пока дробная часть произведения не станет равной нулю или не будет

достигнута требуемая точность представления числа в новой системе

счисления;

2.Полученные целые части произведений, являющиеся цифрами числа в

новой системе счисления, привести в соответствие с алфавитом новой

системы счисления;

3.Составить дробную часть числа в новой системе счисления, начиная с

целой части первого произведения.

Правила перевода

1. Последовательно выполнять деление данного числа и получаемых

неполных частных на основание новой системы счисления до тех пор, пока

не получим неполное частное, меньшее делителя.

2. Полученные остатки, являющиеся цифрами числа в новой системе

счисления, привести в соответствие с алфавитом новой системы счисления.

3. Составить число в новой системе счисления, записывая его, начиная с

последнего частного.

При переводе двоичного числа в восьмеричную систему счисления

двоичное число разбиваем на группы по 3 цифры справа налево начиная с

младшего разряда. Затем каждую тройку цифр заменяем соответственно цифрой восьмеричной системы счисления.

Дробную часть разбиваем от запятой вправо на группы по 3 цифры.

Обратный переход - от восьмеричной системы счисления к двоичной -

осуществляется заменой каждой восьмеричной цифры ее двоичным

эквивалентом (тремя двоичными цифрами).

Для шестнадцатеричной системы счисления - четырьмя двоичными цифрами.

Примеры перевод двоичных чисел в шестнадцатеричную систему счисления.

Представление чисел в цифровых автоматах

Чтобы получить внутреннее представление целого положительного числа

N, хранящегося в К-разрядной ячейке, необходимо:

1. Перевести число N в двоичную систему счисления;

2. Полученный результат дополнить слева незначащими нулями до К

разрядов.

Получить внутреннее представление целого числа 1607 в 2-х байтовой

ячейке.

Решение:

N=1607=110010001112.

Внутреннее представление этого числа будет: 0000 0110 0100 0111.

Шестнадцатеричная форма внутреннего представления числа: 0647.

Дополнительным кодом двоичного числа X в N-разрядной ячейке является

число, дополняющее его до значения 2N.

Получение дополнительного кода:

1. Получить внутреннее представление положительного числа N (прямой

код);

2. Получить обратный код этого числа заменой 0 на 1 или 1 на 0 (обратный

код);

3. К полученному числу прибавить 1.

Положительное число в прямом, обратном и дополнительном кодах не

меняют свое изображение.

8. Магнитная память ПК.

магнитная память (magnetic storage) — вид памяти (ЗУ), использующий магнитный материал в качестве среды для записи и хранения данных. Разновидностями этого вида памяти являются память на магнитной проволоке (plated wire memory), память на магнитной пленке (thin-film memory), наносимой на некоторую подложку, например стеклянную. Наиболее широко использующимися устройствами реализации магнитной памяти в современных компьютерах являются накопители на магнитных лентах (НМЛ), магнитных (жестких и гибких) дисках (НЖМД и НГМД);

Накопитель на жёстких магнитных дисках или НЖМД (англ. hard (magnetic) disk drive, HDD, HMDD), жёсткий диск — запоминающее устройство произвольного доступа, основанное на принципе магнитной записи. Является основным накопителем данных в большинстве компьютеров.

В отличие от «гибкого» диска (дискеты), информация в НЖМД записывается на жёсткие (алюминиевые или стеклянные) пластины, покрытые слоем ферромагнитного материала, чаще всего двуокиси хрома — магнитные диски. В НЖМД используется одна или несколько пластин на одной оси. Считывающие головки в рабочем режиме не касаются поверхности пластин благодаря прослойке набегающего потока воздуха, образующейся у поверхности при быстром вращении. Расстояние между головкой и диском составляет несколько нанометров (в современных дисках около 10 нм[1]), а отсутствие механического контакта обеспечивает долгий срок службы устройства. При отсутствии вращения дисков головки находятся у шпинделя или за пределами диска в безопасной зоне, где исключён их нештатный контакт с поверхностью дисков.

Также, в отличие от гибкого диска, носитель информации совмещён с накопителем, приводом и блоком электроники и (в персональных компьютерах в большинстве случаев) обычно установлен внутри системного блока компьютера.