Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИНформатикаЛекция(зао)1.doc
Скачиваний:
3
Добавлен:
14.07.2019
Размер:
199.68 Кб
Скачать

Литература.

Информатика. Базовый курс. Под. ред. Симоновича С.В., С-Питербург, 2009г. 640с.

ПОНЯТИЕ ИНФОРМАЦИИ.

Сам термин информация происходит от латинского слова informatio - разъяснение, осведомление, изложение.

В широком смысле информация - это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

В Федеральном законе «Об информации, информатизации и защите информации» информация определяется как сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления.

В технике информация определяется через понятия сигналов, данных и методов их обработки.

Сигналы – изменения, исходящие от объектов в результате энергообмена.

Данные – зарегистрированные сигналы.

Информация- продукт взаимодействия данных и адекватных им методов обработки.

В теории информации Клода Шеннона Информация определяется как средство снижения неопределенности и риска.

1.2. Аттрибутивные свойства информации

При классификационной и количественной оценке информации различают такие ее аспекты, как синтаксический, семантический и прагматический.

Синтаксический аспект связан со способом представлений информации вне зависимости от ее смысловых и потребительских качеств.

На синтаксическом уровне рассматриваются формы представления информации для ее передачи и хранения. Обычно информация, предназначенная для передачи, называется сообщением. Сообщение может быть представлено в виде знаков и символов, преобразовано в электрическую форму, закодировано, т.е. представлено в виде определенной последовательности электрических сигналов, однозначно отображающей передаваемое сообщение, и промодулировано для того, чтобы имелась возможность его передачи по выбранному каналу. Характеристики процессов преобразования сообщения для его передачи определяют синтаксический аспект информации при ее передаче. При хранении синтаксический аспект определяется другими формами представления информации, которые позволяют наилучшим образом осуществить поиск, запись, обновление, изменение информации в информационной базе.

Информацию, рассмотренную только относительно синтаксического аспекта, часто называют данными.

Семантический аспект отражает смысловое содержание информации и соотносит ее с ранее имевшейся информацией. Смысловые связи между словами или другими элементами языка отражает тезаурус - словарь. Тезаурус состоит из двух частей: списка слов и устойчивых словосочетаний, сгруппированных по смыслу, и некоторого ключа, например алфавитного, позволяющего расположить слова в определенном порядке. При получении информации тезаурус может изменяться, и степень этого изменения характеризует воспринятое количество информации.

Прагматический аспект определяет возможность достижения поставленной цели с учетом полученной информации. Этот аспект отражает потребительские свойства информации.

Качественные харктеристики информатики.

Объективность и субъективность информации. Объективность относительна. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент.

Полнота информации. Определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся.

Достоверность. Всегда присутствует какое-количество посторонних данных – информационный шум. Для фильтации необходимо передать или больший объем информации или применять более сложные методы обработки.

Адекватность . Степень соответсвия реальному объективному состоянию дела. Неадекватная информация образовываетс на основе неполных или недостоверных данных.

Доступность. Мера возможности получить информацию. Зависит от доступности данных и доступности адекватных методов обработки.

Актуальность степень соответсвия текущему моменту времени. Кстаревшая информация может приводить к ошибочным решениям. Необходимость поиска адекватного метода для работы с данными может приводить к такой задержке в получении информации, что она становится неактуальной и ненужной.

Количественные характеристики информации.

Формулу для определения количества информации I в 1948 году предложил Клод Шеннон. Он определил понятие количества информации через понятие энтропии.

Энтропия.

- количественная мера неосведомленности наблюдателя о состоянии системы. Обозначают энтропию системы α – H(α).

Определение количества информации.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе α. Мерой его неосведомленности о системе является функция H1(α).

После получения некоторого сообщения β получатель приобрел некоторую дополнительную информацию I(α), уменьшившую его неосведомленность так, что неопределенность состояния системы стала H2(α).

Тогда количество информации I(α) о системе, полученной в сообщении β,

определится как

I(α) = H1(α) – H2(α),

Т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если конечная неопределенность Hβ(α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации I(α) = H(α).

Иными словами энтропия системы H(α) может рассматриваться как мера недостающей информации.

Формула Шеннона:

Пусть некоторая система может находиться в одном из N возможных состояний и РI - вероятность того, что система находится в i-м состоянии. Тогда энтропию системы можно вычислить по

Определение бита.

Пусть система α может находиться в двух состояниях с одинаковой вероятностью, т.е. P1=P2=1/2. Тогда по формуле Шеннона:

H=-(1/2*log2(1/2)+ 1/2*log2(1/2))=- log2(1/2)=-( log21- log22)=-(0-1)=1

Т.е. энтропия такой системы равна 1. Таким образом, количество информации, необходимое для полного снятия неопределенности системы, которая может находиться в двух равновероятных равно 1. Эту единицу называют 1 бит (binary digit (bit) - двоичная цифра) или разряд.

8 разрядов назвали байтом. Байт стал наименьшей единицей измерения объема формации для запоминающих устройств.

1Кбайт = 210= 1024 б

1Мбайт =220 =1024Кбай =1млн байт

1Гбайт = 230=1024Мбайт=1млрд байт

КОДИРОВАНИЕ ДАННЫХ.

используют для более компактного представления данных.

Кодирование целых чисел.

Числа можно представить по-разному, в зависимости от используемой системы счисления.

Система счисления.

- совокупность цифр, используемая для представления чисел.

Перевод чисел между двоичной и десятичной системами счисления.

Чтобы перевести целое число в двоичную систему исчисления надо делить число пополам, пока в остатке не образуется 0 или 1. Записать полученные остатки в обратной последовательности.

Пример.

1910= 100112.

Чтобы перевести двоичное число в десятичное, его нужно разложить по степеням двойки.

Пример.

101= 1*22+0*21+1*20= 4+0+1=5

Кодирование дробных чисел.

Чтобы перевести дробное число в двоичную систему исчисления надо умножать исходную дробь и получаемые дробные части произведений на 2 до тех пор, пока не получится нулевая дробная часть или не будет достигнута требуемая точность вычислений.. Записать полученные остатки в прямой последовательности.

Пример.

0,7510=0,112

Принцип кодирования текстовой информации.

В вычислительной технике используют двоичное кодирование при помощи 0 и 1.

Одним битом можно выразить два знака, двумя битами - 4, тремя - 8 и т.д.

Общая формула

N=2m

N – количество независимых кодируемых значений(алфавит),

m –количество разрядов двоичного кодирования.

При помощи 8 битов можно закодировать N=28=256 объектов. Таблица кодирования из 256 символов легла в основу кодирования текстовой информации в первых компьютерах.

Символы пронумеровали, номера перевели в двоичную систему. Проимер:

Символ

Порядковый номер

Код

А

1

00000001

В

2

00000010

С

3

00000011

Таблицы было достаточно для кодирования цифр от 0до 9, латинского алфавита и ряда часто используемых текстовых символов(скобки, тире и т.д.). Эта таблица называется ASCII. Она была утверждена Институтом стандартизации США при появлении первых ЭВМ. В системе ASCII закреплены две таблицы кодирования – базовая и расширенная. Базовая закрепляет значения кодов от 0 до 127, а расширенная относится к символам с номерами от 128 до 255. Обычно эти коды отдаются под национальные системы кодирования. Первые 32 кода базовой таблицы, начиная с нулевого, отданы производителям аппаратных средств(в первую очередь производителям компьютеров и печатающих устройств). В этой области размещаются так называемые управляющие коды, которым не соответствуют никакие символы языков, и, соответственно, эти коды не выводятся ни на экран, ни на устройства печати, ни ими можно управлять тем, как производится вывод прочих данных. С 32 по 127 размещены символы, цифры, латинский алфавит.

Пример.

32 –пробел

33 - !

34 – “”

35 - #

36 - $

48 – 0

49 – 1

57 – 9 и т.д.

Единого стандарта для национальных кодировок не существует. В России можно указать три действующих стандарта и еще два устаревших. Наибольшее распространение получила кодировка Windows- 1251. Разработана компанией Microsoft.

Вторая КОИ-8(код обмена информацией, восьмизначный). Разработана для стран Совета экономической взаимопомощи. Широко распространена в компьютерных сетях на территории России и российском секторе Интернет.

Международный стандарт, в котором предусмотрена кодировка символов русского алфавита называется кодировка ISO(Международный институт стандартизации). На практике данная кодировка используется редко.

В настоящее время разработана универсальная кодировка текстовых данных - UNICOD. Она использует для кодирования 16 разрядов. Такой таблицей можно закодировать 65536 символов. Этого достаточно для кодирования практически практически всех языков планеты. В настоящее время происходит постепенный переход на эту систему кодирования.