Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпоры по инф-ке.docx
Скачиваний:
8
Добавлен:
27.10.2018
Размер:
160.25 Кб
Скачать

1. Понятие инф-ии.

Инф-я - фундамент. понятие, поэтому опр-ть его исчерпывающим образом через к.-то более прост. понятия невозможно. Кажд вариант опр-ия инф-ии обл. некот. неполнотой. В шир. смысле инф-ия – это отражение реал-го (матер-го, предм-го) мира, выражаемое в виде сигналов и знаков. Сигналы отражают физ-ие хар-ки разл. процессов и объектов.

Информатика — это основанная на исп-ии комп. техники дисциплина, изучающая структуру и общие св-ва инф-ии, а также закон-сти и методы её создания, хранения, поиска, преобразования, передачи и примен-ия в разл. сферах человеческой деят-сти.

Для обмена инф-ей с др. людьми человек исп-ет ест. языки (русс., англ., кит. и др.). Основу языка сост-ет алфавит, или набор символов (знаков), которые чел-к различает по их начертанию.

Посл-сти символов алфавита образ. в соот-вии с правилами грамматики осн. объекты языка — слова. Правила, согласно которым строятся предложения из слов данного языка, называются синтаксисом.

Наряду с ест. языками были разработаны формальные языки (нотная запись, языки программ-ия и др.). Осн. отличие форм. языков от ест.-х состоит в наличии не только жестко зафикс. алфавита, но и строгих правил грамматики и синтаксиса.

Кодирование – это процесс перевода символов одного языка в символы другого языка. Чаще всего в компьютерах осуществляют преоб-ие символов ест.языка в числа.

Система счисления это знак. система, в которой числа запис-ся по опр. правилам с помощью цифр — символов нек. алфавита.

Все с.с. делятся на позиц-е и непоз-е. В поз. с.с. зн-е цифры зависит от ее положения в записи числа, а в непоз-х — не зависит. Позиция цифры в числе называется разрядом. Разряд числа возрастает справа налево, от младших разрядов к старшим.

Каждая позиц. с.с. исп-ет опр. алфавит цифр и основание. В позиции. с.с. основание системы равно кол-ву цифр (знаков в ее алфавите) и опр-ет, во сколько раз разл-ся зн-я цифр соседних раз­рядов числа,

Наиболее распр-ми в наст. время поз. с.с. явл-ся десят. и двоич.:

В наст. время получили распр-ие подходы к опр-ию пон-ия "кол-во инф-ии", основанные на том, что инф-ию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопред-сти наших знаний об объекте.

Так, амер. инженер Р. Хартли процесс получ-я инф-ии рассм. как выбор одного сообщения из конечного наперёд заданного множества из N равновер. сообщений, а кол-во инф-ии I, содерж-ся в выбранном сообщении, опр-ет как двоичный логарифм N. Ф-ла Хартли: Допустим, нужно угадать одно число из набора чисел от единицы до ста. По ф-ле Хартли можно вычислить, какое кол-во инф-ии для этого требуется: I = log2100 » 6,644. Т.е. сообщение о верно угад. числе содерж кол-во инф-ии,  6,644 ед. инф.

Определим теперь, явл-ся ли равновер. сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на вопрос нельзя. Все зависит от того, о каком здании идет речь. Если это, напр-р, станция метро, то вер-сть одинак., а если это воен. казарма, то для муж вер-сть знач-но >.

Для таких задач амер учёный Шеннон предложил др. ф-лу опр-я кол-ва инф-и. Ф-ла Шеннона: I = p1 log2 (1/p1 )+ . . + pN log2 (1/pN ), pi — вер-сть того, что именно i-е сообщение выделено в наборе из N сообщений. (Шеннон предположил, что прирост информации равен утраченной неопределённости).

Если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в ф-лу Хартли.

В качестве ед-цы инф-ии условились принять один бит (англ. bit — binary, digit — двоичная цифра). Бит в теории инф-ии — кол-во инф-ии, необх для различения двух равновер. сообщений. А в вычисл.технике битом наз-ют наим. "порцию" памяти, необх. для хранения одного из двух знаков "0" и "1", исп-мых для внутримашинного предст-я данных и команд.

Бит — мельчайшая ед-ца изм-я. На практике чаще прим-ся более крупная единица — байт, = 8 битам. Восемь битов треб-ся для закодирования любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко исп-ся также более крупные производные ед-цы инф-ии: 1 Кбайт, Мбайт, …

Инф-ию м. искать, хранить, использовать, воспроизв, передавать и др. Все эти процессы, связ. с определ. операциями над информ-ей, наз-ся инф. процессами.

Инф-ия передается в виде сообщений от нек. источника инф-ии к её приёмнику посредством канала связи между ними. Источник посылает передав. сообщение, которое кодируется в передав. сигнал. Этот сигнал посылается по каналу связи. В рез-те в приёмнике появл-ся приним. сигнал, который декодируется и становится приним. сообщением.

В кач-ве носителя инф-ии в комп-ах исп-ся: магнитная лента, магнитные диски, оптические диски, магнито-оптические диски.

Та из хар-ик сигнала, кот-ая исп-ся для представления сообщений, наз-ся параметром сигнала. Если параметр принимает послед-но во времени конечное число значений, сигнал наз-ся дискретным, сообщение и инф-ия – дискр-ая. Если источник вырабатывает непр. сообщение, инф-ия наз-ся непрерывной. Пример дискр. сообщения-процесс чтения книги,sms-инф-ия здесь представлена текстом, т.е. дискретной послед-ю отд. букв. Примером непрерывного сообщения служит чел. речь.