Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Lektsii_po_kursu_Informatika.doc
Скачиваний:
52
Добавлен:
11.09.2019
Размер:
4.45 Mб
Скачать

МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ

Федеральное Агентство по образованию

Костромской государственный университет им. Н.А. Некрасова

Кафедра информационных технологий в образовании

Лекции по курсу «Информатика»

для студентов специальности 040101.65 «Социальная работа»

Составитель:

ассистент кафедры информационных технологий в образовании Тихонов С.С.

Кострома

2008

Содержание:

Лекция 1. Основные понятия и методы теории информатики и кодирования

1.1. Информатика как научная дисциплина

Информатика - это новая научная дисциплина и новая информационная индустрия, связанные с использованием персональ­ных компьютеров и сетей ЭВМ.

Информатика как научная дисциплина изучает законы, принципы и методы накопления, обработки и передачи информации с помощью ЭВМ. В этом смысле информатика как наука является фундаментом для развития новой информационной индустрии, основанной на использовании сетей ЭВМ.

Предмет информатики составляют следующие понятия:

- аппаратное обеспечение средств вычислительной техники;

- программное обеспечение средств вычислительной техники;

- средства взаимодействия аппаратного и программного обеспечения;

- средства взаимодействия человека с аппаратными и программными средствами.

Основной задачей информатики является систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники.

Слово информатика происходит от французского слова Informatique, образованного в результате объединения терминов Informacion (информация) и Automatique (автоматика), что выражает ее суть как науки об автоматической обработке информации.

1.2. Понятие информации и информационных процессов

С понятием информации мы сталкиваемся ежедневно, однако строго и общепризнанного ее определения не существует, поэтому вместо определения обычно используют понятие об информации. Поэтому каждая научная дисциплина на своих конкретных примерах дает определение понятию информация.

Передача информации между живыми организмами и машинами происходит в форме сообщений, представляющих собой определенного рода сигналы.

Данные – составная часть информации, представляющая собой зарегистрированные сигналы.

В связи с этим, дадим следующую трактовку термину «информации» (с точки зрения науки информатики):

Информация – продукт взаимодействия данных и адекватных методов их обработки.

Свойства информации:

  • Объективность. Информация объективна, если она не зависит от чьего-либо мнения или суждения.

  • Полнота. Информация полна, если её достаточно для понимания и принятия решений. Полнота информации во многом характеризует качество информации.

  • Достоверность. Информация достоверна, если она отражает истинное положение дел.

  • Точность. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

  • Доступность. Доступность информации – мера возможности получить ту или иную информацию.

  • Актуальность. Актуальность информации – это степень соответствия информации текущему моменту времени.

  • Понятность. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Использование информации предусматривает выполнение над ней некоторых действий, называемых информационными процессами.

Информационные процессы – это процессы сбора, передачи, хранения, обработки и использования информации.

1.3. Меры и единицы количества и объема информации

Алфавитный подход к измерению количества информации

Если информация представлена в виде дискретного сообщения (формирующегося из отдельных знаков), то логично считать количеством информации его длину, то есть общее число знаков в сообщении. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой русской или латинской буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи.

Пример: Сигнал SOS: 3 знака в латинском алфавите;

11 знаков в алфавите Морзе: ··· пауза – – – пауза ···.

Для упорядочивания измерений информационный объем сообщений принято измерять в битах. Один бит соответствует одному знаку двоичного алфавита. Итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков – битов. При этом совсем не обязательно уметь интерпретировать сообщения.

Пример: Пусть сообщение в двоичном алфавите выглядит следующим образом: 000100010001. Мы не знаем, какая информация была заложена в этом сообщении, но можем легко подсчитать его длину – 12 двоичных знаков, следовательно, его информационный объем равен 12-ти битам.

Такой способ измерения количества информации называется алфавитным подходом. При этом измеряется не содержание информации с точки зрения его новизны и полезности, а размер несущего информацию сообщения. Мы уже убедились, что при алфавитном подходе к определению количества информации одни и те же сведения,

закодированные по-разному, будут иметь различный информационный объем. Сообщения одинаковой длины могут нести как совершенно бесполезные сведения, так и нужную информацию. Пример: Применяя алфавитный подход, получаем, что информационный объем слов “фыырпбьощ” и “компьютер” совершенно одинаков, а слов “ученик” и “учащийся” – различен.

Если алфавит содержит 2n знаков, то каждый из его знаков можно закодировать с помощью n знаков двоичного алфавита. Таким образом, объем информации, содержащейся в сообщении длиной m при использовании алфавита мощностью 2n, равен m·n бит.

Пример:

Найдем информационный объем слова SOS, записанного в компьютерной кодировке. При кодировании букв в компьютере используется либо алфавит ASCII (American Standard Code for Information Interchange — американский стандартный код обмена информацией), состоящий из 28=256 знаков, либо алфавит Unicode, мощность которого 216 = 65536. В слове SOS три буквы, следовательно, его информационный объем 3·8=24 или 3·16=48 бит, в зависимости от используемой кодировки.

Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами. Действительно, устройствам нет дела до содержательной стороны сообщений. Компьютеры, принтеры, модемы работают не с самой информацией а с ее представлением в виде сообщений. Оценить информационные результаты их работы как полезные или бесполезные может только человек.

Единицы измерения информации

Для удобства, помимо бита используются более крупные единицы измерения количества информации. Вот соотношения между ними:

1 байт = 23 бит = 8 бит

1 килобайт (Кб) = 210 байт = 1024 байт

1 мегабайт (Мб) = 1024 Кб

1 гигабайт (Гб) = 1024 Мб

1 терабайт (Тб) = 1024 Гб

То, что отношения между единицами измерения кратны степеням 2, объясняется большим теоретическим и практическим значением двоичного кодирования в информатике.

Количество информации как мера уменьшения неопределенности (вероятностный подход к измерению количества информации)

С точки зрения отдельного человека, ценность информации определяется тем, насколько она проясняет для него какой-либо вопрос, то есть уменьшает неопределенность ситуации. При этом количество одной и той же  информации может быть оценено различными людьми по-разному. Для объективного измерения  количества информации необходимо формализовать задачу.

Будем считать события равновозможными, если мы не располагаем заранее никакой информацией (статистическими данными, логическими умозаключениями и т.д.), о том, что шансы одного из событий выше или ниже, чем шансы любого другого. При этом имеется в виду, что в результате опыта обязательно наступит какое-либо событие и притом только одно.

Так, например, при подбрасывании монеты выпадение орла или решки можно считать равновозможными событиями, предполагая монету идеальной, то есть исключив из рассмотрения возможность других исходов ("зависла в воздухе", "встала на ребро"), а также влияние на исход опыта чеканки на сторонах монеты, отклонения формы реальной монеты от правильной и т. д.

Чем больше равновозможных событий, тем больше неопределенность ситуации.

Минимальный размер сообщения о том, что произошло одно из двух равновозможных событий, равен одному биту.

Информацию о том, что произошло первое событие, можно закодировать в двоичном алфавите нулем, а о том, что произошло второе событие – единицей.

Для уменьшения неопределенности в два раза (вместо двух возможных событий – одно реально произошедшее) требуется один бит информации. Иначе говоря, сообщение, уменьшающее неопределенность ситуации в два раза, несет один бит информации.

Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания идеальной монеты (два равновозможных события) несет один бит информации.

Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания двух идеальных монет (четыре равновозможных события: орел-решка; решка-орел; орел-орел; решка-решка) несет два бита информации. Действительно, 2n в данном случае равняется четырем, следовательно n = 2.

Задача нахождения n по известному значению k = 2n решается нахождением логарифма числа k по основанию 2, поэтому, для того, чтобы закодировать информацию, уменьшающую неопределенность в k раз, необходимо log2k бит информации. Приведем таблицу некоторых двоичных логарифмов, являющихся целыми числами.

n

log2k

1

0

2

1

4

2

8

3

16

4

32

5

64

6

128

7

256

8

512

9

1024

10

Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания точечного объекта на шахматную доску (равновозможные события - попадания в одну из 64 клеток) несет 6 бит информации. Действительно, k в данном случае равняется 64, log264 = 6. Минимальная длина двоичного сообщения также будет равна 6. Подробнее: номер клетки доски по вертикали можно закодировать целым числом от 0 до 7. Для этого требуется 3 двоичных разряда. Еще 3 разряда нужны для того, чтобы закодировать номер клетки доски по горизонтали, 3+3=6. Можно также просто пронумеровать все клетки числами от 0 до 63. Для этого опять-таки потребуется 6 разрядов.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]