Информация и информатика.
Информатика.
Термин «информатика» (франц. Informatique) происходит от французских слов information (информация) и automatique (автоматика) и означает «информационная автоматика».
Также имеет широкое распространение англоязычный вариант: Computer science – компьютерная наука.
Прежде чем переходить к понятию «информатика», определим, что такое вычислительная машина. Возьмем определение, приведенное в «Энциклопедии кибернетики»: «Вычислительная машина(ВМ) – физическая система(устройство или комплекс устройств), предназначенная для механизации или автоматизации процесса алгоритмической обработки информации и вычислений». Таким образом, понятие «вычислительная машина» тесно связано с понятиями «информация» и «алгоритмическая обработка».В вычислительных машинах(системах) объектом передачи и преобразования является информация. С этой точки зрения вычислительную машину(систему) можно называть информационной. Все процессы, происходящие в вычислительной машине(системе) связаны непосредственно с различными физическими носителями информационных сообщений, все узлы и блоки этой машины(системы) являются физической средой, в которой осуществляются информационные процессы. Специфика информационных процессов состоит не только в передаче информационных сообщений, но и в преобразовании, переработке информации. Итак,
информатикой называют науку, изучающую структуру и свойства информации, а также занимающуюся вопросами сбора, хранения, поиска, передачи, преобразования, распространения и использования информации.
«Информатика представляет собой неразрывное единство трех составных частей: теории передачи и преобразования информации, алгоритмических средств обработки информации и вычислительных средств.» «А.Я. Савельев»
В 1978 г. международный научный конгресс официально закрепил за понятием «информатика» области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации – массового внедрения компьютерной техники во все области жизни людей.
Информация.
Информацией в простейшем смысле называют сведения об объектах, процессах и явлениях окружающего нас мира. Термин «информация» происходит от латинского слова information, что означает «сведения, разъяснения, изложение». Термин «информация» имеет много определений. В широком смысле информация – отражение реального мира. В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Сведения могут поступать к человеку из различных источников: книги, газеты, картины, музыкальные произведения, в процессе общения и т.д. Различают источники информации, средства ее передачи и приемники информации. При этом необходимо иметь ввиду, что при передаче информации по каналам связи возможны помехи, которые вызывают искажение и потерю информации.
Свойства информации.
К свойствам информации относят:
Важность (ценность, полезность);
Достоверность (истинность, правильность):
полноту;
оперативность (своевременность):
понятность (доступность) и т.д.
Кодирование информации. Мера информации.
Под кодом понимают совокупность знаков(символов) предназначенных для представления информации в соответствии с определенными правилами. Процесс представления информации с помощью специальных знаков (кодов) называют кодированием. Кодируют информацию с целью ее передачи, хранения, преобразования. Под алфавитом языка кодирования понимают совокупность предназначенных для кодирования символов-знаков. В информатике и вычислительной технике широко используется алфавит, имеющий два знака. Такой алфавит называют двоичным. Знаками двоичного алфавита кодирования могут являться цифры – 0,1, слова –символы алфавита: да, нет; истина, ложь, состояние устройства: включено, выключено. В соответствии с этим введена и наименьшая единица информации –разряд (бит) (англ. Bit, от binary – двоичный, digit – знак).
Одного разряда информации достаточно, чтобы передать слово «да» или «нет», либо, например, закодировать состояние электроприбора (или лампочки) «включено» - «выключено». Сообщение о том, что прибор включен содержит 1 бит информации.
Попробуем закодировать состояние светофора в двоичном алфавите, одним разрядом (битом) уже не обойтись, так как у светофора может гореть один из трех цветов: красный, желтый, зеленый, следовательно, необходимо для кодировки использовать два бита. Возможен такой вариант кодировки: красный – 00,желтый – 01, зеленый –10. Такие наборы битов называют двоичными словами. Для передачи сообщения о состоянии светофора необходимо более одного бита информации.
Если закодировать семь цветов радуги, то потребуется 3 бита информации, например, -красный – 000, желтый – 001, голубой – 010 и т.д., а сообщение о том какой цвет из семи выбран содержит более двух бит информации.
При кодировании каких-либо восьми объектов потребуется также три бита. Сообщение о том, что выбран один из восьми объектов содержит три бита информации.
В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле ее новизны, или, иначе, уменьшения неопределенности наших знаний об объекте.
Рассмотренные примеры позволяют сделать вывод, что чем больше необходимо закодировать альтернатив, тем больше для этого потребуется разрядов (бит).
Американский инженер З. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащейся в выбранном сообщении, определял по формуле: