
- •1. По видам:
- •2. По способу передачи и восприятия:
- •Статистические меры информации
- •Семантические меры информации
- •Перевод целой части
- •Перевод дробной части
- •20. Монитор. Виды мониторов.
- •21. Системный блок, его устройство.
- •22.Процессор, устройства, основные параметры.
- •23. Клавиатура, принципы работы.
- •24. Память компьютера, внутренняя память.
- •25.Память компьютера, внешняя память.
- •26. Мышь, принцип действия.
- •27. Сканеры, основные характеристики, классификация.
- •29. Плоттер.
- •30. Архитектура эвм, схема устройств.
- •32.Поколения эвм.
- •33. Локальные сети.
- •34. Глобальные сети.
- •35. Локальные сети, основные понятия.
- •36. Одноранговые локальные вычислительные сети
- •37. Локальные сети с выделенным сервером
- •38. Топология локальных сетей
- •37.Серверные локальные сети (многоуровневые или иерархические)
- •47.Операционная система,
- •48.Организация файловой системы
- •51.Структура каталога, структура fat - таблицы
- •52.Особенности oc Windows.
- •53.Программы оболочки. Назначение и основные возможности
- •54. Основные типы окон ocWindows, их особенности
- •55.Текстовый процессор, его возможности
- •56.Процессор электронных таблиц, его возможности
Информатика
1. Информация. Понятие информации. Концепции информации
Термин информатика возник в 60-х гг 20 века. Во Франции для названия области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин. Французский термин informatigue (информатика) образован путем слияния слов information (информация) и automatigue (автоматика) и означает "информационная автоматика или автоматизированная переработка информации". В англоязычных странах этому термину соответствует синоним computer science (наука о компьютерной технике).
Понятие информации является основным понятием информатики. Определения у этого термина нет, вернее определений очень много и они противоречивы.
Поэтому вместо определения используют термин понятие информации. Понятия, в отличии от определений, не даются однозначно, а вводятся на примерах. Причем каждая научная дисциплина делает это по-своему, выделяя в качестве основных компонентов, те которые наилучшим образом соответствуют ее предмету и задачам.
Существуют несколько концепций (теорий) информации.
Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности(энтропию) события.
Вторая концепция изложенная в работах Бернштейна Э. С. и Шрейдера Ю.А., основана на логико-семантическом (семантика(содержание) - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления.
Третья концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информация содержат любые сообщения, воспринимаемые человеком или приборами. В этой трактовке: Информатика– это комплексная научная и инженерная дисциплина, которая изучает все аспекты разработки, проектирования, создания, оценки, функционирования основанных на ЭВМ систем переработки информации, их применения и воздействия на различные области социальной практики.
Часто возникает путаница в понятиях «информатика» и «кибернетика». Кибернетика и информатика, внешне очень похожие дисциплины, различаются в расстановке акцентов:
- в информатике – на свойствах информации и аппаратно-программных средствах её обработки,
- в кибернетике – на разработке концепций и построении моделей объектов с использованием, в частности, информационного подхода.
Информатика занимается изучением процессов преобразования и создания новой информации более широко, практически не решая задачи управления различными объектами, как кибернетика.
Разделы информатики:
BRAIN WARE -Теоретическая информатика. Алгоритмические средства. Использует математические методы для общего изучения обработки информации.
SOFT WARE - Прикладная информатика. Программные средства. Изучает закономерности процессов, создание информационных моделей, разработка информационных систем и технологий.
HARD WARE - Технические средства. Раздел, в котором разрабатываются принципиальные решения на уровне архитектуры.
NET WARE - Коммуникационные средства. Раздел, в котором разрабатываются общие принципы построения и функционирования вычислительных систем.
2. Информация. Свойства информации
Теория информации
Информацию можно передавать, хранить, обрабатывать, копировать, разрушать. Т.е. существование информации невозможно без материального объекта передающего или хранящего ее, таких объектов много и их число все время возрастает.
При всем при этом информация подразумевает наличие трех объектов источника информации, передающего канала и потребителя информации. Сообщения передаются от источника к получателю при помощи совокупности средств, образующих систему передачи информации.
К системам передачи информации относятся и почта, и телевидение, и радио, и сигнализация при помощи костра. Передача от источника к приемнику происходит с помощью сигналов. Сигнал представляет собой любой процесс, несущий информацию.
Сообщение– это информация, представленная в определенной форме и предназначенная для передачи(текст, речь, изображение).
Информация– это продукт взаимодействия сигналов и адекватных им методов.
Данные- это информация, представленная в формализованном виде и предназначенная для обработки техническими средствами, например ЭВМ.
Свойства информации:
1. Объективность и субъективность информации. Более объективной следует считать ту информацию, в которую методы вносят меньший субъективный элемент.
2. Полнота информации. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений..
3. Достоверность информации. Данные возникают в момент регистрации сигнала, но не все сигналы«полезные» практически всегда присутствует уровень информационного шума.
4. Доступность информации. Это мера возможности получить ту или иную информацию. На степень доступности информации одновременно влияют, как доступность данных, так и доступность адекватных методов для их интерпретации.
5. Актуальность информации. Это степень соответствия информации текущему моменту времени.
6. Адекватность информация — это уровень соответствия образа, создаваемого с помощью полученной информации, реальному объекту, процессу, явлению и т.п.
Формы адекватности информации:
Адекватность информации может выражаться в трех формах: синтаксической, семантической, прагматической.
1) синтаксис– свойство, определяющее способ представления информации на носителе (в сигнале).
2) семантика– свойство, определяющее смысл информации как соответствие сигнала реальному миру.
3) прагматика– свойство, определяющее влияние информации на поведение потребителя.
3. Информация. Дополнительные свойства информации
Информация имеет следующие дополнительные свойства:
1. атрибутивные - это те свойства, без которых информация не существует;
2. прагматические свойства характеризуют степень полезности информации для пользователя, потребителя и практики;
3. динамические свойства характеризуют изменение информации вовремени.
Атрибутивные свойства информации
Неотрывность информации от физического носителя и языковая природа информации. Хотя информация и неотрывна от физического носителя и имеет языковую природу, она не связана жестко ни с конкретным языком, ни с конкретным носителем.
Дискретность. Содержащиеся в информации сведения, знания - дискретны, т.е. характеризуют отдельные фактические данные, закономерности и свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линии, составного цвета, буквы, цифры, символа, знака.
Непрерывность. Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым, способствуя поступательному развитию и накоплению.
Прагматические свойства информации
Смысл и новизна- характеризует перемещение информации в социальных коммуникациях и выделяет ту ее часть, которая нова для потребителя.
Полезность- уменьшает неопределенность сведений об объекте. Дезинформация расценивается как отрицательные значения полезной информации
Ценность- ценность информации различна для различных потребителей и пользователей.
Кумулятивность- характеризует накопление и хранение информации.
Динамические свойства информации- характеризуют динамику развития информации во времени.
- копирование– размножение информации
- передача от источника к потребителю
- перевод с одного языка на другой
- перенос на другой носитель
- рост информации
- старение(физическое– носителя, моральное– ценностное). Информация подвержена влиянию времени.
4. Информация. Формы сигналов
Различают две формы представления информации: дискретная (переменная) и аналоговая(непрерывная).
Сигнал называется аналоговым (непрерывным), если его параметр в заданных пределах может принимать любые промежуточные значения.
Сигнал называется дискретным, если его параметр в заданных пределах может принимать отдельные фиксированные значения.
Замена точного значения сигнала, приближенной дискретной величиной при условии, что два ближайших дискретных значения могут различаться не на любую сколь угодно малую величину, а лишь на некоторую минимальную величину– квант, называется квантованием.
Процесс обратный квантованию называется сглаживанием.
Классификация информации
1. По видам:
Например: в зависимости от области возникновения
a) Информацию отражающую процессы и явления неодушевленной природы называют элементарной.
b) Процессы животного и растительного мира– биологической.
c) Человеческого общества – социальной.
2. По способу передачи и восприятия:
a) Визуальная– передаваемая видимыми образами и символами.
b) Аудиальную– передаваемую звуками.
c) Тактильная– ощущениями.
d) Органолептическая– запахами и вкусом
e) Машинная–передаваемая и воспринимаемая средствами вычислительной техники.
Информационные технологии
Информационная технология– это совокупность методов, производственных процессов и программно– технических средств, объединенных в технологическую цепочку, обеспечивающую сбор, обработку, хранение распространение и отображение информации.
Информационная технология характеризуется следующими основными свойствами:
1. Предметом обработки являются данные
2. Целью процесса является получение информации
3. Средствами осуществления процесса являются программные, аппаратные и программно-аппаратные вычислительные комплексы
4. Процессы обработки данных разделяются на операции в соответствии с данной предметной областью
5. Критериями процесса являются своевременность доставки информации пользователю, ее надежность, достоверность и полнота.
5, 6 Информация. Количество информации, равновероятностные события. Энтропия
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения данного сигнала. Эту меру неопределенности в теории информации называют энтропией.
Энтропия - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы.
Если в результате получения сообщения достигается полная ясность в каком-то вопросе, то говорят, что была получена полная или исчерпывающая информация и необходимости в дополнительной информации нет. И наоборот, после получения сообщения неопределенность осталась прежней, значит, информации получено не было(нулевая информация)
Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимает эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения.
Уменьшая неопределенность, мы получаем информацию, в этом весь смысл научного познания.
Единицы измерения информации
Количество информации которое можно получить при ответе на вопрос типа «да– нет», называется битом.(bit - binary digit– двоичная единица), в десятичной системе счисления единица измерения – дит (десятичный разряд).
Бит - минимальная единица количества информации, ибо нельзя получить информацию меньше, чем1 бит. При получении информации в 1 бит, неопределенность уменьшается в2 раза.
1 байт = 23 бит = 8 бит.
Группа из 8 битов информации называется байтом, байт основная единица информации.
Вероятностный подход в измерении информации
В1928 г. американский инженер Ральф Хартли установил связь между количеством информации и числом состояний системы. Предложенная им формула имела следующий вид: I=log2 N,
Где i – количество информации, N – число возможных состояний.
Ту же формулу можно представить в другом виде: N=2i.
Такой формулой можно представить, сколько вопросов (бит информации) потребуется, чтобы определить одно из возможных значений. N – это количество значений, а I – количество бит.
Иногда формулу Хартли записывают так: I = log2N = log2(1/р) = - log2 р, т. к. каждое из N событий имеет равновероятный исход р = 1 / N, то N = 1 / р.
Как пользоваться этими формулами для вычислений:
1) Если количество возможных вариантов N является целой степенью числа 2, то производить вычисления по формуле N = 2i достаточно легко.
2) Если же количество возможных вариантов информации не является целой степенью числа2, т.е. если количество информации число вещественное, то необходимо воспользоваться калькулятором или таблицей «Количество информации в сообщении об одном из N равновероятных событий» (таблица выдается студентам в электронном виде).
Неравновероятностные события
На самом деле рассмотренная нами формула является частным случаем, так как применяется только к равновероятным событиям. В жизни же мы сталкиваемся не только с равновероятными событиями, но и событиями, которые имеют разную вероятность реализации.
В 1948 г. американский инженер и математик Клод Элвуд Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.
Если I - количество информации, N- количество возможных событий, рi- вероятности отдельных событий, то количество информации для событий с различными вероятностями можно определить по формуле:
,
.
Формула для энтропии Больцмана совпадает с формулой, предложенной Шенноном для среднего количества информации, приходящейся на один символ в сообщении. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации энтропией. С тех пор слово “энтропия” стало чуть ли не синонимом слова “информации”.
Эту формулу еще называют формулой расчета Информационной энтропии для независимых случайных событий. При равновероятных событиях получаемое количество информации максимально.
7. Информация. Количество информации, Алфавитный подход к измерению информации
Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных.
Алфавит— упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.
Мощность алфавита— количество символов алфавита. Алфавитный подход- объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией.
Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:
1. Определить количество информации I в одном символе по формуле 2i = N, где N— мощность алфавита;
2. Определить количество символов в сообщении n;
3. Вычислить объем информации по формуле: V= i * n.
8. Кодирование числовой и графической информации
Система кодирования существует и в вычислительной технике - она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и1. Эти знаки называются двоичными цифрами, по-английски— binary digit или сокращенно bit (бит).
Одним битом могут быть выражены два понятия: 0 или 1. Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия: 00 01 10 11.
Количество значений, в данной системе может быть выражено N=2m,
где N— количество независимых кодируемых значений; m— разрядность двоичного кодирования, принятая в данной системе.
Кодирование информации
Кодировка представляет собой таблицу символов, где каждой букве алфавита(а также цифрам и специальным знакам) присвоен свой уникальный номер- код символа.
Для того чтобы закодировать один символ, число, звук и т.д. естественно не обойтись одним битом. Поэтому биты объединяются в байты. В одном байте можно закодировать 28 = 256 комбинаций состояний битов от 00000000 до 11111111.
Кодирование целых и действительных чисел
Целые числа кодируются двоичным кодом достаточно просто — достаточно взять целое число и делить его пополам до тех пор, пока частное не будет равно единице. Совокупность остатков от каждого деления, записанная справа налево вместе с последним частным, и образует двоичный аналог десятичного числа.
Для кодирования целых чисел от 0 до 255 достаточно иметь 8 разрядов двоичного кода(8 бит). Шестнадцать бит позволяют закодировать целые числа от 0 до 65 535, а24 бита— уже более 16,5 миллионов разных значений.
Для кодирования действительных чисел используют 80-разрядное кодирование. При этом число предварительно преобразуется в нормализованную форму:
3,1415926 = 0,31415926*101
300 000 = 0,3*106
123 456 789 = 0,123456789*1010
Первая часть числа называется мантиссой, а вторая— характеристикой. Большую часть из 80 бит отводят для хранения мантиссы(вместе со знаком) и некоторое фиксированное количество разрядов отводят для хранения характеристики(тоже со знаком).
Кодирование графических данных
Графическая информация представляется в растровом или векторном форматах. В векторных форматах записаны команды для принтера или плоттера, такой способ кодирования графических документов (по существу в виде команд, хранимых в текстовом файле) компактен, точен, позволяет легко изменять масштаб изображения, но применяется только для представления формализованной информации– графиков, схем, чертежей, карт.
Растровый способ позволяет закодировать любое изображение-картину, фотографию и т.д. Для каждой точки запоминается цвет. Файл в таком формате получается очень большим, поэтому все форматы хранения графических образов предусматривают сжатие информации, которое может осуществляться без потерь(bmp,Gif, Pcx, Tiff) или с потерями(JPEG). Формат jpeg уменьшает размер данных в десятки раз с потерями, которые не заметны для человеческого глаза.
Применяют несколько систем кодирования: HSB, RGB и CMYK. Первая цветовая модель проста и интуитивно понятна, т. е. удобна для человека, вторая наиболее удобна для компьютера, а последняя модель CMYK-для типографий.
Модель HSB характеризуется тремя компонентами:
1) оттенок цвета (Hue), Значение цвета выбирается как вектор, выходящий из центра окружности. Направление вектора задается в угловых градусах и определяет цветовой оттенок.
2) насыщенность цвета (Saturation). Насыщенность цвета определяется длиной вектора.
3) яркость цвета (Brightness). Яркость цвета задается на отдельной оси, нулевая точка которой имеет черный цвет. Точка в центре соответствует белому (нейтральному) цвету, а точки по периметру - чистым цветам.
Принцип метода RGB заключается в следующем: известно, что любой цвет можно представить в виде комбинации трех цветов: красного (Red, R), зеленого (Green, G), синего (Blue, B). Другие цвета и их оттенки получаются за счет наличия или отсутствия этих составляющих. По первым буквам основных цветов система и получила свое название- RGB. Данная цветовая модель является аддитивной, то есть любой цвет можно получить сочетание основных цветов в различных пропорциях.
Метод CMYK. Эта цветовая модель используется при подготовке публикаций к печати. Каждому из основных цветов ставится в соответствие дополнительный цвет(дополняющий основной до белого). Получают дополнительный цвет за счет суммирования пары остальных основных цветов.
В основном такой метод принят в полиграфии. Но там еще используют черный цвет (BlacК, так как буква В уже занята синим цветом, то обозначают буквой K). Это связано с тем, что наложение друг на друга дополнительных цветов не дает чистого черного цвета.
Различают несколько режимов представления цветной графики:
а) полноцветный(True Color)- для кодирования яркости каждой из составляющих используют по 256 значений;
б) High Color - это кодирование при помощи 16-разрядных двоичных чисел;
в) индексный - к графическим данным прилагается палитра (справочная таблица), без которой воспроизведение будет неадекватным. Сам код точки растра в данном случае означает не сам по себе цвет, а только его номер (индекс) в палитре.
9. Кодирование текстовой информации и звука
Кодирование текстовых данных
Если каждому символу алфавита сопоставить определенное целое число (например, порядковый номер), то с помощью двоичного кода можно кодировать и текстовую информацию. Восьми двоичных разрядов достаточно для кодирования256 различных символов.
Для английского языка, Институт стандартизации США(ANSI—American National Standard Institute) ввел в действие систему кодирования ASCII (American Standard Code for Information Interchange — стандартный код информационного обмена США). В системе ASCII закреплены две таблицы кодирования— базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, а расширенная относится к символам с номерами от 128 до 255.
Аналогичные системы кодирования текстовых данных были разработаны и в других странах. Отсутствие единого стандарта в этой области привело к множественности одновременно действующих кодировок. Только в России можно указать три действующих стандарта кодировки и еще два устаревших.
Так, например, кодировка символов русского языка, известная как кодировка Windows-1251, была введена «извне» — компанией Microsoft, Эта кодировка используется на большинстве локальных компьютеров, работающих на платформе Windows.
Другая распространенная кодировка носит название КОИ-8 (код обмена информацией, восьмизначный)— ее происхождение относится ко временам действия Совета Экономической Взаимопомощи государств Восточной Европы. Сегодня кодировка КОИ-8 имеет широкое распространение в компьютерных сетях на территории России и в российском секторе Интернета.
Международный стандарт, в котором предусмотрена кодировка символов русского алфавита, носит название кодировки ISO (International Standard Organization — Международный институт стандартизации). На практике данная кодировка используется редко.
В связи с изобилием систем кодирования текстовых данных, действующих в России, возникает задача межсистемного преобразования данных - это одна из распространенных задач информатики.
Универсальная система кодирования текстовых данных
Эта система, основанна на 16-разрядном кодировании символов, получила название— UNICODE. Шестнадцать разрядов позволяют обеспечить уникальные коды для 65 536 различных символов этого поля достаточно для размещения в одной таблице символов большинства языков планеты.
Кодирование звуковой информации
Можно выделить два основных направления кодирования звуковой информации.
Метод FM (Frequency Modulation) основан на том, что теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а следовательно, может быть описан числовыми параметрами, то есть кодом.
В настоящее время наиболее популярны форматы сжатия без потерь- WAV, RA, сжатия с потерями- MP3,VQF. При сжатии MREG’ом в 11-12 раз для записи одной секунда звучания требуется 16 Кбайт, т.е. в 1Гб памяти влезает 18 часов музыки. Такое сжатие считается оптимальным, при большем сжатии потери становятся заметными.
Метод таблично-волнового (Wave-Table) синтеза заключается в том, что где-то в заранее подготовленных таблицах хранятся образцы звуков для множества различных музыкальных инструментов. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звука.
Видео информация – кодируется аналогично графической и звуковой.
10. Информатика. Меры количества информации
Меры количества информации
В теории информации выделяются три основных направления (подходы измерения информации): структурное, статистическое и семантическое.
1. Структурный – измеряет количество информации простым подсчётом информационных элементов. Применяется для оценки возможностей запоминающих устройств, независимо от конкретных условий их применения.
2. Статистический – учитывает вероятность появления тех или иных сообщений применяется при рассмотрении вопросов передачи данных.
3. Семантический – учитывает целесообразность и полезность информации; используется для оценки эффективности различных устройств.
Структурные меры информации
Структурные меры учитывают только дискретное строение информации. Элементами информационного комплекса являются кванты - неделимые части информации. Различают геометрическую, комбинаторную и аддитивную меры. Определение информации геометрическим методом представляет собой измерение длины линии, площади или объема геометрической модели информационного комплекса в количестве квантов. Максимально возможное число квантов в заданных структурных габаритах определяет информационную емкость системы. Информационная емкость есть число, указывающее количество квантов в полном массиве информации.
В комбинаторной мере количество информации вычисляется как количество комбинаций элементов. Здесь учитываются возможные или реализованные комбинации.
Аддитивная мера – мера, предложенная в 1928 году американским учёным Ральфом Хартли, установивший связь между количеством информации и числом состояния системы:
I = log2N, где I – количество информации в битах,
N – число возможных состояний системы (N = 2i).
Иногда формулу Хартли записывают следующим образом:
I
= log2(
= - log2P,
где P
– вероятность появления того или иного
события, P
=
.