
- •Меры и единицы количества и объёма информации
- •Аппаратная организация эвм
- •Логические основы эвм
- •Аппаратура компьютера
- •2)Прикладное:
- •Основные идеи ос
- •Файловая система и ее организация :
- •Семейство windows 9x.
- •Инструментальные средства ит
- •Офисные технологии. Программные пакеты офисных приложений:
- •Автозаполнение формулами
- •Автоматизация решения информационных задач:
- •Базы данных
Понятие информации: Информация – это знания или сведения о ком-либо или о чем-либо. Информация – это сведения, которые можно собирать, хранить, передавать, обрабатывать, использовать.
Информация – это отражение внешнего мира с помощью знаков или сигналов. Информационная ценность сообщения заключается в новых сведениях, которые в нем содержатся (в уменьшении незнания).
свойства информации:
запоминаемость;
передаваемость;
воспроизводимость;
преобразуемость;
стираемость.
Сообщение :
форма представления информации, имеющая признаки начала и конца, предназначенная для передачи через среду связи от коммуникатора к получателю. Также форма предоставления информации, совокупность знаков или первичных сигналов, содержащих информацию.
Сигнал:
(в теории информации и связи) — материальный носитель информации, используемый для передачи сообщений в системе связи. Сигнал может генерироваться, но его приём не обязателен, в отличие от сообщения, которое должно быть принято принимающей стороной, иначе оно не является сообщением. Сигналом может быть любой физический процесс, параметры которого изменяются в соответствии с передаваемым сообщением.
Виды сигналов:
В зависимости от функции, описывающей параметры сигнала, выделяют аналоговые (непрерывные, описываемые непрерывной функцией), дискретные(описываемые функцией отсчётов, взятых в определённые моменты времени), квантованные(по уровню) и цифровые сигналы.( дискретные сигналы, квантованные по уровню)
дискретизация сигналов: Преобразование непрерывного информационного множества аналоговых сигналов в дискретное множество. Дискретизация аналогового сигнала состоит в том, что сигнал представляется в виде последовательности значений, взятых в дискретные моменты времени. Эти значения называются отсчётами. Δt называется интервалом дискретизации.
параметры сигнала: Основными параметрами сигналов являются длительность сигнала , динамический диапазон и ширина спектра .
Всякий сигнал, рассматриваемый как временной процесс, имеет начало и конец. Поэтому длительность сигнала является естественным его параметром, определяющим интервал времени, в пределах которого сигнал существует. Динамический диапазон – это отношение наибольшей мгновенной мощности сигнала к той наименьшей мощности , которая необходима для обеспечения заданного качества передачи. Он выражается в децибелах [дБ]. Ширина спектра – этот параметр дает представление о скорости изменения сигнала внутри интервала его существования.
сигнал называется дискретным:
Сигнал называется дискретным, если он может принимать лишь конечное число значений. Обычно сигналы, передаваемые через дискретные каналы, имеют два или три значения. Использование сигналов с тремя значениями обеспечивает синхронизацию передачи.
дискретным сообщением:
Когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов -дискретным сообщением. Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью(Дискретное сообщение — это любой набор символов, который формируется Источником (им может быть, например, человек). От Источника сообщение переходит к Передатчику, который преобразует его к виду, который уже можно передавать по Каналу связи.)
непрерывная функция от времени:
Аналоговые сигналы описываются непрерывными функциями времени, поэтому аналоговый сигнал иногда называют непрерывным сигналом. Непрерывная функция — функция без «скачков», то есть такая, у которой малые изменения аргумента приводят к малым изменениям значения функции.
Непрерывное сообщение можно преобразовать в дискретное: (такая процедура называется дискретизацией). Из бесконечного множества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область определения функции разбивается на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке. В итоге получим конечное множество чисел. Таким образом, любое непрерывное сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.
Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.
Информация — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. Данными называется информация, представленная в удобном для обработки виде. Данные могут быть представлены в виде текста, графики, аудио-визуального ряда. Представление данных называется языком информатики, представляющим собой совокупность символов, соглашений и правил, используемых для общения, отображения, передачи информации в электронном виде.
Свойства информации:
Объективность информации. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании человека, информация может искажаться (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта, и, таким образом, перестать быть объективной.
Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной.
Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.
Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.
Меры и единицы количества и объёма информации
Единицей количества информации является бит.
Бит - это такое количество информации, при получении которого неопределенность уменьшается в два раза.
Для двоичных сообщений в качестве такой числовой меры используется количество бит в сообщении. Это количество называют информационным объемом сообщения. Биты и байты используются также для измерения "емкости", размера памяти и для измерения скорости передачи двоичных сообщений. Скорость передачи измеряется количеством передаваемых бит в секунду Наряду с битами и байтами для измерения количества информации в двоичных сообщениях используются и более крупные единицы (более удобные для измерения больших объемов информации)
Вероятностный подход к количественному определению информации:
Наиболее известным и широко применяемым на практике является вероятностный подход к измерению информации. На основе этого подхода разработан обширный раздел количественной теории информации, называемый также по имени его основоположника, как "теория информации Шеннона". Главной отличительной особенностью вероятностного подхода от комбинаторного является тот факт, что он основан на вероятностных допущениях относительно пребывания какой-либо системы в различных состояниях. При этом общее число элементов (микросостояний, событий) системы не учитывается. За количество информации здесь принимается снятая неопределенность выбора из множества возможностей, имеющих, в общем случае, различную вероятность.
Основополагающая роль в вероятностном подходе принадлежит энтропии множества вероятностей, формула которой была получена в 1948 году американским исследователем К. Шенноном.
Объемный подход. Измерение информации в технике (информация как сообщения в форме знаков или сигналов, хранимые, передаваемые и обрабатываемые с помощью технических устройств).
В технике, где информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, сигналов, часто используют простой способ определения количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, то есть связан только с длиной сообщения и не учитывает его содержания.
Длина сообщения зависит от числа знаков, употребляемых для записи сообщения
Аппаратная организация эвм
Архитектура фон Неймана — широко известный принцип совместного хранения программ и данных в памяти компьютера.Вычислительные системы такого рода часто обозначают термином «машина фон Неймана», однако соответствие этих понятий не всегда однозначно. В общем случае, когда говорят об архитектуре фон Неймана, подразумевают физическое отделение процессорного модуля от устройств хранения программ и данных. В 1946 году трое учёных — Артур Бёркс (англ.), Герман Голдстайн и Джон фон Нейман — опубликовали статью «Предварительное рассмотрение логического конструирования электронного вычислительного устройства». В статье обосновывалось использование двоичной системы для представления данных в ЭВМ (преимущественно для технической реализации, простота выполнения арифметических и логических операций — до этого машины хранили данные в десятичном виде), выдвигалась идея использования общей памяти для программы и данных. Имя фон Неймана было достаточно широко известно в науке того времени, что отодвинуло на второй план его соавторов, и данные идеи получили название «принципы фон Неймана».