Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
инофрматика 1-4.docx
Скачиваний:
1
Добавлен:
01.03.2025
Размер:
59.88 Кб
Скачать

1.Понятие информация .Данные

Информация -Сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы. Применительно к обработке данных на компьютерах — произвольная последовательность символов, несущих смысловую нагрузку.

Можно выделить следующие подходы к определению информации:

традиционный (обыденный) - используется в информатике: Информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

вероятностный  - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Для человека: Информация – это знания, которые он получает из различных источников с помощью органов чувств

Классификация информации:По способам восприятия - Визуальная, Аудиальная, Тактильная, Обонятельная, вкусовая; 

Основные свойства информации:

Объективность – не зависит от чего-либо мнения

Достоверность – отражает истинное положение дел

Полнота – достаточна для понимания и принятия решения

Актуальность – важна и существенна для настоящего времени

Ценность (полезность, значимость)обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения

Понятность (ясность)– выражена на языке, доступном получателю

 

Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.

Д ля обеспечения информационного процесса необходим источник информации, канал связи и потребитель информации.Источник передает (отправляет) информацию, а приемник её получает (воспринимает). Передаваемая информация добивается от источника до приемника с помощью сигнала (кода). Изменение сигнала позволяет получить информацию Данные - это совокупность сведений, зафиксированных на определенном носителе в форме, пригодной для постоянного хранения, передачи и обработки. Преобразование и обработка данных позволяет получить информацию. Данные

Типы данных

Традиционно выделяют два типа данных — двоичные (бинарные) и текстовые.

Двоичные данные обрабатываются только специализированным программным обеспечением, знающим их структуру, все остальные программы передают данные без изменений.

Текстовые данные воспринимаются передающими системами как текст, записанный на каком-либо языке. Для них может осуществляться перекодировка (из кодировки отправляющей системы в кодировку принимающей), заменяться символы переноса строки, изменяться максимальная длина строки, изменяться количество пробелов в тексте.

2.Показатели качества и количества информации единицы измерения в инфроматике

Понятие количества информации.

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией.

Пример: Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность, и неопределенность исчезает (становится равной нулю).

Приведенный пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «да-нет». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ. bit — сокращенное от binary digit— двоичная единица). Бит — минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.

Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:

i=log2N,

где i—количество информации в битах; N — число возможных состояний.

Ту же формулу можно представить иначе:

N=2^i.

Группа из 8 битов информации называется байтом. Если бит — минимальная единица информации, то байт ее основная единица. Существуют производные единицы информации: килобайт (кбайт, кб), мегабайт (Мбайт, Мб) и гигабайт (Гбайт, Гб). 1 кб = 1024 байта = 210 (1024) байтов. 1 Мб = 1024 кбайта = 220 (1024 х 1024) байтов. 1 Гб = 1024 Мбайта = 230 (1024 х 1024 х 1024) байтов. Эти единицы чаще всего используют для указания объема памяти ЭВМ.

Это единицы измерения в инфроматике и есть=)

1 Килобайт =

210 байт =

1024 байт

1 Мегабайт =

210 Килобайт =

1024 Килобайт

1 Гигабайт =

210 Мегабайт =

1024 Мегабайт

1 Терабайт =

210 Гигабайт =

1024 Гигабайт