Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
рабочая тетрадь по информатике и ИКТ.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
561.15 Кб
Скачать

Ульяновский техникум питания и торговли

Рабочая тетрадь

по дисциплине «Информатика и ИКТ»

Ульяновск, 2013

О сновные подходы к определению понятия

«информация»

  • в быту информацией называют любые сведения об окружающем мире и протекающих в нем процессах, воспринимаемые и передаваемые человеком или специальными устройствами.

  • в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

  • в кибернетике (науке о системах управлении в живых, неживых и искусственных системах) под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы.

  • в философии - отраженное многообразие, возникающее в результате взаимодействия объектов.

в информатике - продукт взаимодействия данных и методов их обработки, адекватный решаемой задаче.

Существование множества определений информации обусловлено сложностью рассматриваемого явления.

Атрибутивная концепция рассматривает информацию как свойство (атрибут) материи

Функциональная концепция: информация появилась лишь с возникновением жизни, т.к. связана с функционированием сложных самоорганизующихся систем, к которым относятся живые организмы и человеческое общество.

Антропоцентрическая концепция: информация существует лишь в человеческом сознании, в человеческом восприятии. Понятие «информация» в повседневной жизни чаще всего мы рассматриваем именно в антропоцентрическом контексте. Мы воспринимаем информацию как сообщения, которыми обмениваются люди.

Носители информации

Носитель информации - среда для записи и хранения информации:

  • любой материальный объект

  • волны различной природы (акустическая - звук, электромагнитная - телевидение, гравитационная волны)

  • вещество в различном состоянии (жидкое, например, концентрация молекул; газ, в этом случае информацией могут являться его температура и давление).

  • компьютерные носители (магнитные диски, лазерные диски)

Сигнал (от латинского signum - знак) представляет собой любой процесс, несущий информацию.

Сигнал называется непрерывным (аналоговым), если его параметр в заданных пределах

может принимать любые промежуточные значения.

Сигнал называется дискретным (разделенным во времени), если его параметр в заданных

пределах может принимать отдельные фиксированные значения.

Виды информации

По способам восприятия

по форме представления

по общественному значению

Визуальная (органы зрения)

Аудиальная (органы слуха)

Тактильная (органы осязания)

Обонятельная (органы обоняния)

Вкусовая (вкусовые рецепторы)

90% информации человек получает при помощи органов зрения, примерно 9% — посредством органов слуха и только 1% — при помощи остальных органов чувств

числовая

текстовая

графическая

звуковая

видеоинформация

Личная (знания, опыт, интуиция, умения, эмоции и т.д.)

Общественная или массовая (общественно – политическая, обыденная, эстетическая и т.д.)

Специальная (научная, производственная, управленческая, техническая и т.д.)

Свойства информации

Объективность – независимость от чьего-либо мнения.

Достоверность – отражение истинного положения дел.

Полнота – достаточность для понимания и принятия решения.

Актуальность – важность, существенность для настоящего момента.

Полезность – практическая ценность

Понятность информация выражена на языке, доступном для получателя.

Упражнение 1. Определить к каким видам носителей относятся: стены пещер, температура, узелки на веревках, папирус, книга, кинопленка, магнитная волна, давление.

Измерение информации

1. Количество информации как мера уменьшения неопределенности.

События, не имеющие преимуществ друг перед другом, называются равновероятностными.

Такое количество информации, которое находится в сообщении о том, что произошло одно событие из двух равновероятностных, принято за единицу измерения информации и равно 1 биту.

Основная формула информатики:

N =2I

где       N - количество равновероятных событий

            I – количество информации.

Упражнения

1. Какое количество информации получит второй игрок после первого хода первого игрока в игре «Крестики - нолики» на поле 4х4?

2. Каково было количество возможных событий, если после реализации одного из них мы получили количество информации равное 3 бит? 7 бит?

3. На остановке «Культтовары» останавливаются автобусы под номерами 2,4, 8 и 16. Сколько битов информации несет сообщение, что к остановке подошел автобус №8?

2. Алфавитный подход к измерению информации

Множество используемых в тексте символов называется алфавитом. У алфавита есть размер (количество используемых символов), который называется мощностью алфавита (N). Количество информации, содержащееся в символьном сообщении равно количеству информации, которое несет один символ (I), умноженному на число символов в сообщении (К).

Информационный объем равен = К* I

Правило для измерения информации с точки зрения алфавитного подхода:

  1. Найти мощность алфавита - N

  2. Найти информационный объем одного символа N =2I (I = log2 N)

  3. Найти количество символов в сообщении - К

  4. Найти информационный объем сообщения К* I.

Упражнения

1. Найти объем текста, записанного на языке, алфавит которого содержит 128 символов и 2000 символов в сообщении.

2. Вычислите количество информации в слове «комбинаторика», если допустить, что в русском алфавите содержится 32 символа.

3. Книги на русском и на китайском языках содержат одинаковое значение знаков. В какой книге содержится большее количество информации, если не рассматривать их содержание?

3. Единицы измерения информации

1 байт

= 0 или 1

1 байт

= 8 бит

1 Кбайт (килобайт)

= 210 байт = 1024 байт

1 Мбайт (мегабайт)

= 210 Кбайт = 1024 Кбайт

1 Гбайт (гигабайт)

= 210 Мбайт = 1024 Мбайт

1 Тбайт (терабайт)

= 210 Гбайт = 1024 Гбайт

Домашнее задание

1. Шарик находится в одном из 64 ящичков. Сколько единиц информации будет содержать сообщение о том, где находится шарик?

2. Мощность некоторого алфавита равна 64 символа. Каким будет объем сообщения, состоящего из 100 символов?

Кодирование информации

Кодирование - процесс представления информации, удобный для ее хранения и передачи. Для кодирования одной и той же информации могут быть использованы различные способы. В компьютере используется двоичное кодирование информации (вся информация представляется с помощью 0 и 1). Теоретической основой кодирования чисел является теория систем счисления. Система счисления — это способ записи чисел и правила выполнения операций над ними.

Системы счисления делятся на позиционные и непозиционные. Позиционной называется система счисления, в которой количественный эквивалент цифры зависит от ее положения в записи числа; в противном случае система является непозиционной.

Непозиционные

Позиционные

Для производства компьютеров значительное удобство представляет двоичная система. Для инженеров существенно проще создать электронные элементы с двумя устойчивыми состояниями, соответствующими базовым цифрам системы 0 и 1.