Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
704817.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
315.17 Кб
Скачать

Оглавление

  1. Информационное общество. Информационная культура. Информационные революции. Информационные технологии. Информация. Способы представления информации. Свойства информации. Алфавит. Естественные и формальные языки. Данные. Операции с данными. Информационные процессы.

Главный ресурс информация. Информационная культура- знания и умение человека в области информационных технологий. Критерии развитости информационного общества: наличие компьютера, уровень развития компьютерных сетей, количество компов на душу населения, использование компа в своей деятельности. Первая информационная революция- письменность. Вторая- создание печатного станка. Третья- открытие электричества. Четвертая- ЭВМ. Человек воспринимает окружающий мир с помощью органов чувств- зрение, слух, обоняние, осязание, вкус. Человек хранит информацию- запоминает, обрабатывает- принимает решения, передает или получает информацию- общается. Компьютер моделирует чувства человека. Для обмена информации существуют языки: естественные , формальные (алфавит состоит из условных символов). Алфавит это набор символов, знаков. Информация от латинского – сведения, разъяснения, осведомление. Термин информация используется в различных науках и связан с различными системами понятий. Все виды энерогообмена сопровождаются появлением сигналов:

тела поля сигналы. Данные- это сигналы, зарегистрированные на материальных носителях. Тела поля сигналы данные →методы. Информация это продукт взаимодействия данных и адекватных им методов. Свойства информации: двойственность, полнота, достоверность, адекватность, доступность, актуальность. Информационные процессы: сбор данных, передача данных, обработка данных, хранение данных.

  1. Количество информации. Единицы измерения количества информации. Вероятностный и количественный подход к определению количества информации.

Количество информации – числовая характеристика, которая показывает насколько уменьшилась наша неопределенность. Информация – это знания. Процесс познания можно изобразить в виде круга знаний

знание

знание

Незнание

Чем больше знание, тем больше и незнание- это парадокс. Количество информации это числовая характеристика, отражает степень неопределенности, которая исчезает после получения информации. Единицы измерения количества информации: Бит ( от анг. двоичная система):

1 байт- 8 бит, 1 кбайт= 210байта – 1024 байта , 1 Мбайт= 210 кБайта- 1024 кБайта, 1Гбайт- 210 мБайта- 1024 Мбайта. Двоичный (машинный язык) – алфавит который состоит из 0 и 1. Однодвоичный разряд – количество информации в 1 бите. Вероятностный подход к определению количества информации N(количество возможных событий) =2I ( количество информации)подходит только для равновероятных событий., следствие из формулы Шеннона. Количество информации в случае различных вероятностей событий предложил Шеннон в 1948 г.

Событие х1 произойдет с вероятностью p1, событие х2 произойдет с вероятностью p2 и т.д. pI-вероятность отдельных событий I=log2N Алфавитный подход к определению количества информации. При хранении передаче, обработке информации с помощью техсредств информации последовательность символов. Набор символов знаковой системы- различные равновероятные состояния. Количество информации в сообщении =количество информации в одном символе+ количество символов в сообщении. У каждого символа есть свой вес. ( в данном случае в битах) 2I(инфрмационный вес)=N (мощность алфавита). Например, определить объем текста, состоящего из 2000 символов. Алфавит из 128 символов. N= 128 128=2I таким образом I=7 , это количество информации, которое имеет один символ данного алфавита. Тогда объем сообщения равен 7*2000=14000 бит.