Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
информатика-2016.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
3.37 Mб
Скачать

Тема 1. Основные понятия информатики

План

1.1. Информатика, ее структура, задачи и функции

1.2. Место информатики в ряду других фундаментальных наук

1.3. Понятие информации

1.4. Измерение информации: количество, единицы измерения, энтропия

1.5. Свойства информации

1.6. Виды информации

1.7. Требования к информации

1.8. Классификация и кодирование информации

1.9. Общая характеристика процессов сбора, передачи, обработки и накопления информации

1.1. Информатика, ее структура, задачи и функции

Информационное общество – общество, в котором большинство работников занято производством, хранением, переработкой и реализацией информации, особенно высшей ее формы - знаний.

Материальной и технологической базой информационного общества станут различного рода системы на базе компьютерной техники и компьютерных сетей, информационной технологии, телекоммуникационной связи.

Информационная технология (ИТ) – процесс, использующий совокупность средств и методов сбора, обработки и передачи данных (первичной информации) для получения информации нового качества о состоянии объекта, процесса или явления.

Информационная культурасовокупность знаний, умений и навыков, связанных с пониманием закономерностей информационных процессов в природе, обществе и технике.

Информатика – это наука о структуре, свойствах, закономерностях и методах создания, хранения, поиска, преобразования, передачи и использования информации1.

В 1978 году международный научный конгресс официально закрепил за понятием "информатика" области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации – массового внедрения компьютерной техники во все области жизни людей.

Информатику в узком смысле можно представить как состоящую из трех взаимосвязанных частей – технических средств (hardware), программных средств (software), алгоритмических средств (brainware).

Предмет информатики составляют следующие понятия:

  • аппаратное обеспечение средств вычислительной техники;

  • программное обеспечение средств вычислительной техники;

  • средства взаимодействия аппаратного и программного обеспечения;

Рисунок 1.1 - Структура информатики

  • средства взаимодействия человека с аппаратными и программными средствами.

Основной задачей информатики является систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники.

1.2. Место информатики в ряду других фундаментальных наук

Фундаментальная наука – наука, изучающая объективные законы природы и общества, осуществляющая теоретическую систематизацию знаний о действительности.

Связь информатики с другими науками представлена на рисунке 1.2.

Рисунок 1.2 - Связь информатики с другими науками

1.3. Понятие информации

Информация2это мера устранения неопределенности в отношении исхода интересующего нас события.

Данные3это материальные объекты произвольной формы, выступающие в качестве средства представления информации.

Данные служат исходным «сырьем» для получения информации. Одни и те же данные могут нести различную информацию в зависимости от способа воспроизведения данных (рис. 1.3.) и для различных потребителей.

Рисунок 1.3 - Одинаковые данные несут разную информацию в результате применения разных методов форматирования

Информация от источника к получателю передается в виде сообщения посредством канала связи между ними.

Сообщение – это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.

Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением (рис.1.4).

Рисунок 1.4 - Схема передачи информации

Сигнал – изменяющийся во времени физический процесс.

Если параметр4 сигнала принимает последовательное во времени конечное число значений, сигнал называется дискретным, а соответствующее сообщение – дискретным сообщением.

Если параметр сигнала непрерывная функция от времени, то сигнал – непрерывный, а соответствующая информация называется непрерывной.

При определении количества информации существуют два основных подхода: вероятностный и «объемный».

В вероятностном подходе, предложенном Клодом Шенноном, количество информации совпадает с энтропией опыта.

В «объемном» подходе, связанном с появлением ЭВМ, количество информации измеряется в битах (BInary digiT) – минимальных информационных единицах. Более крупные единицы информации – байт, Килобайт, Мегабайт, Гигабайт, Терабайт, Петабайт.