Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
86
Добавлен:
10.05.2015
Размер:
1.62 Mб
Скачать

Тема 1. Основные понятия информатики

План

1.1. Информатика, ее структура, задачи и функции

1.2. Понятие информации

1.3. Свойства информации

1.4. Виды информации

1.5. Экономическая информация

1.6. Классификация и кодирование информации

1.7. Общая характеристика процессов сбора, передачи, обработки и накопления информации

1.1. Информатика, ее структура, задачи и функции

Информационное общество - общество, в котором большинство работников занято производством, хранением, переработкой и реализацией информации, особенно высшей ее формы - знаний.

Материальной и технологической базой информационного общества станут различного рода системы на базе компьютерной техники и компьютерных сетей, информационной технологии, телекоммуникационной связи.

Информационная технология (ИТ) - процесс, использующий совокупность средств и методов сбора, обработки и передачи данных (первичной информации) для получения информации нового качества о состоянии объекта, процесса или явления.

Информационная культурасовокупность знаний, умений и навыков, связанных с пониманием закономерностей информационных процессов в природе, обществе и технике.

Информатика - это наука о структуре, свойствах, закономерностях и методах создания, хранения, поиска, преобразования, передачи и использования информации1.

В 1978 году международный научный конгресс официально закрепил за понятием "информатика" области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации — массового внедрения компьютерной техники во все области жизни людей.

Информатику в узком смысле можно представить как состоящую из трех взаимосвязанных частей - технических средств (hardware), программных средств (software), алгоритмических средств (brainware).

Рис. 1.1. Структура информатики

Предмет информатики составляют следующие понятия:

  • аппаратное обеспечение средств вычислительной техники;

  • программное обеспечение средств вычислительной техники;

  • средства взаимодействия аппаратного и программного обеспечения;

  • средства взаимодействия человека с аппаратными и программными средствами.

Основной задачей информатики является систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники.

1.2. Понятие информации

Информация2это мера устранения неопределенности в отношении исхода интересующего нас события.

Данные3это материальные объекты произвольной формы, выступающие в качестве средства представления информации.

Данные служат исходным «сырьем» для получения информации. Одни и те же данные могут нести различную информацию в зависимости от способа воспроизведения данных (рис. 1.2.) и для различных потребителей.

Рис. 1.2. Одинаковые данные несут разную информацию в результате применения разных методов форматирования

Информация от источника к получателю передается в виде сообщения посредством канала связи между ними.

Сообщение — это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.

Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

 

канал связи

 

ИСТОЧНИК

сообщение

-----------

ПРИЁМНИК

Рис. 1.3. Схема передачи информации

Сигнал – изменяющийся во времени физический процесс.

Если параметр4сигнала принимает последовательное во времени конечное число значений, сигнал называетсядискретным, а соответствующее сообщение – дискретным сообщением.

Если параметр сигнала непрерывная функция от времени, то сигнал – непрерывный, а соответствующая информация называется непрерывной.

При определении количества информациисуществуют два основных подхода: вероятностный и «объемный».

В вероятностном подходе, предложенном Клодом Шенноном, количество информации совпадает с энтропией опыта.

В «объемном» подходе, связанном с появлением ЭВМ, количество информации измеряется в битах(BInarydigiT) – минимальных информационных единицах. Более крупные единицы информации – байт (8 бит), Килобайт(210=1024 байт), Мегабайт (210=1024 Кб), Гигабайт (210=1024 Мб), Терабайт (210=1024 Гб), Петабайт (210=1024 Тб).