
- •Содержание курса
- •Раздел 1. Базовые понятия информатики.
- •Раздел 2. Техническое и программное обеспечение.
- •Раздел 3. Средства обработки информации.
- •Раздел 4. Телекоммуникационные технологии.
- •Раздел 5. Базовые понятия алгоритмизации и программирования.
- •Раздел 6. Основы программирования.
- •Раздел 7. Прикладное программирование.
- •Раздел 1. Базовые понятия информатики
- •Тема 1. Информация как основной объект изучения информатики
- •Тема 2. Информационные процессы
- •Тема 3. Социально-экономические предпосылки развития информационно-вычислительной техники (ивт).
- •Раздел 2. Техническое и программное обеспечение.
- •Тема 4. Арифметические основы эвм
- •Тема 5. Физические основы эвм.
- •Тема 6. Программное обеспечение эвм
- •Тема 7. Специальное и прикладное программное обеспечение пэвм.
- •Раздел 3. Средства обработки информации.
- •Тема 8. Технологии обработки текстовой информации.
- •Тема 9. Технологии обработки графической информации
- •Тема 10. Технологии обработки числовой информации.
- •Тема 11. Организация информационных систем Понятие базы данных
- •Тема 12. Технологии мультимедиа.
- •Раздел 4. Телекоммуникационные технологии.
- •Тема 13. Сетевые технологии
- •Раздел 5. Базовые понятия алгоритмизации и программирования.
- •Тема 14. Алгоритмизация в профессиональной деятельности экономиста
- •Тема 15. Алгоритмы и исполнители
- •Раздел 6. Основы программирования.
- •Тема 16. Основные алгоритмические структуры обработки экономической информации
- •Тема 17. Организация и использование подпрограмм
- •Тема 18. Алгоритмизация процесса обработки табличной информации. Работа с числовыми массивами.
- •Тема 19. Алгоритмизация обработки строковой информации. Обработка записей.
- •Тема 20. Алгоритмизация обработки графической информации
Раздел 1. Базовые понятия информатики
Тема 1. Информация как основной объект изучения информатики
INFRMATIA (лат) – разъяснение, изложение. В быту под информацией понимаются сведения об окружающем нас мире и протекающих в нем процессах, воспринимаемых человеком или специальными устройствами.
В технике информация – это последовательность сигналов и знаков, которая может храниться и передаваться с помощью технических устройств.
В теории под информацией понимают не всеобщие сведения, а лишь те, которые уменьшают (снижают) неопределенность, существующую до их получения.
В кибернетике (теория управления) под информацией понимаются те сведения, которые используются в процессе управления с целью сохранения и развития управляемой системы.
В семантической теории под информацией понимаются сообщения, обладающие новизной.
В документалистике – информация – все, что так или иначе зафиксировано в форме знаков и сигналов в видел документов.
В наиболее общем виде информация – отраженное разнообразие, отражения внешнего мира с помощью знаков и сигналов в процессе взаимодействия.
Информация необходима человеку не вообще, а конкретно и в нужное время для ориентирования в окружающем мире и принятия решений о своих дальнейших действиях.
Информация всегда связана с материальным носителем.
Носитель информации – это среда его зон и хранения.
Носителем может быть:
– любой материальный объект;
– волны различной природы;
– вещество в различном состоянии.
Информация записывается на носителях в виде сигналов или знаков.
Сигнал – это способ передачи информации. Может быть непрерывным и дискретным:
– аналоговый (непрерывный) сигнал – непрерывно применяющийся во времени.
– дискретный сигнал – может принимать конечное число значений в конечный отрезок времени.
Всеобщий аналоговый сигнал может быть представлен в форме дискретного (последовательного ряда дискретных значений)
Простейший дискретный сигнал имеет два различных друг от друга состояния.
Сигналы передаваемые в электрической форме, обладают следующими достоинствами:
– не требуют движущихся динамических частей для передачи;
– скорость передачи близка к максимально возможной (к скорости света);
– легко обрабатывается, легко сравнивается, преобразовывается с помощью электрических устройств.
Свойства информации:
Объективность ↔ субъективность
Достоверность ↔ ложность
Полнота ↔ неполнота (дефицит)
Актуальность ↔ устаревшая или преждевременная
Ценность (полезность) ↔ бесполезность
Понятность ↔ непонятность
Информация полная, если ее достаточно для понимания и принятия решения.
Полезность определяется тем спектром задач, которые могут решить с ее помощью.
Социальная информация имеет дополнительные свойства:
– языковая природа;
– семантический смысловой характер;
– с течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка, обобщение (аккумулирование);
– старение информации (уменьшение ее ценности с течением времени за счет появления новой информации, которая уточняет, ранее полученную);
– логичность, компактность и удобная форма представления социальной информации облегчает процесс ее восприятия и усвоения.
Кодирование информации
Код – правило для преобразования одного набора знаков в другой.
Знак – элемент конечного множества отличных друг от друга элементов.
Знак вместе с его смыслом называется символом.
Набор знаков, в котором определен порядок, называется алфавитом.
Алфавит, состоящий из 2-х знаков, называется двоичным.
Кодирование – это процесс преобразования одного набора знаков в другой по правилам определенного языка.
Языки кодирования:
– разговорные;
– мимики и жестов;
– рисунков;
– чертежей;
– науки;
– искусства;
– специальные (азбука Морзе, рецепты, эсперанто);
– программирования и др.
Длиной кода называется количество символов, которое используется для кодирования отдельных «слов» сообщения.
При использовании двоичного алфавита возможно применение, кода постоянной (фиксированной) длины. Это необходимо для однозначного распознавания передаваемых символов, слов и т.д.
Единицы измерения информации
С точки зрения как новизны, измерить количество информации, передаваемой в какое-либо сообщение, невозможно.
В технике за единицу информации принимается 1 бит (может иметь значение 0 или 1).
1б = 8 бит
1 кб = 210 б = 1024 б
1 Мб = 210 кб
1 Гб = 210 кб
1 Тб = 210 Гб
В теории информации единица информации в 1 бит несет сообщение, которое уменьшает неопределенность, существующую до его появления, ровно в 2 раза.
Фактически сообщение несет столько бит информации, сколько вопросов можно задать (придумать ответ «дарит»), чтобы узнать все, о чем говорится в сообщении.
Р. Хартли G = log2N, где N – количество равновероятных исходов
К. Шеннон L = - log2p, где р – вероятность появления
Н2 = - log2p2
Основные информационные процессы сбор
Методы поиска информации:
– наблюдение непосредственное;
– общение со специалистами;
– изучение литературы;
– СМИ;
– работа с архивами;
– запрос к информационным системам, БД и т.д.
Методы отбора зависят от критерия.
Хранение – зависит от носителя.
Передача информации
Канал связи – совокупность технических университетов, обеспечивающих передачу сигнала от источника к получателю. Характеризуется пропускной способностью (определяется максимальным количеством символов, передаваемых в отсутствие помех, зависит от осуществляющихся свойств канала).
Делятся на:
– симплексные;
– дуплексные
По каналу могут одновременно передаваться несколько сообщений, каждое из них отделяется посредством специальных фильтров (напр. по частоте).
Для повышения помехозащищенности канала используют специальные методы передачи, уменьшающие влияние шумов.
(Пример: вводят лишние избыточные символы, которые не несут собственно содержание, но используются для контроля правильности сообщения при его получения).