
- •Содержание
- •Введение
- •Рабочая учебная программа дисциплины
- •1.1. Цели и задачи дисциплины
- •1.2. Структура и объем дисциплины
- •1.3. Содержание дисциплины Распределение фонда времени по темам и видам занятий
- •1.4. Требования к уровню освоения дисциплины и формы текущего и промежуточного контроля
- •Перечень вопросов для подготовки к экзамену по дисциплине «Информатика»
- •1 Семестр
- •2 Семестр
- •1.5. Содержание индивидуальной работы студента (под руководством преподавателя)
- •2. Учебно-методическое пособие
- •2.1. Конспект лекций
- •Тема 1. Понятие информации. Общая характеристика процессов создания, сбора, передачи, обработки, накопления и хранения информации средствами вычислительной техники.
- •1.1. Сообщения, данные, сигнал, атрибутивные свойства информации, показатели качества информации, формы представления информации. Системы передачи информации.
- •1.2 Меры и единицы представления, измерения и хранения информации
- •Синтаксическая мера информации
- •Семантическая мера информации
- •Прагматическая мера информации
- •Единицы измерения информации.
- •1.3 Системы счисления
- •Формы представления чисел
- •Двоичная система счисления
- •Правила выполнения простейших арифметических действий.
- •1.4. Основные понятия алгебры логики. Логические основы эвм.
- •Тема 2. Технические средства реализации информационных процессов
- •2.1. История развития эвм. Понятие и основные виды архитектуры эвм
- •2.2. Состав и назначение основных элементов персонального компьютера. Центральный процессор. Системные шины и слоты расширения
- •2.3. Запоминающие устройства: классификация, принцип работы, основные характеристики
- •2.4. Устройства ввода/вывода данных, их разновидности и основные характеристики
- •Тема 3. Программные средства реализации информационных процессов. Создание текстовых документов и электронных таблиц
- •3.1. Классификация программного обеспечения. Виды программного обеспечения и их характеристики.
- •3.2. Системное программное обеспечение.
- •3.3. Прикладное программное обеспечение. Его классификация и область применения.
- •4.2. Информационная модель объекта
- •Тема 5. Алгоритмизация и программирование. Языки программирования высокого уровня. Программное обеспечение и технологии программирования
- •5.1. Алгоритм и его свойства. Структура алгоритма.
- •5.2. Эволюция и классификация языков программирования
- •5.3 Трансляция, компиляция и интерпретация
- •Тема 6. Базы данных.
- •6.1. Основные понятия о базах данных.
- •Виды моделей данных
- •Классификация баз данных
- •Реляционные базы данных
- •Основные понятия реляционных баз данных
- •Основные операции с данными в субд.
- •6.2. Назначение и основы использования систем искусственного интеллекта. Базы знаний. Экспертные системы.
- •Классификация экспертных систем по решаемой задаче
- •Базовые сетевые топологии
- •7.1. Глобальные сети эвм.
- •История
- •Адресация в Интернете
- •7.3. Защита информации в локальных и глобальных компьютерных сетях. Электронная подпись.
- •Вредоносные программы
- •Методы преобразования информации
- •2.2. Содержание практических занятий
- •Блок-схема алгоритма»
- •Блок-схема алгоритма»
- •2.3. Лабораторный практикум по дисциплине
- •Содержание лабораторных занятий лабораторная работа №1. « кодирование информации»
- •Кодирование символьной информации
- •Кодирование графических изображений
- •Лабораторная работа №2. «информация и энтропия»
- •Лабораторная работа №3. «позиционные системы счисления»
- •Краткие теоретические сведения:
- •Формы представления чисел
- •Двоичная система счисления
- •Восьмеричная и шестнадцатеричная системы счисления
- •Взаимное преобразование двоичных, восьмеричных и шестнадцатеричных чисел
- •Двоично-десятичная система счисления
- •Лабораторная работа №4. «Логические основы функционированиЯ эвм»
- •Логические элементы
- •Лабораторная работа №5. «основные приемы работы в microsoft word»
- •Интересное предложение
- •Образец формул
- •Лабораторная работа №6. «Технология создания электронных таблиц в ms Excel»
- •Функции ms Excel
- •Счётесли
- •Задания для выполнения:
- •Лабораторная работа №7. «Основы работы с MathCad»
- •Лабораторная работа №8. «проектирование алгоритмов. Блок-схема алгоритма»
- •Лабораторная работа 9. «Знакомство с редактором Turbo Pascal»
- •Структура программы.
- •Задание 4. Вычислить значение функции
- •Лабораторная работа 9. «Операторы циклов»
- •Лабораторная работа №11. «основы обработки реляционных баз данных средствами
- •1. 2. Задания для самостоятельной работы
- •Лабораторная работа №12. «Основы работы с языком html»
- •Лабораторная работа №13. «информационная безопасность. Основы криптографии»
- •Тулыио целзио тсдизло
- •Современные алгоритмы шифрования
- •Требования к оформлению и защите лабораторных работ
- •3. Учебно-методическое обеспечение дисциплины
- •3.1. Перечень основной и дополнительной литературы
- •3.2 Методические рекомендации для преподавателя
- •3.3. Методические указания студентам по изучению дисциплины
- •3.4. Методические указания и задания для выполнения курсовой работы
- •Варианты заданий для выполнения курсовой работы
- •3.5.Методические указания и темы для выполнения контрольных работ
- •3.6. Материально-техническое и программное обеспечение дисциплины
- •3.7. Программное обеспечение использования современных информационно-коммуникативных технологий
- •Поволжский государственный университет сервиса
- •Поволжский государственный университет сервиса
- •Приложение 1
- •Integer - целые из интервала [ -32768; 32767 ];
- •С т а н д а р т н ы е математические ф у н к ц и и
- •Формулы возведения в степень
- •Запись математических выражений
1.2 Меры и единицы представления, измерения и хранения информации
Информацией называют сведения о тех или иных объектах, явлениях или процессах в окружающей среде. Любая форма человеческой деятельности связана с передачей и обработкой информации. Она необходима для правильного управления окружающей действительностью, достижения поставленных целей и в конечном счете - для существования человека. Любая система: социально-экономическая, техническая, или система в живой природе действует в постоянной взаимосвязи с внешней средой – другими системами более высокого и более низкого уровней. Взаимосвязь осуществляется посредством информации, которая передает как команды управления, так и сведения, необходимые для принятия правильных решений. Понятие информации как важнейшего элемента системы, охватывающего все стороны ее жизнедеятельности можно считать универсальным, применимым к любым системам.
Единого научного мнения о количественном смысле понятия "информация" не существует. Разные научные направления дают различные определения исходя из тех объектов и явлений, которые они изучают. Некоторые из них считают, что информация может быть выражена количественно, давая определения количества и объема информации (меры информации), другие ограничиваются качественными толкованиями.
рис.
1.2. Классификация меры информации
Синтаксическая мера информации
Синтаксическая мера информации используется для количественного выражения обезличенной информации, не выражающей смыслового отношения к объектам.
Объем данных Vд в сообщении измеряется количеством символов в нем. Обычно для указания объема данных считают количество двоичных символов. Двоичный символ может принимать только два различных значения: 1 и 0 (эквивалентно значениям "да" и "нет"). Двоичный символ носит название бит (от слов binary digit - двоичная цифра). Распространенность двоичной единицы измерения объема объясняется двоичной системой записи чисел, на которой основаны современные компьютеры. Традиционно применяется также байт (byte), равный 8 битам.
Предположим, получатель информации (наблюдатель) дважды принял одно и то же сообщение. Он получил двойной объем данных, но получил ли он двойное количество информации? Интуиция подсказывает, что нет - вторая копия не содержала новых сведений. Информацию, содержащуюся в сообщении, можно трактовать в аспекте того, насколько она была ранее неизвестна и, следовательно, является новой или неожиданной.
Количество информации I определяется через понятие неопределенности состояния (энтропию). Приобретение информации сопровождается уменьшением неопределенности, поэтому количество информации можно измерять количеством исчезнувшей неопределенности.
Пусть в сообщении наблюдателем получены сведения о некоторой части реальности (системе). До принятия сообщения получатель имел некоторые предварительные (априорные) сведения о системе. Мерой его неосведомленности о системе является функция H(), которая в то же время служит и мерой неопределенности состояния системы.
После получения сообщения получатель приобрел в нем информацию I(), уменьшившую его неосведомленность (неопределенность состояния системы) так, что она стала равна H(). Тогда количество информации I() о системе, полученной в сообщении , определится как I() = H() - H() .
Таким образом, количество информации в сообщении измеряется изменением (уменьшением) неопределенности состояния системы после получения сообщения.
Если конечная неопределенность H()обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации I() = H(). Иными словами, энтропия системы H() может рассматриваться как мера информации.
Энтропия системы H(), имеющей N возможных состояний, согласно формуле Шеннона равна
,
где Pi - вероятность того, что система находится в i-м состоянии.
Для случая, когда все состояния системы
равновероятны, т.е. их вероятности равны
,
энтропия определяется соотношением
.
Часто информация кодируется числовыми кодами в той или иной системе счисления. Одно и то же количество цифр (символов) в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения
N = mn ,
где N - число всевозможных отображаемых состояний;
m - основание системы счисления (разнообразие символов, применяемых в алфавите);
n - число символов в сообщении.
Приведем пример. По каналу связи передается n - символьное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N = mn , то при равной вероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет равно I = log N = n log m.
Эта формула известна как формула Хартли. Если в качестве основания логарифма принять m, то I = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных I = Vд , полученных по каналу связи. Для неравновероятных состояний системы всегда I < Vд = n.
Наиболее часто логарифм берут по основанию 2. В этом случае количество информации измеряют в битах.
Коэффициент информативности сообщения определяется отношением количества информации к объему данных, т.е.
, причем 0 < Y < 1 .
C увеличением Y уменьшаются затраты на обработку информации. Поэтому обычно стремятся к повышению информативности.