- •1 Предмет информатики. Определения информатики и кибернетики. Место информатики среди других наук. Понятие информации. Определение и свойства. Структура информационных наук.
- •2 История вычислительной техники и информатики
- •3 Основные свойства информации. Объективность и субъективность. Полнота, достоверность, адекватность, доступность, актуальность.
- •4 Формальное определение «Информатика». Кибернетика.
- •5 Понятие о кодировании информации. Количественная мера информации.
- •6 Системы счисления. Двоичная система счисления. Кодирование целых и действительных чисел.
- •7 Кодирование графической и звуковой информации. Растровые и векторные данные.
- •8 Понятие данных. Носители данных и их характеристики. Операции с данными.
- •9 Кодирование текстовых данных. Стандарты. Таблицы кодировки. Проблема национальных алфавитов.
- •11 Персональный компьютер. Базовая аппаратная конфигурация. Количественные характеристики.
- •12 Устройство системного блока пк. Системы, расположенные на материнской плате. Характеристики устройств.
- •13 Методы классификации компьютеров.
- •14 Программное обеспечение. Программная конфигурация. Базовый уровень. Системный уровень. Служебный уровень. Прикладной уровень.
- •15 Классификация прикладных программных средств.
- •16 Классификация служебных программных средств.
- •17 Средства обеспечения компьютерной безопасности.
- •18 Система команд процессора.
- •19 Организация файловой системы.
- •20 Функции операционных систем. Интерфейсы пользователя. Графическая операционная система Windows.
- •21 Классификация языков программирования. Примеры яну и яву, и их характеристика.
- •22 Количество информации при равновероятных состояниях элементов сообщения. Энтропия сообщений.
- •23 Единицы измерения количества информации и энтропии.
- •24 Представление сообщений и определение количества информации и энтропии при разновероятных состояниях элементов.
- •25 Основные свойства энтропии.
- •27 Коэффициент сжатия и избыточность сообщений.
- •29 Семантическая и синтактическая информация. Два основных различных типа информации.
- •31 Основные этапы работы в системе ТеХ.
- •32 ТеХ. Спецсимволы. Команды и их задание.
- •39 ТеХ. Набор матриц.
- •40 ТеХ. Вставка готовых рисунков.
- •41 ТеХ. Создание таблиц.
- •42 Арифметические основы работы эвм. Системы счисления. Выбор системы счисления. Перевод чисел из одной системы счисления в другую.
- •43 Способы представления чисел в эвм с фиксированной и плавающей запятой. Микрооперации сдвига, передача, преобразование.
- •44 Изображение отрицательных чисел в эвм. Прямой код. Дополнительный код.
- •45 Изображение чисел в эвм. Обратный код.
- •46 Понятие алгоритма (Колмогоров, Кнут). Граф алгоритма. Алгоритмы и способы их описания. Этапы решения задач на эвм. Блок-схемы.
- •47 Алгоритмы. Линейная часть алгоритма. Цикл. Ветвлительные алгоритмы. Циклический алгоритм с ветвлением. Внешние и внутренние циклы.
- •48 Гост 19.701-90. Общие положения. Описание схем.
- •1. Общие положения
- •2. Описание схем
- •51 Гост 19.701-90. Символы линий. Специальные символы.
- •3.3. Символы линий
- •3.4. Специальные символы
- •52 Радиотехнические сигналы. Детерминированные и случайные сигналы. Видоимпульсы и радиоимпульсы. Дискретные сигналы.
- •53 Энергия сигналов.
- •54 Основные понятия ортогональных сигналов. Скалярное произведение сигналов.
- •55) Периодические сигналы. Ряды Фурье. Разложение сигналов в ряд-Фурье. Спектр сигнала.
3 Основные свойства информации. Объективность и субъективность. Полнота, достоверность, адекватность, доступность, актуальность.
Свойства информации (с точки зрения бытового подхода к определению информации):
* релевантность -- способность информации соот-ветствовать нуждам (запросам) потребителя;
* полнота -- свойство информации исчерпывающе (для данного потребителя) характеризовать отображае-мый объект или процесс;
* своевременность -- способность информации со-ответствовать нуждам потребителя в нужный момент времени;
* достоверность -- свойство информации не иметь скрытых ошибок. Достоверная информация со време-нем может стать недостоверной, если устареет и пере-станет отражать истинное положение дел;
* доступность -- свойство информации, характе-ризующее возможность ее получения данным потре-бителем;
* защищенность -- свойство, характеризующее не-возможность несанкционированного использования или изменения информации;
* эргономичность -- свойство, характеризующее удоб-ство формы или объема информации с точки зрения данного потребителя.
Информация – это отражение внешнего объективного мира. Объективная информация изменение свойств наблюдателя частью свойств исследуемого объекта, в результате чего образуются объекты, являющиеся функцией от свойств исследуемого объекта.
Субъективная - избыточность свойств моделей, возникающая в результате сравнения свойств ранее полученной объективной информации со свойствами текущей объективной информации,
поступившей от объектов, имеющих подобные свойства.
Объективный – существующий вне и независимо от человеческого сознания.
Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.
Актуальность информации – важность для настоящего времени.
Адекватность информации — это уровень соответствия образа, создаваемого с помощью информации, реальному объекту, процессу, явлению.
4 Формальное определение «Информатика». Кибернетика.
Информатика – молодая научная дисциплина, изучающая вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием информации в самых различных сферах человеческой деятельности.
Киберне́тика — наука об общих закономерностях процессов управления и передачи информации в различных системах, будь то машины, живые организмы или общество.
Термин «кибернетика» в современном понимании как наука об общих закономерностях процессов управления и передачи информации в машинах, живых организмах и обществе впервые был предложен Норбертом Винером в 1948 году
Она включает изучение обратной связи, чёрных ящиков и производных концептов, таких как управление и коммуникация в живых организмах, машинах иорганизациях, включая самоорганизации.
5 Понятие о кодировании информации. Количественная мера информации.
В настоящее время достаточно распространен процесс кодирования, т. е. преобразование информации из одной знаковой формы в другую, удобную для ее обработки, хранения или передачи. Используемый для кодирования конечный набор знаков называют алфавитом. Кодирование осуществляется по принятым правилам. Правило кодирования называется кодом (от французского code — кодекс, свод законов). Длина кода — количество знаков алфавита, используемое для кодирования.
Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т. е. используется алфавит мощностью два (всего два символа 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц - машинным языком.
Теория любого явления начинается с появления количественных взаимоотношений между объектами исследований, т.е. при установлении принципов измеряемости каких-либо свойств объектов. Единицу количественной меры информации - БИТ (сокращение binary digit - двоичная цифра), впервые предложил Р. Хартли в 1928 году. 1 бит - это информация о двух возможных равновероятных состояниях объекта, неопределенность выбора из двух равновероятных событий. Математически это отображается состоянием 1 или 0 одного разряда двоичной системы счисления. Количество информации Н (в битах), необходимое и достаточное для полного снятия неопределенности состояния объекта, который имеет N равновозможных состояний, измеряется как логарифм по основанию 2 из числа возможных состояний:
H = log 2 N. (1.4.1)
Соответственно, двоичный числовой информационный код одного из N возможных состояний объекта занимает Н двоичных разрядов.