
- •Философская сущность понятия «информация». Единицы измерения информации. Математическая, логическая и физическая сущность единицы информации.
- •Понятие равновероятных событий. Понятие «Уменьшение неопределенности в два раза». Формула Шеннона для измерения количества информации.
- •Понятие кодирования текстовой информации в форматах ascii, Unicode, iso 10646. Структура и назначение таблиц кодировок символов. Кодирование графической информации.
- •Описание видов систем счисления. Развернутая форма записи числа.
- •Представление чисел в машинных кодах. Естественная и нормальная формы представления чисел. «машинные» системы счисления
- •Понятия нормализованного числа, мантиссы, диапазонов представления чисел.
- •Понятие кодов с выявлением ошибок. Описание способов проверки на четность.
- •Блоковые коды
- •Линейные коды общего вида
- •Минимальное расстояние и корректирующая способность
- •Коды Хемминга
- •Применение
- •Полиномы crc и бит чётности
- •Примеры
- •Понятия кодов с исправлением ошибок, общего числа комбинаций, запрещенных комбинаций.
- •Блоковые коды
- •Линейные коды общего вида
- •Минимальное расстояние и корректирующая способность
- •Коды Хемминга
- •Применение
- •Полиномы crc и бит чётности
- •Примеры
- •Основные принципы построения кодов Хемминга с исправлением ошибок. Самоконтролирующиеся коды
- •Самокорректирующиеся коды
- •Аксиомы и модели булевой алгебры. Понятие изоморфизма. Основные понятия алгебры логики.
- •Определение, условное обозначение и таблицы истинности логических операций. Приоритет логических операций.
- •Понятие функций алгебры логики. Способы описания функций алгебры логики.
- •Характеристика понятий элементарной конъюнкции и элементарной дизъюнкции. Понятия ранга логической функции, минтерма и макстерма.
- •Понятие канонических форм логической функции (кнф, днф, скнф, сднф).
- •Способы построения кубических комплексов. Понятия п-мерного куба, нулевого куба, единичного куба, ранга куба.
- •Понятие булевых функций от одной и двух переменных, их Условное графическое обозначение.
- •Описание функционально полных систем (и, не), (или, не), (или, и, не), (или-не), (и-не).
- •Понятия логического базиса, полного базиса, минимального базиса.
- •Назначение и свойства цифровых автоматов.
- •Характеристики и особенности функционирования комбинационных схем, или автоматов без памяти.
- •Характеристики и особенности функционирования последовательностных схем, или автоматов с памятью (полного автомата, автомата Мили, автомата Мура).
- •Описание алгоритма синтеза комбинационной схемы по заданной таблице.
- •Назначение мультиплексоров. Условное графическое обозначение.
- •Назначение демультиплексоров. Условное графическое обозначение.
- •Назначение шифраторов. Их виды. Условное графическое обозначение.
- •Назначение дешифраторов. Условное графическое обозначение.
- •Назначение и устройство компаратора. Условное графическое обозначение.
- •Назначение одноразрядного сумматора и полусумматора.
- •Принципы функционирования последовательных и параллельных сумматоров.
- •Классификация и общие характеристики триггеров.
- •Характеристика, таблица состояний, условное графическое обозначение асинхронного rs-триггера.
- •Характеристика, таблица состояний, условное графическое обозначение асинхронного d-триггера.
- •Характеристика, таблица состояний, условное графическое обозначение асинхронного t-триггера.
- •Характеристика, таблица состояний, условное графическое обозначение одно- и двухступенчатого синхронного rs-триггера.
- •Характеристика, таблица состояний, условное графическое обозначение синхронного d-триггера.
- •Характеристика, таблица состояний, условное графическое обозначение синхронного jk-триггера.
- •Характеристика, таблица состояний, условное графическое обозначение синхронного t-триггера.
- •Виды, устройство, назначение и функционирование регистров.
- •Операции в регистрах
- •Классификация регистров
- •Типы регистров
- •Описание схем построения регистров. Условное графическое обозначение, примеры реализации регистров.
- •Описание схем параллельного и последовательного способов передачи информации в регистрах.
- •2.1 Последовательные регистры
- •Описание схемы функционирования регистров сдвига.
- •Определение
- •Виды счетчиков и их назначение.
- •Классификация
- •Современное состояние и перспективы развития элементной базы и средств вычислительной техники.
Теоретическая часть
Философская сущность понятия «информация». Единицы измерения информации. Математическая, логическая и физическая сущность единицы информации.
Информация – это знания, сведения, которыми обладает человек, которые он получает из окружающей мира.
Информация – это содержание последовательностей символов (сигналов) из некоторого алфавита.
Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.
Теория информации (математическая теория связи) — раздел прикладной математики, аксиоматически определяющий понятие информации[1], её свойства и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, оперирует с математическими моделями, а не с реальными физическими объектами (источниками и каналами связи). Использует, главным образом, математический аппарат теории вероятностей и математической статистики.
В физике
Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта, всегда приводит к изменению состояния, некоторого другого объекта окружающей среды. Это явление, вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться, как передача сигнала от одного объекта, другому. Изменение состояния объекта при передаче ему сигнала, называется регистрацией сигнала.
Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации.
Одно и то же сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых (а тем более в символьномкодировании -..) сигнала в терминологии азбуки Морзе — это буква Д (или D), в терминологии БИОС от фирмы AWARD — неисправность видеокарты.
В математике
Основные статьи: Собственная информация, Взаимная информация
В математике теория информации (математическая теория связи) — раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.
Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится акcиоматически (аксиома), то есть без всякой связи с другими понятиями и без какого-либо определения.
Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах — собственная информация ивзаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами — случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире — как свойство материальных объектов.
Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.
«Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке.»
К. Шеннон.