
- •Ответы на теоретические задания к контрольной работе по дисциплине «Арифметические и логические основы вт» для «альтернативно-одаренных» учащихся.
- •Виды существования информации
- •Классификация информации
- •Непозиционные системы счисления
- •Позиционные системы счисления
- •Общее правило перевода чисел из p-ой сс в q-ю.
- •Двоично-десятичная система счисления.
- •Перевод между 2, 8, 16 сс
- •Пример 32битного (single precision) представления числа
- •Логические функции двух переменных
- •Интерпретации логических функций Графические
- •Переключательные
- •Словесное описание
- •Описание в виде таблицы истинности
- •Описание в виде алгебраического выражения
- •Описание в виде последовательности десятичных чисел
- •Геометрическое представление (кубические комплексы)
- •Базовые логические элементы
- •Дополнительные логические элементы
- •Алгоритм представления фал в днф или кнф:
- •Базис Пирса (или-не)
- •Практические задания.
Ответы на теоретические задания к контрольной работе по дисциплине «Арифметические и логические основы вт» для «альтернативно-одаренных» учащихся.
Изложите суть основных концепций информации. Дайте определение понятия «информация» на основе этих концепций. Перечислите виды существования информации и способы ее классификации.
Существуют 3 наиболее распространенные концепции информации.
Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. Этот подход, хоть и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике и послужил основой для измерения информации и оптимального кодирования сообщений. Кроме того, он представляется удобным для иллюстрации такого важного свойства информации, как новизна, неожиданность сообщений. При таком понимании информация - это снятая неопределенность, или результат выбора из набора возможных альтернатив. Иначе, информация – мера уменьшения неопределенности нашего знания о состоянии какого-либо объекта.
Вторая концепция рассматривает информацию как свойство материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. То есть, информация как свойство материи создает представление о ее природе и структуре, упорядоченности и разнообразии. Она не может существовать вне материи, а значит, она существовала и будет существовать вечно, ее можно накапливать, хранить и перерабатывать.
Третья концепция основана на логико-семантическом подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная часть знаний.
Рассмотренные подходы в определенной мере дополняют друг друга, освещают различные стороны сущности понятия информации и облегчают тем самым систематизацию ее основных свойств. Обобщив данные подходы, можно дать следующее определение информации:
Информация - это сведения, снимающие неопределенность об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения - это знания выраженные в сигналах, сообщениях, известиях и т.д.
Виды существования информации
в виде текстов, рисунков, чертежей, фотографий;
в виде световых или звуковых сигналов;
в виде радиоволн;
в виде электрических и нервных импульсов;
в виде магнитных записей;
в виде жестов и мимики;
в виде запахов и вкусовых ощущений;
в виде хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.
Классификация информации
1. Информация подразделяется по форме представления (дискретная, аналоговая).
2. По области возникновения (механическая, биологическая, социальная)
3. По способу передачи и восприятия (визуальная, аудиальная, тактильная и т.п.)
4. по общественному назначению (личная, массовая, специальная)
5. По способам кодирования (символьная, текстовая, графическая)
Изложите, что такое основная единица информации и что она означает. Перечислите наиболее широко употребляемые производные единицы информации. Покажите, каковы соотношения между этими единицами. Приведите примеры использования таких единиц.
В теории информации за единицу информации принимается неопределенность знания о состоянии такой системы, которая может иметь только 2 различных равновероятных состояния. Такая единица информации называется бит (Bit - binary digit; binary element: также игра слов: bit — немного).
Это тождественно количеству информации в ответе на вопрос, допускающий ответы «да» либо «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос). Может принимать только два взаимоисключающих значения: да/нет, 1/0, включено/выключено, и т. п. В электронике 1 двоичному разряду соответствует двоичный триггер, который имеет два устойчивых состояния. В вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Впервые слово bit было использовано Шенноном в 1948 г.
За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт (byte). Cлово byte представляет собой сокращение словосочетания BinarY TErm — «двоичный терм»).
Оно было впервые использовано в 1956 году В. Бухгольцем (англ. Werner Buchholz) при проектировании первого суперкомпьютера IBM 7030 для пучка одновременно передаваемых в устройствах ввода-вывода шести битов. Позже, в рамках того же проекта, байт был расширен до восьми бит.
Чаще всего байт считается равным восьми битам, в этом случае он может принимать одно из 256 (28) различных значений. Для того, чтобы подчеркнуть, что имеется в виду восьмибитный байт, в описании сетевых протоколов используется термин октет (octet).
Широко используются также ещё более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
Примеры см. везде.
Дайте определение термина «машинное слово». Перечислите применяемые в ЭВМ форматы представления данных фиксированной длины. Поясните, как они взаимосвязаны.
Любая информация (числа, команды, алфавитно-цифровые записи и т. п.) представляется в ЭВМ в виде двоичных кодов. Минимальной единицей информации, обрабатываемой в ЭВМ, является байт, состоящий из восьми двоичных разрядов (битов).
Каждый байт, расположенный в памяти ЭВМ, имеет свой адрес, который определяет его местонахождение и задается соответствующим кодом (целым числом). Адреса памяти начинаются с нуля для первого байта и последовательно возрастают на единицу для каждого последующего.
Байты обрабатывают в ЭВМ отдельно или группами из последовательно расположенных байтов. Группы байтов образуют двоичные слова. Структура размещения байтов информации по длине разрядной сетки определяется соответствующими форматами, принятыми в данной ЭВМ.
Машинное слово — машиннозависимая и платформозависимая величина, измеряемая в битах или байтах (тритах или трайтах), равная разрядности регистров процессора и/или разрядности шины данных (обычно некоторая степень двойки). На ранних компьютерах размер слова совпадал также с минимальным размером адресуемой информации (разрядностью данных, расположенных по одному адресу); на современных компьютерах минимальным адресуемым блоком информации обычно является байт, а слово состоит из нескольких байтов.
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
21 |
22 |
23 |
24 |
25 |
26 |
27 |
28 |
29 |
30 |
31 |
||||
byte |
byte |
byte |
byte |
|
|||||||||||||||||||||||||||||||
word* |
word |
|
|||||||||||||||||||||||||||||||||
double word (DWORD) |
|
* см. определение машинного слова
Для совсем тупых: Картинка означает, что 2 байта составляют слово (word), 2 слова = двойное слово (double word).
Самый первый (левый) бит в байте называется старшим битом, самый последний (правый) – младшим. Аналогично, в слове первый (левый) байт – старший (HIBYTE), второй (правый) младший (LOBYTE). В двойном слове: первое слово (левое) – старшее (HIWORD), второе – младшее (LOWORD).
В зависимости от характера информации, используются форматы представления данных как фиксированной, так и переменной длины. Так, в форматах данных фиксированной длины обычно представляются двоичные числа, команды и некоторые логические данные, а в форматах данных переменной длины — десятичные числа, алфавитно-цифровая и некоторая логическая информация.
Форматы данных фиксированной длины (слово, двойное слово и т.п.) состоят соответственно из двух, четырех и восьми последовательно расположенных байтов. Обращение к этим данным производится по адресу крайнего левого байта формата, который должен быть кратен для слова — числу 2, для двойного слова — числу 4.
Формат данных переменной длины состоит из группы последовательно расположенных байтов от 1 до 256. Адресация таких данных производится, как и в форматах фиксированной длины, по адресу самого левого байта.
Поясните понятие «система счисления». Перечислите типы систем счисления. Объясните разницу между позиционными и непозиционными системами. Приведите примеры систем счисления каждого типа.
Система счисления - это совокупность правил и приемов записи чисел с помощью набора цифровых знаков.
В каждой СС используется определенный набор символов (их называют цифрами), последовательная запись которых изображает число. Совокупность этих цифр называется алфавитом системы счисления или базой.
Различают два типа систем счисления:
позиционные, когда значение каждой цифры определяется ее позицией в записи числа;
непозиционные, когда значение цифры в числе не зависит от ее места в записи числа.