
- •Экономическая информация
- •Синтаксические меры информации
- •Семантическая мера информации
- •Прагматическая мера информации
- •Показатели качества информации
- •Репрезентативность
- •Содержательность
- •Достаточность
- •Доступность
- •Актуальность
- •Своевременность
- •Точность
- •Достоверность
- •Устойчивость
- •Защищенность
- •Полезность
- •Двоично-десятичная система счисления
- •Not (не) — операция отрицания
- •Вопрос №27 Микропроцессоры линейки core
- •Процессоры Core Penryn
- •Основная память
- •Внешняя память
- •Назначение кеш памяти Что же такое кэш-память или кэш (по англ. Cache memory, cache):
- •Уровни кэш памяти
- •Память l2 кэш
- •Вопрос №33 Эффективные технологии записи информации на hdd
- •Характеристики видеомониторов следующие:
- •Операционная система ms dos
- •Состав ms dos
- •Загрузка ms dos
- •Ввод и редактирование команд
- •Команды общего назначения
- •3)Удаление каталога со всем содержимым.
Вопрос №1
Кибернетика — наука об общих закономерностях процессов управления в системах любой природы. Предметом кибернетики являются информационные процессы, описывающие поведение этих систем с целью создания принципов, методов и технических средств эффективных для управления такими системами. Основные особенности кибернетики как самостоятельной научной области состоят в следующем:
Кибернетика способствовала тому, что классическое представление о мире, состоящем из материи и энергии, уступило место представлению о мире, состоящем из трех составляющих: материи, энергии и информации, ибо без информации немыслимы организованные системы.
Кибернетика рассматривает управляемые системы не в статике, а в динамике, то есть в их движении, развитии, при этом в тесной связи с другими (внешними) системами. Это позволяет вскрывать закономерности и устанавливать факты, которые иначе оказались бы не выявленными.
Как бы детально и строго не старались изучать поведение сложной системы, никогда нельзя учесть полное множество всех факторов, прямо или косвенно влияющих на ее поведение. Поэтому всегда следует вводить различные ограничения, считаться с неизбежностью наличия некоторых случайных факторов, являющихся результатом действия этих неучтенных процессов, явлений и связей.
Кибернетика очень широко практикует именно вероятностные методы исследования, позволяющие хотя и не определенно, а в вероятностном аспекте, но строго и четко предсказать поведение сложных систем.
В кибернетике часто применяется метод исследования систем с использованием «черного ящика». Под «черным ящиком» понимается система, в которой исследователю доступна лишь входная и выходная информация этой системы, а внутреннее устройство неизвестно.
Вопрос №2
Информация — важнейший ресурс управления. С позиций кибернетики, управление – это процесс целенаправленной переработки информации. Информация является как предметом труда, так и продуктом труда в системе управлении. Слово информация (латинское informatio) означает разъяснение, осведомление, изложение. Под информацией понимаются все те сведения, которые уменьшают степень неопределенности нашего знания о конкретном объекте. С позиции материалистической философии информация есть отражение реального мира; это сведения, которые один реальный объект содержит о другом реальном объекте. Можно предложить более лаконичное определение информации:
Информация — это сведения, изменяющие наши знания и понимание окружающего мира.
Экономическая информация
Одной из важнейших разновидностей информации является информация экономическая; ее отличительная черта — связь с процессами управления коллективами людей, организацией. Экономическая информация сопровождает процессы производства, распределения, обмена и потребления материальных благ и услуг, значительная часть ее связана с общественным производством. Экономическая информация — совокупность сведений, возникающих в процессе производственно-хозяйственной, коммерческой и финансовой деятельности и используемых для осуществления функций организационно-экономического управления этой деятельностью. Для экономической информации характерны:
большой объем;
многократное повторение циклов получения и обработки;
временной регламент процедур обработки информации;
значительный удельный вес телекоммуникационных процедур и логических операций преобразования информации;
сравнительно несложные расчеты для большинства видов информации.
Экономические показатели:
Уровень экономического роста
Цены и инфляция
Процентные ставки
Безработица
Строительство и продажа жилья
Розничная торговля и продажа новых автомобилей
Рынок ценных бумаг
Вопрос №3
Синтаксические меры информации
Объем данных в сообщении измеряется количеством символов (разрядов) принятого алфавита в этом сообщении. Часто информация кодируется числовыми кодами в той или иной системе счисления. Естественно, что одно и то же количество разрядов в разных системах счисления способно передать разное число состояний отображаемого объекта. Действительно, N = mn, где N— число всевозможных отображаемых состояний; m— основание системы счисления (разнообразие символов, применяемых в алфавите); n— число разрядов (символов) в сообщении. В различных системах счисления один разряд имеет различный вес, и соответственно, меняется единица измерения данных. Так, в двоичной системе счисления единицей измерения служит бит (binary digit, двоичный разряд), в десятичной системе счисления — дит (десятичный разряд).
Примечание
Сообщение, представленное в двоичной системе как 10111011, имеет объем данных Vд=8 бит; Сообщение 275903, представленное в десятичной системе имеет объем данных Vд=6 дит. Объем данных в сообщении не зависит от свойств получателя. Для всех получателей он имеет одинаковую величину.
В современных компьютерах наряду с минимальной единицей данных — битом, широко используется укрупненная единица измерения байт, равная 8 бит.
Для определения количества информации Клод Шеннон использовал понятие информационной неопределенности состояния (информационной энтропии) системы. Действительно, получение информации связано с изменением степени неосведомленности получателя о состоянии системы. До получения информации получатель мог иметь некоторые предварительные (априорные) сведения о системе ; мера неосведомленности о системе — Н() и является для него мерой неопределенности состояния системы. После получения некоторого сообщения получатель приобрел дополнительную информацию I(), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения ) неопределенность состояния системы стала Н(/). Тогда, количество информации I() о системе , полученное в сообщении , будет определено как: I() = Н() – Н(/).
Количество информации измеряется через изменение (уменьшение) неопределенности состояния системы. Если конечная неопределенность Н(/) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации станет равно: I() = Н(). Иными словами, энтропия системы Н() может рассматриваться как мера недостающей информации. Энтропия системы Н(), имеющей N возможных состояний, согласно формуле Шеннона равна:
где Pi — вероятность того, что система находится в i-м состоянии.
Для
случая, когда все состояния системы
равновероятны, то есть
Pi
=1/N,
энтропия системы:
Рассмотрим пример. По каналу связи передается n-разрядное сообщение, использующее m различных символов. Количество всевозможных кодовых комбинаций будет N = mn. При равновероятном появлении любой кодовой комбинации количество информации в правильном сообщении — формула Хартли:
Если в качестве основания логарифма принять m, то I=n. В данном случае количество информации (при условии полного априорного незнания получателем содержания сообщения) будет равно объему данных I=Vд.
Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.
Для неравновероятных состояний системы всегда:
I <Vд,
Примечание
Меру Шеннона нельзя считать чисто синтаксической мерой, поскольку эта мера зависит от свойств получателя (от вероятностей Pi, значения которых у разных получателей могут быть различными). Более правильно считать меру Шеннона полусемантической мерой количества информации.
Степень информативности сообщения Y определяется отношением количества информации к объему данных, то есть Y = I/Vд, причем 0<Y<1 (Y характеризует лаконичность сообщения). С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Для повышения информативности сообщений разрабатываются специальные методы оптимального кодирования информации.
Вопрос №4