
- •1. Понятие технологии и ее аспектов.
- •2. Инвертированные и индексные файлы в базах данных.
- •3. Причина возникновения понятия «информационная технология»
- •5. Понятие информации. Её особенности.
- •6. Физическая организация баз данных.
- •7. Определите понятие «информационная система»
- •8. Реляционная модель баз данных.
- •9. Содержание синтаксического, семантического и прагматического аспектов информации.
- •10. Логическая организация баз данных.
- •11.Экономическая информация и её структурные единицы.
- •12. Назначение, основные функции и особенности субд.
- •13. Статистическое определение меры информации.
- •14 Основные модели баз данных
- •15 Формула Хартли для определения количества информации
- •16 Основные требования при проектировании банков данных
- •17 Семантический подход к измерению количества информации
- •18 Классификация информационных систем
- •19 Прагматический подход к измерению количества информации
- •20 Банки данных. Их назначение. Понятие автоматизированных информационных систем
- •21 Дайте определение понятию «система» и объясните её свойства
- •22 Схема состава и взаимосвязей подсистем базовой информационной технологии
- •35. Схема концептуальной модели базовой ит
- •37. Определите термины «информационный процесс»,
- •39. Классификация информационных систем.
- •40.Единицы измерения информации.
- •41. Основные функции и особенности работы субд.
- •42. Языки запросов qbe и sql.
- •43. Архитектура информационной системы.
- •44. Базовая информационная технология в управлении предприятием. Фазы управления производством.
- •45. Модели и задачи управления производством.
- •46. Комплексы задач и модели фазы планирования.
- •48.Комплексы задач и модели фазы анализа
- •49. Комплексы задач и модели фазы регулирования.
13. Статистическое определение меры информации.
Этот
подход изучается в разделе кибернетики,
называемой “теорией информации”.
Основоположником этого подхода считается
Шеннон, опубликовавший в 1948 году
математическую теорию связи. Шенноном
было введено понятие “количества
информации” как меры неопределённости
состояния системы, снижаемой при
получении информации. При получении
информации уменьшается неопределённость,
то есть энтропия системы. Kоличество
информации может быть определено как
I(X)
= H(X)
– H’(X),
где H(X)
– априорная энтропия системы, H’(X)
– апостериорная неопределенность
системы. Согласно теореме Шеннона,
энтропия системы равна:
.
Здесь коэффициент K0 и основание логарифма a определяют систему единиц измерения количества информации.
Логарифмическая
мера информации была предложена Хартли
для представления технических параметров
систем связи как наиболее удобная и
более близкая к восприятию человеком,
привыкшему к линейным уравнениям. Знак
“–“ поставлен для того, чтобы значение
энтропии было положительным. Если все
состояния равновесны, то есть Pi
= 1/N
, то её энтропия
.
В общем случае при N равновероятных состояний количество информации будет: I = log2 N - формула Хартли. Эта формула показывает, что количество информации, необходимое для снятия неопределённости по системе с равновероятными состояниями, зависит лишь от количества этих состояний. Количество кодовых комбинаций N = mn.
14 Основные модели баз данных
Для ИС характерны 2 способа схемы представления данных – графический (основан на изображении моделей данных в виде ориентированного графа, вершины которого служат для отображения типов записей, в дуги – связи между записями) и табличный (состоит в представлении информации о предметной области в виде одной или нескольких таблиц, заголовок каждой из которых аналогичен типу записи графической модели). В настоящее время известны 3 графические модели: иерархическая; сетевая; реляционная.
Иерархическая модель данных Сетевая структура
Реляционная модель данных (РМД) строится на использовании табличных средств представления данных и манипулирования ими, в РМД вся информация о предметной области отображается в таблице
Рис. Реляционная модель данных.
15 Формула Хартли для определения количества информации
Логарифмическая мера информации была предложена Хартли для представления технических параметров систем связи как наиболее удобная и более близкая к восприятию человеком, привыкшему к линейным уравнениям с принятыми эталонами.
-
формула Хартли. Эта формула показывает,
что количество информации, необходимое
для снятия неопределённости по системе
с равновероятными состояниями, зависит
лишь от количества этих состояний.
Количество кодовых комбинаций N
= mn.
Если это выражение подставить в формулу
Хартли, то получим: I
= log2m
.
Если код двоичный, то m
= 2, и I
= n
.
В этом случае количество информации в
сообщении составит n
двоичных единиц, называемых битами
(binary
digit
-> bit).
При использовании в качестве основного
логарифма числа 10, то единица информации
будет десятичной, и называться дитом.
Иногда удобно использовать число e
как основание. В этом случае единицы
информации называются натуральными
или натам.