- •Предмет и задачи метрологии
- •Законодательная метрология
- •2.1 Государственное законодательство по обеспечению единства измерений
- •2.2 Государственная система метрологического обеспечения
- •Типовая структура метрологической службы промышленного предприятия
- •2.4 Международные метрологические организации
- •2.4.1 Международная организация мер и весов (момв)
- •2.4.2 Международная организация законодательной метрологии (мозм)
- •2.4.3 Другие международные организации
- •2.4.4 Межгосударственная координация по метрологии в снг
- •3 Информационная характеристика процесса измерения
- •4 Физические величины и их шкалы
- •4.1 Понятие шкалы реперов измеряемой величины
- •4.2 Определение наиболее распространенных шкал
- •4.4 Правила написания обозначение единиц
- •5 Погрешности измерений
- •5.1 Причины погрешностей
- •5.2 Обозначение погрешности
- •5.3 Классификация погрешностей
- •5.4 Оценка случайных погрешностей
- •5.5 Суммирование погрешностей
- •6. Общие правила выполнения измерения
- •6.1 Организация измерений
- •6.2. Учет систематических погрешностей и способы их уменьшения
- •6.3 Обработка результатов измерения
- •6.4 Форма представления и интерпретация результатов измерения
- •7 Метрологическая аттестация
- •7.1 Аттестация, поверка и испытания средств измерения
- •7.2 Сертификация средств измерений
- •8 Методы и средства для измерения электрических величин
- •8.1 Условные обозначения на шкалах приборов
- •8.2 Системы измерительных приборов
- •8.2.1 Магнитоэлектрические механизмы
- •8.2.2 Электродинамические механизмы
- •8.2.3 Электромагнитные механизмы
- •8.2.4 Электростатические механизмы
- •8.2.5 Выпрямительные приборы
- •8.2.6 Термоэлектрические приборы
- •8.3 Электронные приборы
- •8.3.1 Электронные вольтметры
- •8.3.2 Электронные омметры
- •8.3.3 Электронно-лучевые осциллографы
- •8.4 Мостовые и компенсационные измерительные схемы
- •8.4.1 Мостовые измерительные цепи
- •8.4.2 Компенсационные измерительные цепи
- •8.4.3 Автоматические мосты и компенсаторы
- •8.5 Цифровые приборы
- •8.5.1 Аналого-цифровые преобразователи
- •8.5.2 Цифровые вольтметры
- •8.5.3 Измерители частоты и интервалов времени
- •9 Измерение неэлектрических величин электрическими методами
- •9.1 Классификация измерительных преобразователей
- •9.2 Резистивные преобразователи
- •9.3 Электромагнитные преобразователи
- •9.4 Электростатические преобразователи
- •9.5 Тепловые преобразователи
3 Информационная характеристика процесса измерения
Любое измерение представляет собой передачу информации об измеряемой величине по цепи преобразования от объекта измерения до получателя измерительной информации. При этом могут неоднократно меняться как виды энергии, так и технические носители информации. Главным вопросом теории информации является установление меры количества и качества информации. Используется три различных подхода к оценке информации: структурный, семантический и статический.
Структурная теория информации рассматривает дискретное строение массивов информации и их измерение подсчетом элементарных объемов или комбинаторным методом, предполагающим кодирование информации. Так оценивают потоки информации в вычислительной технике, в телемеханике и других направлениях, занимающихся обработкой потоков информации. Здесь основным параметром является информационная емкость – число квантов в полном массиве информации.
Семантическая теория информации учитывает такие параметры как ценность, полезность или существенность информации. Это направление используется для оценки логического опыта.
Статическая теория рассматривается информацию как сообщение об исходе случайных событий. Количество информации ставится в зависимость от вероятности событий.
Измерение представляет собой процесс приема и преобразования информации об измеряемой величине с целью получения ее количественной оценки путем сравнения с принятой единицей или шкалой. Результат может быть представлен в явном визуальном виде (в показывающих приборах) или в неявном виде (в измерительных преобразователях). Качество измерения определяется его точностью. Для установления связи между точностью измерения и количеством полученной информации можно привлечь аппарат статической теории информации, разработанной К. Шенноном в 1948-1950 г.г.
Задачей получения информации, в том числе измерения, является устранение неопределенности в наших представлениях о состоянии некоторой физической системы.
Пусть вероятность некоторого события xi до получения сообщения о нем будет P(xi), а после получения сообщения Рс(xi). При числе событий соответственно n и nc и при равновероятности этих событий справедливы выражения:
Мерой количества информации, полученной в результате сообщения, является логарифм:
Если после получения сообщения неопределенность исчезла, т.е. Рс(xi) = 1, то:
Единицей измерения информации является бит (от английского binary digit). Одна единица информации соответствует сообщению о том, что произошло одно из двух возможных событий. Сообщение содержит тем большее количество информации, чем меньше вероятность этого события Р(xi).
Среднее количество информации, приходящееся на одно достоверное сообщение, представляет собой математическое ожидание величины I и называется энтропией источника сообщения.
Энтропия является мерой неопределенности системы. При полной достоверности (определенности) системы Н=0; во всех остальных случаях Н>0.
Применительно к измерениям Н(х) является энтропией измеряемой величины. В результате измерения получаем значение измеряемой величины, равное хn с какой-то погрешностью ± δ, поэтому ее энтропия станет другой (меньшей). Она называется условной энтропией и обозначается как Н(х/хn). Следовательно, информация, полученная в результате измерения, может быть выражена разностью:
т.е. количество информации определяется уменьшением энтропии от исходного значения Н(х), характеризующей неопределенность искомой величины перед измерением, до значения Н(х/хn), которое остается после измерения из-за наличия недостоверности (погрешности) измерения δ. Таким образом, измерение с точки зрения теории информации представляет собой выбор одного узкого интервала хn ± δ из всего множества интервалов шкалы.
На рис. 3.1 представлены графики плотности вероятности измеряемой величины вдоль шкалы х до и после измерения для случая равномерной плотности. До измерения вероятность знания измеряемой величины находилась на низком уровне; при этом доверительный интервал, т.е. диапазон возможных значений величины был очень широк: от х1 до х2 (этот интервал может быть равен всему диапазону шкалы измерения). После измерения область неопределенности сократилась до 2δ, т.е. до уровня погрешностей, а вероятность резко возросла. При этом, чем меньше погрешность измерения, тем больше информативность процесса измерения.
Р(х)
Р(х) =
Р(х) =
2δ
х1 хn х2 х
Рис. 3.1. Распределение плотности вероятности измеряемой величины
до и после измерения