
- •Организационный момент.
- •Анализ и проверка домашней работы
- •Ответьте на вопросы:
- •План лекции
- •Основные положения технологического подхода
- •Разделение ответственности и понятие методологии
- •Методология как «внутренняя технология» измерений
- •Технологический подход: от универсальных решений к реальным задачам
Методология как «внутренняя технология» измерений
Помимо средства для классификации методов измерений методология оказывается удобным средством описания «внутренней технологии» измерений.
В философском смысле методология - это учение о структуре, логической организации, методах и средствах деятельности человека. Методология представляет собой набор общих подходов, схем измерений наиболее важных параметров и принципов интерпретации результатов, связанных с конкретной измерительной технологией, совокупность наиболее общих принципов измерений для всех технологий можно назвать общей методологией.
Общая методология важна постольку, поскольку есть определенный класс измерений, единый для всех технологий. Например, измерение параметра ошибки производится для любой технологии цифровой связи. Общая методология позволяет сформулировать и описать набор общих принципов для таких измерений, показать их «внутреннюю технологию».
Пример
Наука XX века убедительно показала, что техническими средствами невозможно без ошибок определить значение теоретической величины. Так при проектировании технических средств в основу расчета закладываются теоретические величины, которые на практике могут быть измерены только в некотором приближении. Поэтому в ряде случаев экспериментальные данные служат для оценки параметра теоретической величины. Лучше всего это видно на следующем примере.
Для цифровых систем передачи необходимо учитывать влияние ошибок, возникающих по тем или иным причинам в системе. Основным параметром расчета здесь выступает вероятность возникновения ошибки p(t), которая является функцией времени и зависит от ряда факторов и значений параметров, связанных с различным влиянием на систему. Примерами такого влияния могут служить интерференция сигналов в радиочастотных системах передачи (Интерференция сигналов - всё, что изменяет или повреждает информацию, переносимую сигналом от передатчика через канал связи к приёмнику), алгоритмический джиттер в системах SDH u m.д. (Джи́ттер (англ. jitter — дрожание) или фазовое дрожание цифрового сигнала данных — нежелательные фазовые и/или частотные случайные отклонения передаваемого сигнала. Возникают вследствие нестабильности задающего генератора, изменений параметров линии передачи во времени и различной скорости распространения частотных составляющих одного и того же сигнала. В цифровых системах проявляется в виде случайных быстрых (с частотой 10 Гц и более) изменений местоположения фронтов цифрового сигнала во времени, что приводит к рассинхронизации и, как следствие, искажению передаваемой информации т.е. Джиттер можно определить как "отклонение показательных участков сигнала от их требуемого положения во времени", проще говоря, насколько раньше или позже сигнал меняет состояние относительно правильного момента перехода. Для цифрового сигнала "показательными участками" являются точки перехода (пересечения), которые определяются по самим дискретным данным или по дополнительному сигналу синхронизации.)
В зависимости от природы влияния на систему характер функции p(t) может существенно отличаться для различных систем. При проектировании необходим расчет функции вероятности в зависимости от параметров внешнего влияния на систему для определения качественных параметров работы проектируемой системы, определения ее устойчивости к внешним условиям и т.д. Проверить результаты расчетов можно только экспериментальным путем или проведением измерений на опытном образце. Однако теоретическая величина - функция вероятности возникновения ошибки в системе - не может быть измерена. Вместо нее измеряется параметр ошибки по битам – BER (Bit Error Rate Test - распространенный и наиболее популярный способ тестирования цифровых сетей. Основанные на нем методики G.821/G.826 находят широкое применение в PDH, SDH, GSM и других сетях.), который может быть представлен как:
где BITSerr - количество битов, пораженных ошибками, BITS - общее количество переданных битов.
Эта величина связана с функцией вероятности возникновения ошибки соотношением:
Т.е. представляет собой математическое ожидание функции вероятности. По значению математического ожидания функция вероятности может быть восстановлена лишь с определенной степенью достоверности.
Чтобы на основании результатов можно было бы восстановить функцию вероятности без ошибок, необходимо проводить измерение BER в течении бесконечно большого интервала измерений, что практически невозможно. Таким образом, полученное значение всегда оказывается неким приближением теоретического и зависит от условий измерения, которые определяются методологией измерений, ориентированной на минимизацию ошибки оценки теоретической величины.
В нашем примере основными параметрами измерения BER выступают алгоритм проведения измерений, интервал времени измерения и выбор тестовой последовательности для измерения. Значения этих параметров зависят от предполагаемого характера функции p(t) и должны определяться в ходе разработки методики измерений.
Знание общей методологии измерений не является обязательным для проведения эксплуатационных измерений при обслуживании современных систем связи. Тем не менее знание этого материала необходимо хотя бы потому, что всегда остаются такие вопросы, как "Когда я измеряю BER, что же я действительно измеряю, как я это измеряю и не ошибаюсь ли я при измерении?" Для ответа на эти вопросы необходимо знать основы общей методологии измерений. Неправильно выбранная общая методология может привести к ошибке измерений, неправильной трактовке результатов и т.д.
Таким образом, общая методология измерений лежит в основе всех современных измерений и является важным материалом для всех, интересующихся измерительными технологиями.