Нормирование погрешностей средств измерений
Каждому средству измерений приписываются некоторые номинальные характеристики.
Действительные же характеристики средств измерений не совпадают с номинальными, что и определяет их погрешности.
Стандартизованной является оценка качества измерения с указанием погрешности.
Погрешности средств измерений представляют в форме абсолютных, относительных и приведённых погрешностей.
Выше было сказано, что под погрешностью понимается отклонение показаний приборов (или номинальных значений мер) от истинных значений измеряемой величины (истинных значений мер):
Δх = хизм - хист, (1)
где Δх - погрешность измерения.
Качество измерения тем выше, чем ближе результат измерения оказывается к истинному значению.
Строго говоря, применение формулы (1) для вычисления погрешности измерения невозможно, поскольку истинное значение измеряемой величины неизвестно.
Поэтому это выражение погрешности используется только в теоретических исследованиях, а на практике хист заменяется на его оценку - действительное значение величины хд, и погрешность рассчитывается по формуле
Δх = хизм - хд. (2)
Погрешность, выраженная в соответствии с формулами (1) и (2), имеет размерность измеряемой величины и называется абсолютной погрешностью.
Широко используется также понятие относительной погрешности.
Относительная погрешность - это отношение абсолютной погрешности измерения к истинному значению измеряемой величины:
δх = Δх / хист, (3)
Относительные погрешности выражают принятыми в системе СИ относительными величинами: безразмерным числом, в процентах и др.
Предпочтение отдаётся выражению погрешности измерения в форме относительной погрешности, как более информативной, дающей возможность объективно сопоставлять результаты.
Однако относительная погрешность как наглядная характеристика точности результата измерения не годится для нормирования погрешности средства измерений, так как при изменении значений хист эта погрешность принимает различные значения вплоть до бесконечности при хист = 0.
Чтобы можно было сравнить по точности измерительные приборы с разными пределами измерений, введено понятие приведённой погрешности измерительного прибора.
Приведённая погрешность - это относительная погрешность, в которой абсолютная погрешность средства измерений отнесена к условно принятому значению хнм, постоянному во всем диапазоне измерений или его части:
γ = Δх/хнм,
где Δх - абсолютная погрешность;
хнм - нормирующее значение.
Обычно нормирующее значение принимают равным:
1) большему из пределов измерений, если нулевая отметка расположена на краю или вне диапазона измерения;
2) сумме модулей пределов измерения, если нулевая отметка расположена внутри диапазона измерения;
3) длине шкалы или её части, соответствующей диапазону измерения, если шкала существенно неравномерна (например, у омметра);
4) номинальному значению измеряемой величины, если таковое установлено (например, у частотомера с номинальным значением 50 Гц);
5) модулю разности пределов измерений, если принята шкала с условным нулём (например, для температуры), и т.д.
Чаще всего за нормирующее значение принимают верхний предел измерений данного средства измерений.
Отклонения параметров средств измерений от их номинальных значений, вызывающие погрешность измерений, не могут быть указаны однозначно, поэтому для них должны быть установлены предельно допускаемые значения.
Нормирование метрологических характеристик средств измерений и заключается в установлении границ для отклоненийреальных значений параметров средств измерений от их номинальных значений.
Указанное нормирование является гарантией взаимозаменяемости средств измерений.
Нормирование погрешностей средств измерений заключается в установлении предела допускаемой погрешности.
Под этим пределом понимается наибольшая (без учёта знака) погрешность средства измерения, при которой оно может быть признано годным и допущено к применению.
Подход к нормированию погрешностей средств измерений заключается в следующем:
1) в качестве норм указывают пределыдопускаемых погрешностей, включающие в себя и систематические, и случайные составляющие;
2) порознь нормируют все свойства средств измерений, влияющие на их точность.
Стандарт устанавливает ряды пределов допускаемых погрешностей.
Этой же цели служит установление классов точности средств измерений.
Класс точности - обобщённая характеристика средства измерений, определяемая пределами допускаемых основной и дополнительной погрешностей, а также другими свойствами средств измерений, влияющими на точность.
Классы точности различных СИ могут задаваться по-разному в соответствии с ГОСТ 8.401- 80 "Классы точности средств измерений. Общие требования".
Этот стандарт устанавливает деление СИ по классам точности; способы нормирования метрологических характеристик, комплекс требований к которым зависит от класса точности СИ; обозначения классов точности.
Пределыдопускаемых основной и дополнительных погрешностей выражают в форме приведённых, относительных или абсолютных погрешностей в зависимости:
- от характера изменения границ абсолютных погрешностей в пределах диапазона измерений, а также
- от условий применения и
- назначения средства измерений.
В зависимости от характера изменения границ погрешности в пределах диапазона измерений пределы допускаемой абсолютной основной погрешности устанавливают по формулам:
Δд = ± а (1)
или
Δд = ± (а + bх), (2)
где х - значение измеряемой величины на входе (выходе) средства измерений или число делений, отсчитанных по шкале;
а и b - положительные числа, не зависящие от х.
Пределы допускаемой приведённой основной погрешности, в %, устанавливают по формуле:
γд = Δд/хнм ·100 = ± р, (3)
где Δд - пределы допускаемой абсолютной погрешности, устанавливаемой в соответствии с (1);
хнм - нормирующее значение;
р - отвлечённое положительное число.
Пределы допускаемой относительной основной погрешности δ, в %, устанавливаются по формуле:
δд = Δд/х ·100 = ± q, (4)
если Δд установлено в соответствии с (1),
или по формуле:
δд = Δд/х ·100 = ± [c + d(xк/x -1)], (5)
если Δд установлено в соответствии с (2).
Здесь xк - больший (по модулю) из пределов измерений,
c и d - положительные числа.
Положительные числа p, q, c и d выбираются из следующего ряда:
1·10n; 1,5·10n; 2·10n; 2,5·10n; 4·10n; 5·10n; 6·10n (n = 1, 0, -1, -2 и т.д.).
В зависимости от способа нормирования основной погрешности используются различные обозначения классов точности.
Если нормируется приведённая или относительная погрешность в соответствии с (4), то класс точности обозначается одним числом, равным пределу допускаемой погрешности, выраженному в процентах, т.е. p или q.
Для средств измерений, пределы допускаемой основной погрешности которых выражены в форме относительных погрешностей в соответствии с (5), классы точности обозначают числами c и d, разделяя их косой чертой.
В случае нормирования абсолютной погрешности классы точности обозначают прописными буквами латинского алфавита или римскими цифрами.
При этом классы точности, которым соответствуют меньшие пределы допускаемых погрешностей, соответствуют буквы, находящиеся ближе к началу алфавита, или цифры, означающие меньшие числа.
Наиболее общие вопросы нормирования МХ СИ рассмотрены в ГОСТ 8.009-84 "ГСИ. Нормируемые МХ СИ".
Дата добавления: 2016-06-05; просмотров: 12505;