Что является исходным при определении предела допускаемой погрешности измерения данного размера
Перейти к содержимому

Что является исходным при определении предела допускаемой погрешности измерения данного размера

  • автор:

Тема 1. Определения предела допускаемой основной абсолютной погрешности показаний прибора

Измерения являются одним из важнейших путей познания природы человеком. Они дают количественную характеристику окружающего мира, раскрывая человеку действующие в природе закономерности. Все отрасли техники не могли бы существовать без развернутой системы измерений, определяющих как все технологические процессы, контроль и управление ими, так свойства и качество выпускаемой продукции.

Велико значение измерений в современном обществе. Они служат не только основой научно-технических знаний, но имеют первостепенное значение для учета материальных ресурсов и планирования, для внутренней и внешней торговли, обеспечения качества продукции, взаимозаменяемости узлов и деталей и совершенствования технологии, обеспечения безопасности труда и других видов человеческой деятельности.

Особенно возросла роль измерений в век широкого внедрения новой техники, развития электроники, автоматизации, атомной энергетики, космических полетов. Высокая точность управления полетами космических аппаратов достигнута благодаря современным совершенным средствам измерений, устанавливаемым как на самих космических аппаратах, так и в измерительно-управляющих центрах.

Большое разнообразие явлений, с которыми приходится сталкиваться, определяет широкий круг величин, подлежащих измерению. Во всех случаях проведения измерений независимо от измеряемой величины, метода и средства измерений есть общее, что составляет основу измерений, — это сравнение опытным путем данной величины с другой подобной ей, принятой за единицу. При всяком измерении мы с помощью эксперимента оцениваем физическую величину в виде некоторого числа принятых для нее единиц, т. е. находим ее значение.

Оптимизация режимов и повышение эффективности работы теплоэнергетического и технологического оборудования невозможна без измерения параметров теплоэнергетических и технологических процессов. Для правильного выбора средств измерения этих параметров необходимо иметь представление обо всем многообразии средств измерения теплотехнических и технологических параметров. Надежность средств измерения и информационно-измерительных систем во многих случаях определяет надежность агрегата в целом. Без достоверных значений параметров и автоматического контроля этих значений в большинстве случаев нельзя управлять процессом или агрегатом, без средств измерения невозможна автоматизация.

Наличие разнообразных средств измерений требуют правильного их выбора для определенных целей. Расчет технико-экономических показателей работы оборудования предопределяет использование таких методов и средств измерений, которые в конкретных условиях эксплуатации обеспечили бы необходимую точность. Одним из важных вопросов является метрологическое обеспечение, позволяющее производить правильный выбор необходимых средств измерений и оценку точности измерительных систем. Игнорирование этих факторов может привести к неправильным выводам и экономически неоправданным решениям.

Настоящие методические указания содержат общие сведения, рекомендации и вспомогательный материал, позволяющий студентам, обосновано принимать решения при выполнении расчетов точности измерительных систем, с целью закрепления теоретического материала и приобретения практических навыков.

Исходные данные для выполнения индивидуальных заданий приводятся в табличной форме после каждой темы практического занятия и задаются преподавателем.

Тема 1. Определения предела допускаемой основной абсолютной погрешности показаний прибора

1.1. Общие сведения о точности измерений и погрешности измерений.

При измерении любой величины, как бы тщательно они не производились, не представляется возможным получить свободный от искажения результат. Причины этих искажений могут быть различны, они могут быть вызваны несовершенством применяемых методов измерений, средств измерений, непостоянством условий измерений и рядом других причин.

Отклонение результата измерения от истинного значения измеряемой величины называется погрешностью измерения. Погрешность измерения, выраженная в единицах измеряемой величины, называется абсолютной погрешностью измерения. Абсолютная погрешность измерительного прибора определяется разностью между показанием прибора и истинным значением измеряемой величины.

где — абсолютная погрешность,

— истинное значение измеряемой величины.

Отношение абсолютной погрешности измерения к истинному значению измеряемой величины называется относительной погрешностью измерения.

Относительная погрешность может быть выражена в процентах.

Измерительные приборы часто характеризуются приведенной погрешнстью, которая определяется как отношение погрешности измерительного прибора к нормирующему значению.

где — предел допускаемой приведенной погрешности в процентах нормирующего значения; – нормирующее значение, выраженное в единицах измеряемой величины; – абсолютная погрешность средства измерения.

За нормирующее значение чаще всего принимается диапазон измерения прибора, приведенная погрешность, как правило, выражается в процентах.

Диапазоном измерений прибора или измерительного преобразователя называется область значений измеряемой величины, для которой нормированы допускаемые погрешности средств измерений.

Диапазоном показаний называется область значений шкалы, ограниченная конечным и начальным значениями шкалы. В технических приборах, диапазон измерений и диапазон показаний, как правило, совпадают.

Нормирующее значение при вычислении основных и дополнительных погрешностей или пределов допускаемых погрешностей принимается равным:

· для средств измерений с односторонней шкалой (диапазоном преобразования) – верхнему пределу измерений. ;

· для средств измерений с двусторонней шкалой (диапазоном преобразования) – арифметической сумме верхнего и нижнего пределов измерений ;

· для средств измерений со шкалой без нуля (диапазоном преобразования) – разности верхнего и нижнего пределов измерений , т.е. диапазону измерений.

1.2. Метрологические характеристики средств измерения.

При оценке погрешностей технических измерений большое значение имеют метрологические характеристики средств измерения. Одной из таких характеристик является класс точности.

Классом точности называется обобщенная характеристика средства измерения, определяемая пределами допускаемых основных и дополнительных погрешностей, а также другими свойствами средств измерений, влияющих на точность. Однако класс точности не является непосредственным показателем точности измерений, выполняемых данным средством. Например, для измерительного прибора класса точности 1,5 предел допускаемой основной погрешности составляет ±1,5% диапазона измерения прибора, а действительное значение основной погрешности конкретного прибора может иметь значение, равное или меньшее ±1,5%.

Пределы допускаемых основной и дополнительной погрешностей средств измерений для каждого из классов точности должны устанавливаться в виде абсолютных приведенных или относительных погрешностей.

Основной погрешностью средства измерений называется погрешность средства измерений, используемого в нормальных условиях.

Под пределом допускаемой основной погрешности понимают наибольшую (по модулю) основную погрешность средства измерений, при которой оно может быть признано годным и допущено к применению.

Для способа нормирования погрешностей средств измерений приведенного выше, предел допускаемой основной погрешности показаний δ, выраженный в процентах нормирующего значения , совпадает с числом , принимаемым для обозначения класса точности средств измерений.

Если K – класс точности средства измерений, то пределы допускаемой основной абсолютной погрешности показаний определяются по формуле:

Под нормальными условиями применения средств измерений понимают условия, при которых влияющие величины (температура окружающего воздуха, барометрическое давление, влажность и т.д.) имеют нормальные значения или находятся в пределах нормальной области значений . Нормальные условия применения средств измерений обычно не являются рабочими условиями их применения. Поэтому для каждого вида средств измерений в стандартных или технических условиях устанавливают расширенную область значений влияющей величины, в пределах которой значение дополнительной погрешности (изменение показаний для измерительных приборов) не должно превышать установленных пределов.

Под пределом допускаемой дополнительной погрешности (изменением показаний) понимается наибольшая (по модулю) дополнительная погрешность (изменение показаний) вызываемая изменением влияющей величины в пределах расширенной области, при которой средство измерений может быть признано годным и допущено к применению. Дополнительные погрешности средств измерений или изменение показаний измерительных приборов, вызываемые изменением i-й влияющей величины на нормированное отклонение (или в пределах расширенной области), выражаются в виде приведенной погрешности в процентах нормирующего значения и определяется по формуле:

где — предел допускаемой дополнительной погрешности; – показания прибора или значение выходного сигнала преобразователя в данной точке шкалы (диапазона преобразования); – показание прибора или значение выходного сигнала преобразователя в данной точке шкалы (диапазона преобразования) при нормальном значении или нормальной области значений влияющей величины (принимается за действительное значение).

Терминам основная и дополнительная погрешности соответствуют фактические погрешности средств измерений, имеющие место при данных условиях.

Терминам пределы допускаемой дополнительной или основной погрешности соответствуют граничные погрешности, в пределах которых средства измерений по техническим требованиям могут считаться годными и быть допущенными к применению.

Все пределы допускаемых погрешностей устанавливаются для значений измеряемых величин, лежащих в пределах диапазона измерений прибора, а для измерительных преобразователей в пределах диапазона преобразования.

1.3. Оценка погрешностей измерительных систем при технических измерениях.

При технических измерениях, как правило, применяются измерительные цепи или системы, состоящие из нескольких средств измерения. Поэтому при оценке погрешностей измерения необходимо оценить погрешности измерительной системы. В общем виде система может быть представлена как последовательно соединенные первичный измерительный преобразователь (датчик), линия связи (или промежуточный преобразователь) и вторичный измерительный прибор (или аналогово-цифровой преобразователь перед входом в вычислительное устройство или машину).

Градуировочная характеристика каждого из преобразователей измерительной системы имеет вид . В частном случае она может иметь вид , где k –коэффициент преобразования. Каждый из преобразователей преобразует входной сигнал в выходной с погрешностью.

Оценка погрешности измерительной системы производится по пределам допускаемых основных и дополнительных погрешностей средств измерений, входящих в систему, определяемых их классом точности, т.е. фактически производится оценка погрешности сверху, определяются максимальные погрешности системы. Эта допустимая погрешность измерительной системы оценивается как корень квадратный из суммы квадратов пределов допустимых значений погрешностей.

Этот способ достаточно строг, если предельные погрешности независимы.

Вторичный прибор со шкалой А (указанной в задании) и диапазоном измерений и , ºС, класса точности K, имеет пределы допускаемой основной погрешности показаний который совпадает с числом K. , %. Определить пределы допускаемой основной абсолютной погрешности показаний при нормальный условиях (температура окружающего воздуха .

Для условий задания 1.1, определить изменение показаний прибора , возникающее вследствие отклонения температуры окружающего воздуха от нормальной области значений. Если измерительный прибор работает при температуре окружающего воздуха . Для данного прибора нормированный размер изменения показаний согласно стандарту составляет .

Терминология: Пределы допускаемой погрешности измерений

Пределы допускаемой погрешности измерений

Погрешность является одной из наиболее важных метрологических характеристик средства измерений (технического средства, предназначенного для измерений). Она соответствует разнице между показаниями средства измерений и истинным значением измеряемой величины. Чем меньше погрешность, тем более точным считается средство измерений, тем выше его качество. Наибольшее возможное значение погрешности для определенного типа средств измерений при определенных условиях (например, в заданном диапазоне значений измеряемой величины) называется пределом допускаемой погрешности. Обычно устанавливают пределы допускаемой погрешности, т.е. нижнюю и верхнюю границы интервала, за которые не должна выходить погрешность.

Как сами погрешности, так и их пределы, принято выражать в форме абсолютных, относительных или приведенных погрешностей. Конкретная форма выбирается в зависимости от характера изменения погрешностей в пределах диапазона измерений, а также от условий применения и назначения средств измерений. Абсолютную погрешность указывают в единицах измеряемой величины, а относительную и приведённую — обычно в процентах. Относительная погрешность может характеризовать качество средства измерения гораздо более точно, чем приведённая, о чем будет рассказано далее более подробно.

Связь между абсолютной (Δ), относительной (δ) и приведённой (γ) погрешностями определяется по формулам:

где X — значение измеряемой величины, XN — нормирующее значение, выраженное в тех же единицах, что и Δ. Критерии выбора нормирующего значения XN устанавливаются ГОСТ 8.401-80 в зависимости от свойств средства измерений, и обычно оно должно быть равно пределу измерений (XK), т.е.

Пределы допускаемых погрешностей рекомендуется выражать в форме приведённых в случае, если границы погрешностей можно полагать практически неизменными в пределах диапазона измерений (например, для стрелочных аналоговых вольтметров, когда границы погрешности определяются в зависимости от цены деления шкалы, независимо от значения измеряемого напряжения). В противном случае рекомендуется выражать пределы допускаемых погрешностей в форме относительных согласно ГОСТ 8.401-80.
Однако на практике выражение пределов допускаемых погрешностей в форме приведённых погрешностей ошибочно используется в случаях, когда границы погрешностей никак нельзя полагать неизменными в пределах диапазона измерений. Это либо вводит пользователей в заблуждение (когда они не понимают, что заданная таким образом в процентах погрешность считается вовсе не от измеряемой величины), либо существенно ограничивает область применения средства измерений, т.к. формально в этом случае погрешность по отношению к измеряемой величине возрастает, например, в десять раз, если измеряемая величина составляет 0,1 от предела измерений.
Выражение пределов допускаемых погрешностей в форме относительных погрешностей позволяет достаточно точно учесть реальную зависимость границ погрешностей от значения измеряемой величины при использовании формулы вида

где с и d — коэффициенты, d<c.

При этом в точке X=Xk пределы допускаемой относительной погрешности, рассчитанные по формуле (4), будут совпадать с пределами допускаемой приведенной погрешности

В точках X<Xk нельзя сравнивать непосредственно в процентах относительную и приведённую погрешности, потому что они считаются по отношению к разным значениям, но можно сравнить абсолютные значения погрешностей, выраженные в единицах измеряемой величины. Пределы допускаемой абсолютной погрешности (Δ1), рассчитанные по формуле (6), исходя из формул (1) и (4) для относительной погрешности, будут стремиться к значению, которое составляет (d/c)-ю часть от пределов допускаемой абсолютной погрешности (Δ2), рассчитанных по формуле (7), исходя из формул (3) и (5) для приведённой погрешности.

Нормирование погрешностей средств измерений

Нормирование метрологических характеристик средств измерений и заключается в установлении границ для отклонений реальных значений параметров средств измерений от их номинальных значений.

Каждому средству измерений приписываются некоторые номинальные характеристики. Действительные же характеристики средств измерений не совпадают с номинальными, что и определяет их погрешности.

Обычно нормирующее значение принимают равным:

  1. большему из пределов измерений, если нулевая отметка расположена на краю или вне диапазона измерения;
  2. сумме модулей пределов измерения, если нулевая отметка расположена внутри диапазона измерения;
  3. длине шкалы или её части, соответствующей диапазону измерения, если шкала существенно неравномерна (например, у омметра);
  4. номинальному значению измеряемой величины, если таковое установлено (например, у частотомера с номинальным значением 50 Гц);
  5. модулю разности пределов измерений, если принята шкала с условным нулём (например, для температуры), и т.д.

Чаще всего за нормирующее значение принимают верхний предел измерений данного средства измерений.

Отклонения параметров средств измерений от их номинальных значений, вызывающие погрешность измерений, не могут быть указаны однозначно, поэтому для них должны быть установлены предельно допускаемые значения.

Указанное нормирование является гарантией взаимозаменяемости средств измерений.

Нормирование погрешностей средств измерений заключается в установлении предела допускаемой погрешности.

Под этим пределом понимается наибольшая (без учёта знака) погрешность средства измерения, при которой оно может быть признано годным и допущено к применению.

Подход к нормированию погрешностей средств измерений заключается в следующем:

  1. в качестве норм указывают пределы допускаемых погрешностей, включающие в себя и систематические, и случайные составляющие;
  2. порознь нормируют все свойства средств измерений, влияющие на их точность.

Стандарт устанавливает ряды пределов допускаемых погрешностей. Этой же цели служит установление классов точности средств измерений.

Классы точности средств измерений

Класс точности – это обобщенная характеристика СИ , выражаемая пределами допускаемых значений его основной и дополнительной погрешностей, а также другими характеристиками, влияющими на точность . Класс точности не является непосредственной оценкой точности измерений, выполняемых этим СИ , поскольку погрешность зависит еще от ряда факторов: метода измерений, условий измерений и т.д. Класс точности лишь позволяет судить о том, в каких пределах находится погрешность СИ данного типа. Общие положения деления средств измерений по классу точности устанавливает ГОСТ 8.401–80.

Пределы допускаемой основной погрешности, определяемые классом точности, – это интервал , в котором находится значение основной погрешности СИ .

Классы точности СИ устанавливаются в стандартах или технических условиях. Средство измерения может иметь два и более класса точности. Например, при наличии у него двух или более диапазонов измерений одной и той же физической величины ему можно присваивать два или более класса точности. Приборы, предназначенные для измерения нескольких физических величин, также могут иметь различные классы точности для каждой измеряемой величины.

Пределы допускаемых основной и дополнительной погрешностей выражают в форме приведенных, относительных или абсолютных погрешностей. Выбор формы представления зависит от характера изменения погрешностей в пределах диапазона измерений, а также от условий применения и назначения СИ .

Пределы допускаемой абсолютной основной погрешности устанавливаются по одной из формул: $\Delta=\pm a$или $\Delta=\pm (a+bx)$, где x – значение измеряемой величины или число делений, отсчитанное по шкале; a, b – положительные числа, не зависящие от х. Первая формула описывает чисто аддитивную погрешность , а вторая – сумму аддитивной и мультипликативной погрешностей.

В технической документации классы точности, установленные в виде абсолютных погрешностей, обозначают, например, » Класс точности М», а на приборе – буквой «М». Для обозначения используются прописные буквы латинского алфавита или римские цифры, причём меньшие пределы погрешностей должны соответствовать буквам, находящимся ближе к началу алфавита, или меньшим цифрам. Пределы допускаемой приведенной основной погрешности определяются по формуле $\gamma=\Delta/x_<N>=\pm p$» />, где x<sub>N</sub> – нормирующее значение , выраженное в тех же единицах, что и <img decoding=; p – отвлеченное положительное число, выбираемое из ряда значений:

(1;\quad 1,5;\quad 2;\quad 2,5;\quad 4;\quad 5;\quad 6)\cdot10^<n>;\qquad\qquad n =1;\quad 0;\quad -1;\quad — 2;\quad\ldots.» /></p>
<p>Нормирующее значение x<sub>N</sub> устанавливается равным большему из пределов измерений (или модулей) для СИ с равномерной, практически равномерной или степенной шкалой и для измерительных преобразователей, для которых нулевое значение выходного сигнала находится на краю или вне диапазона измерений. Для СИ , шкала которых имеет условный нуль, равно модулю разности пределов измерений.</p>
<p>Для приборов с существенно неравномерной шкалой x<sub>N</sub> принимают равным всей длине шкалы или ее части, соответствующей диапазону измерении. В этом случае пределы абсолютной погрешности выражают, как и длину шкалы, в единицах длины, а на средстве измерений класс точности условно обозначают, например, в виде значка <img decoding=, где 0,5 – значение числа р (рис. 3.1).

Лицевая панель фазометра класса точности 0,5 с существенно неравномерной нижней шкалой

В остальных рассмотренных случаях класс точности обозначают конкретным числом р, например 1,5. Обозначение наносится на циферблат, щиток или корпус прибора (рис. 3.2).

Лицевая панель амперметра класса точности 1,5 с равномерной шкалой

В том случае если абсолютная погрешность задается формулой $\pm (a+bx)$, пределы допускаемой относительной основной погрешности

\delta=\Delta/x=\pm[c+d(|x_<k>/x|-1)]» /></td>
<td valign=( 3.1)

где с, d – отвлеченные положительные числа, выбираемые из ряда: $(1;\quad 1,5;\quad 2;\quad 2,5;\quad 4;\quad 5;\quad 6)\cdot10^<n>;\quad n=1;\quad 0;\quad -1;\quad — 2;\quad\ldots$» />; – больший (по модулю) из пределов измерений. При использовании формулы 3.1 класс точности обозначается в виде «0,02/0,01», где числитель – конкретное значение числа с, знаменатель – числа d (рис. 3.3).</p>
<p><img decoding=

Пределы допускаемой относительной основной погрешности определяются по формуле $\delta=\Delta x=\pm q$, если $\Delta=\pm a$. Значение постоянного числа q устанавливается так же, как и значение числа p . Класс точности на прибор обозначается в виде , где 0,5 – конкретное значение q (рис. 3.4).

Лицевая панель мегаомметра класса точности 2,5 с неравномерной шкалой

В стандартах и технических условиях на СИ указывается минимальное значение x0, начиная с которого применим принятый способ выражения пределов допускаемой относительной погрешности. Отношение xk/x0 называется динамическим диапазоном измерения.

Правила построения и примеры обозначения классов точности в документации и на средствах измерений приведены в таблице 3.1.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *