АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Погрешности средств измерений

Читайте также:
  1. A) товаров и услуг, средств производства
  2. A. Какова непосредственная причина возникновения этой аномалии?
  3. FRSPSPEC (Ф. Распределение средств.Статьи)
  4. I. Решение логических задач средствами алгебры логики
  5. I. СРЕДСТВА ПРОИЗВОДСТВА
  6. I. Средства, влияющие на аппетит
  7. I.Описание оборудования для проведения измерений
  8. II этап: Решение задачи на ЭВМ средствами пакета Excel
  9. II. Моё - Деньги, материальные средства, заработки, траты, энергия
  10. II. РАСПРЕДЕЛЕНИЕ ЛЕКАРСТВЕННЫХ СРЕДСТВ В ОРГАНИЗМЕ. БИОЛОГИЧЕСКИЕ БАРЬЕРЫ. ДЕПОНИРОВАНИЕ
  11. II. Собственные средства банка
  12. III. Движение денежных средств от финансовой деятельности

При любом измерении имеется погрешность, представляющая собой отклонение результата измерения от истинного значения измеряемой величины. На рисунке 1.8 приведена классификация погрешностей средств измерений по ряду признаков.

 

Рис. 1.8. Классификация погрешностей измерительных устройств

 

Систематическая погреш­ность – составляющая погрешности измерения, остающаяся постоян­ной или закономерно изменяющаяся при повторных измерениях одной и той же величины. По характеру проявления систематические погрешно­сти разделяются на постоянные и переменные. Переменные в свою оче­редь могут быть прогрессирующими, периодическими и изменяющимися по сложному закону.

Для исключения систематической погрешности наибольшее распространение в практике получил метод поправок.

Случайная составляющая погрешности при повторных измерениях одной и той же величины изменяется случай­ным образом. Обычно она является следствием одновременного действия многих независимых причин, каждая из которых в отдельности мало вли­яет на результат измерения. Случайные погрешности не могут быть иск­лючены из результата измерения, но теория вероятности и математиче­ская статистика позволяют оценить результат измерения при наличии случайных погрешностей. Они характеризуются свойствами, которые формулируют двумя аксиомами:

  1. Аксиома случайности — при очень большом числе измерений слу­чайные погрешности, равные по величине и различные по знаку, встреча­ются одинаково часто. Число отрицательных погрешностей равно числу положительных.
  2. Аксиома распределения — малые погрешности встречаются чаще, чем большие. Очень большие погрешности не встречаются.

Случайные погрешности рассматриваются как случайные величины, подчиняющиеся некоторому симметричному закону распределения.

Основной погрешностью называют погрешность при использовании средства измерений в нормальных условиях. Нормальными условиями применения средств измерений называют условия, при которых влияющие величины имеют номинальные значения или находятся в пределах нормальной области значений. Нормальные условия применения указываются в стандартах или технических условиях на средства измерений. При использовании средств измерений в нормальных условиях считают, что влияющие на них величины практически никак не изменяют их характеристики.

Дополнительной погрешностью измерительного преобразователя (или изменением показаний измерительного прибора) называют из­менение его погрешности, вызванной отклонением одной из влияю­щих величин от ее нормативного значения или выходом ее за пре­делы нормальной области значений. Дополнительная погрешность может быть вызвана изменением сразу нескольких влияющих ве­личин.

Изменение погрешности, как и других характеристик и парамет­ров измерительных устройств под действием влияющих величин, описывается функциями влияния.

Иными словами, дополнительная погрешность – это часть по­грешности, которая добавляется (имеется в виду алгебраическое сложение) к основной в случаях, когда измерительное устройство применяется в рабочих условиях. Рабочие условия обычно таковы, что изменения значений влияющих величин для них существенно больше, чем для нормальных условий, т. е. область рабочих (часть этой области называют расширенной областью) условий включает в себя область нормальных условий.

В некоторых случаях основная погрешность измерительных уст­ройств определяется для рабочей области изменения значений влияющих величин. В этих случаях понятие дополнительной по­грешности теряет смысл.

В зависимости от режима применения различают статическую и динамическую погрешности измерительных устройств.

По форме представления принято различать абсолютную, отно­сительную и приведенную погрешности измерительных устройств. У измерительных приборов имеется шкала, отградуированная в единицах входной величины, либо шкала, отградуированная в условных единицах с известным множителем шкалы, поэтому результат измерения представляется в единицах входной величины. Это обусловливает простоту опре­деления погрешности измерительных приборов.

Абсолютной погрешностью измерительного прибора Δ называют разность показаний прибора ХП и истинного (действительного) ХД значения измеряемой величины:

Действительное значение определяется с помощью образцового при­бора или воспроизводится мерой.

Относительной погрешностью измерительного прибора называют отношение абсолютной погрешности измерительного прибора к действительному значению измеряемой величины. Относительную погрешность выражают в процентах:

.

Так как Δ << XД или ХП, то в вышеприведенном выражении вместо значения XД может быть использовано значение XП.

Приведенной погрешностью измерительного прибора называют отношение абсолютной погрешности измерительного прибора к нор­мирующему значению ХN. Приведенную погрешность также выра­жают в процентах:

.

В качестве нормирующего значения используется верхний предел измерений, диапазон измерений и др., т. е.

.

Средства измерений могут использоваться в статическом или динамическом режиме работы. В статическом режиме измеряемая величина не изменяется во времени, а отсчет выполняется тогда, когда практически окончены переходные процессы, вызванные подключением измеряемой величины ко входу средства измерений. В динамическом режиме измеряемая величина изменяется во времени. В соответствии с этим различают статическую погрешность средства измерений и погрешность средства измерений в динамическом режиме.

Очевидно, что погрешность средства измерений в динамическом режиме включает в себя статическую погрешность и погрешность, обусловленную инерционностью средства измерений. Последняя погрешность носит название динамической погрешности средства измерений и определя­йся как разность между погрешностью средства измерений в динамическом режиме и его статической погрешностью, соответствующей значению величины в данный момент времени.

При анализе погрешностей средств измерений и выборе способов их уменьшения весьма важным является разделение погрешностей по их зависимости от значения измеряемой (преобразуемой) величины. По этому признаку, погрешности делятся на аддитивные, мультипликативные, линейности и гистерезиса.

Аддитивную погрешность иногда называют погрешностью нуля, а мультипликативную – погрешностью чувствительности. Реально погрешность средства измерений включает в себя обе указанные составляющие.

Кроме того, номинальная функция преобразования средства измерений – это в большинстве случаев более простая функция (обычно линейная), чем градуировочная характеристика.

Графически образование перечисленных погрешностей показано на рисунке 1.9.

Рис. 1.9. Реальные функции преобразования измерительных устройств

 

Аддитивная погрешность постоянна при всех значениях измеряемой величины (рисунок 1.9, а). На рисунке видно, что реальная функция преобразования несколько смещена относительно номинальной , т. е. выходной сигнал измерительного устройства при всех значе­ниях измеряемой величины X будет больше (или меньше) на одну и ту же величину, чем он должен быть, в соответствии с номиналь­ной функцией преобразования.

Если аддитивная погрешность является систематической, то она может быть устранена. Для этого в измерительных устройствах обычно имеется специальный настроечный узел (корректор) нуле­вого значения выходного сигнала.

Если аддитивная погрешность является случайной, то ее нельзя исключить, а реальная функция преобразования смещается по от­ношению к номинальной во времени произвольным образом. При этом для реальной функции преобразования можно определить некоторую полосу (рисунок 1.9, б), ширина которой остается постоянной при всех значениях измеряемой величины.

Возникновение случайной аддитивной погрешности обычно вы­звано трением в опорах, контактными сопротивлениями, дрейфом нуля, шумом и фоном измерительного устройства.

Мультипликативной (получаемой путем умножения), или по­грешностью чувствительности измерительных устройств, называют погрешность, которая линейно возрастает (или убывает) с увели­чением измеряемой величины.

Графически появление мультипликативной погрешности интер­претируется поворотом реальной функции преобразования относи­тельно номинальной (рисунок 1.9, в). Если мультипликативная погреш­ность является случайной, то реальная функция преобразования представляется полосой, показанной на рисунке 1.9 (г). Причиной воз­никновения мультипликативной погрешности обычно является из­менение коэффициентов преобразования отдельных элементов и узлов измерительных устройств.

На рисунке 1.9 (д) показано взаимное расположение номинальной и реальной функций преобразования измерительного устройства в случае, когда отличие этих функций вызвано нелинейными эффек­тами. Если номинальная функция преобразования линейная, то вызванную таким расположением реальной функции преобразова­ния систематическую погрешность называют погрешностью линей­ности. Причинами данной погрешности могут быть конструкция (схема) измерительного устройства и нелинейные искажения функ­ции преобразования, связанные с несовершенством технологии про­изводства.

Зависимость вход-выход измерительных приборов без учета гистерезиса и ухода нуля может быть представлена в виде:

,

где xвх – измеряемая (входная) величина, yвых – выходная величина, a0, a1, …, an – градуировочные коэффициенты.

Реальная функция преобразования может быть представлена линией, примыкающей к прямой a0xвх (номинальная функция преобразования) (рисунок 1.10).

Рис. 1.10. Типичные градуировочные кривые: а – линейная; б – нелиней­ная при наличии в уравнении преобразования четных степеней xвх; в - не­линейная при наличии в уравнении преобразования нечетных степеней xвх; г – нелинейная при наличии в уравнении преобразования четных и нечет­ных степеней xвх.

 

Симметричная кривая (рисунок 1.10, в), описываемая уравнением с нечетными степенями xвх, наиболее желательна с точки зрения линейности. Как будет показано ниже, нелинейные, но симметричные кривые двух чувствительных элементов, включенных дифференциально, дают улучшение линейности путем исключения членов xвх с четными степенями.

Наиболее существенной и трудноустранимой систематической погрешностью измерительных устройств является погрешность ги­стерезиса (от греч. hysteresis – запаздывание), или погрешность обратного хода, выражающаяся в несовпадении реальной функции преобразования измерительного устройства при увеличении (пря­мой ход) и уменьшении (обратный ход) измеряемой величины (рисунок 1.9, е). Причинами гистерезиса являются: люфт и сухое тре­ние в механических передающих элементах, гистерезисный эффект в ферромагнитных материалах, внутреннее трение в материалах пружин, явление упругого последействия в упругих чувствительных элементах, явление поляризации в электрических, пьезоэлектриче­ских и электрохимических элементах и др. Существенным при этом является тот факт, что форма получаемой петли реальной функции преобразования зависит от предыстории, а именно от значения из­меряемой величины, при котором после постепенного увеличения последней начинается ее уменьшение (на рисунке 1.9, е, это показано пунктирными линиями).

В цифровых (ЦИП) квантование по уровню и времени осуществляется путем замены через время Δt (шаг квантования) значений непрерывной функции ближайшим дискретным уровнем с шагом Q. При этом максимальная погрешность от квантования составит
Δкв = ± Q/2.

Приведенная погрешность определяется по формуле:

,

где ПД – полный диапазон измеряемой величины.

,

где N – число уровней квантования (интервалов).

.

Например, измеряет напряжение в диапазоне 0..150 В с γ = 0,1 %. Для определения шага квантования запишем:

.

 


1 | 2 | 3 | 4 | 5 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.006 сек.)