|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Погрешности средств измеренийПри любом измерении имеется погрешность, представляющая собой отклонение результата измерения от истинного значения измеряемой величины. На рисунке 1.8 приведена классификация погрешностей средств измерений по ряду признаков.
Рис. 1.8. Классификация погрешностей измерительных устройств
Систематическая погрешность – составляющая погрешности измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. По характеру проявления систематические погрешности разделяются на постоянные и переменные. Переменные в свою очередь могут быть прогрессирующими, периодическими и изменяющимися по сложному закону. Для исключения систематической погрешности наибольшее распространение в практике получил метод поправок. Случайная составляющая погрешности при повторных измерениях одной и той же величины изменяется случайным образом. Обычно она является следствием одновременного действия многих независимых причин, каждая из которых в отдельности мало влияет на результат измерения. Случайные погрешности не могут быть исключены из результата измерения, но теория вероятности и математическая статистика позволяют оценить результат измерения при наличии случайных погрешностей. Они характеризуются свойствами, которые формулируют двумя аксиомами:
Случайные погрешности рассматриваются как случайные величины, подчиняющиеся некоторому симметричному закону распределения. Основной погрешностью называют погрешность при использовании средства измерений в нормальных условиях. Нормальными условиями применения средств измерений называют условия, при которых влияющие величины имеют номинальные значения или находятся в пределах нормальной области значений. Нормальные условия применения указываются в стандартах или технических условиях на средства измерений. При использовании средств измерений в нормальных условиях считают, что влияющие на них величины практически никак не изменяют их характеристики. Дополнительной погрешностью измерительного преобразователя (или изменением показаний измерительного прибора) называют изменение его погрешности, вызванной отклонением одной из влияющих величин от ее нормативного значения или выходом ее за пределы нормальной области значений. Дополнительная погрешность может быть вызвана изменением сразу нескольких влияющих величин. Изменение погрешности, как и других характеристик и параметров измерительных устройств под действием влияющих величин, описывается функциями влияния. Иными словами, дополнительная погрешность – это часть погрешности, которая добавляется (имеется в виду алгебраическое сложение) к основной в случаях, когда измерительное устройство применяется в рабочих условиях. Рабочие условия обычно таковы, что изменения значений влияющих величин для них существенно больше, чем для нормальных условий, т. е. область рабочих (часть этой области называют расширенной областью) условий включает в себя область нормальных условий. В некоторых случаях основная погрешность измерительных устройств определяется для рабочей области изменения значений влияющих величин. В этих случаях понятие дополнительной погрешности теряет смысл. В зависимости от режима применения различают статическую и динамическую погрешности измерительных устройств. По форме представления принято различать абсолютную, относительную и приведенную погрешности измерительных устройств. У измерительных приборов имеется шкала, отградуированная в единицах входной величины, либо шкала, отградуированная в условных единицах с известным множителем шкалы, поэтому результат измерения представляется в единицах входной величины. Это обусловливает простоту определения погрешности измерительных приборов. Абсолютной погрешностью измерительного прибора Δ называют разность показаний прибора ХП и истинного (действительного) ХД значения измеряемой величины: Действительное значение определяется с помощью образцового прибора или воспроизводится мерой. Относительной погрешностью измерительного прибора называют отношение абсолютной погрешности измерительного прибора к действительному значению измеряемой величины. Относительную погрешность выражают в процентах: . Так как Δ << XД или ХП, то в вышеприведенном выражении вместо значения XД может быть использовано значение XП. Приведенной погрешностью измерительного прибора называют отношение абсолютной погрешности измерительного прибора к нормирующему значению ХN. Приведенную погрешность также выражают в процентах: . В качестве нормирующего значения используется верхний предел измерений, диапазон измерений и др., т. е. . Средства измерений могут использоваться в статическом или динамическом режиме работы. В статическом режиме измеряемая величина не изменяется во времени, а отсчет выполняется тогда, когда практически окончены переходные процессы, вызванные подключением измеряемой величины ко входу средства измерений. В динамическом режиме измеряемая величина изменяется во времени. В соответствии с этим различают статическую погрешность средства измерений и погрешность средства измерений в динамическом режиме. Очевидно, что погрешность средства измерений в динамическом режиме включает в себя статическую погрешность и погрешность, обусловленную инерционностью средства измерений. Последняя погрешность носит название динамической погрешности средства измерений и определяйся как разность между погрешностью средства измерений в динамическом режиме и его статической погрешностью, соответствующей значению величины в данный момент времени. При анализе погрешностей средств измерений и выборе способов их уменьшения весьма важным является разделение погрешностей по их зависимости от значения измеряемой (преобразуемой) величины. По этому признаку, погрешности делятся на аддитивные, мультипликативные, линейности и гистерезиса. Аддитивную погрешность иногда называют погрешностью нуля, а мультипликативную – погрешностью чувствительности. Реально погрешность средства измерений включает в себя обе указанные составляющие. Кроме того, номинальная функция преобразования средства измерений – это в большинстве случаев более простая функция (обычно линейная), чем градуировочная характеристика. Графически образование перечисленных погрешностей показано на рисунке 1.9. Рис. 1.9. Реальные функции преобразования измерительных устройств
Аддитивная погрешность постоянна при всех значениях измеряемой величины (рисунок 1.9, а). На рисунке видно, что реальная функция преобразования несколько смещена относительно номинальной , т. е. выходной сигнал измерительного устройства при всех значениях измеряемой величины X будет больше (или меньше) на одну и ту же величину, чем он должен быть, в соответствии с номинальной функцией преобразования. Если аддитивная погрешность является систематической, то она может быть устранена. Для этого в измерительных устройствах обычно имеется специальный настроечный узел (корректор) нулевого значения выходного сигнала. Если аддитивная погрешность является случайной, то ее нельзя исключить, а реальная функция преобразования смещается по отношению к номинальной во времени произвольным образом. При этом для реальной функции преобразования можно определить некоторую полосу (рисунок 1.9, б), ширина которой остается постоянной при всех значениях измеряемой величины. Возникновение случайной аддитивной погрешности обычно вызвано трением в опорах, контактными сопротивлениями, дрейфом нуля, шумом и фоном измерительного устройства. Мультипликативной (получаемой путем умножения), или погрешностью чувствительности измерительных устройств, называют погрешность, которая линейно возрастает (или убывает) с увеличением измеряемой величины. Графически появление мультипликативной погрешности интерпретируется поворотом реальной функции преобразования относительно номинальной (рисунок 1.9, в). Если мультипликативная погрешность является случайной, то реальная функция преобразования представляется полосой, показанной на рисунке 1.9 (г). Причиной возникновения мультипликативной погрешности обычно является изменение коэффициентов преобразования отдельных элементов и узлов измерительных устройств. На рисунке 1.9 (д) показано взаимное расположение номинальной и реальной функций преобразования измерительного устройства в случае, когда отличие этих функций вызвано нелинейными эффектами. Если номинальная функция преобразования линейная, то вызванную таким расположением реальной функции преобразования систематическую погрешность называют погрешностью линейности. Причинами данной погрешности могут быть конструкция (схема) измерительного устройства и нелинейные искажения функции преобразования, связанные с несовершенством технологии производства. Зависимость вход-выход измерительных приборов без учета гистерезиса и ухода нуля может быть представлена в виде: , где xвх – измеряемая (входная) величина, yвых – выходная величина, a0, a1, …, an – градуировочные коэффициенты. Реальная функция преобразования может быть представлена линией, примыкающей к прямой a0xвх (номинальная функция преобразования) (рисунок 1.10). Рис. 1.10. Типичные градуировочные кривые: а – линейная; б – нелинейная при наличии в уравнении преобразования четных степеней xвх; в - нелинейная при наличии в уравнении преобразования нечетных степеней xвх; г – нелинейная при наличии в уравнении преобразования четных и нечетных степеней xвх.
Симметричная кривая (рисунок 1.10, в), описываемая уравнением с нечетными степенями xвх, наиболее желательна с точки зрения линейности. Как будет показано ниже, нелинейные, но симметричные кривые двух чувствительных элементов, включенных дифференциально, дают улучшение линейности путем исключения членов xвх с четными степенями. Наиболее существенной и трудноустранимой систематической погрешностью измерительных устройств является погрешность гистерезиса (от греч. hysteresis – запаздывание), или погрешность обратного хода, выражающаяся в несовпадении реальной функции преобразования измерительного устройства при увеличении (прямой ход) и уменьшении (обратный ход) измеряемой величины (рисунок 1.9, е). Причинами гистерезиса являются: люфт и сухое трение в механических передающих элементах, гистерезисный эффект в ферромагнитных материалах, внутреннее трение в материалах пружин, явление упругого последействия в упругих чувствительных элементах, явление поляризации в электрических, пьезоэлектрических и электрохимических элементах и др. Существенным при этом является тот факт, что форма получаемой петли реальной функции преобразования зависит от предыстории, а именно от значения измеряемой величины, при котором после постепенного увеличения последней начинается ее уменьшение (на рисунке 1.9, е, это показано пунктирными линиями). В цифровых (ЦИП) квантование по уровню и времени осуществляется путем замены через время Δt (шаг квантования) значений непрерывной функции ближайшим дискретным уровнем с шагом Q. При этом максимальная погрешность от квантования составит Приведенная погрешность определяется по формуле: , где ПД – полный диапазон измеряемой величины. , где N – число уровней квантования (интервалов). . Например, измеряет напряжение в диапазоне 0..150 В с γ = 0,1 %. Для определения шага квантования запишем: .
Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.006 сек.) |