К сожалению, какими бы качественными не были приборы, все они имеют определенную погрешность. Погрешность - отклонение показания прибора от истинного значения измеряемой величины. Причин возникновения погрешностей очень много, часть из них обусловлена неидеальностью приборов и людей, часть имеет фундаментальную природу и не могут быть устранены никакими способами.
При обучении метрологов им подробно рассказывают какие конкретно причины возникновения погрешностей при тех или иных видах измерений возникают и как с ними бороться. Сейчас мы этих тонкостей касаться не будем и приведем самую общую классификацию. Так же не будем касаться погрешностей, непосредственно не связанных с измерительной техникой.
По временной стабильности погрешность делят на систематическую и случайную, иногда выделяют прогрессирующую. Систематическая погрешность все время одинаковая и, при условии того, что мы её знаем, мы можем её просто исключить. Поэтому обычный калиброванный цифровой прибор не должен иметь заметной систематической погрешности - она должна уйти при калибровке.
А вот в "эталонных" приборах все значительно сложнее - легко может возникнуть ситуация, что их просто нечем калибровать, т.к. более точных приборов просто нет...
Случайная погрешность вызвана воздействием постоянно меняющихся факторов, поэтому она меняется от разу к разу и скомпенсировать её невозможно (но в большинстве случаев можно уменьшить, более тщательно сконструировав прибор).
Прогрессирующая погрешность тоже изменяется со временем, но очень медленно, например из-за старения приборов или воздействия факторов окружающей среды.
По способу оценки погрешность бывает абсолютной и относительной. Абсолютная - это непосредственно разность между измеряемой величиной и истинным значением, относительная - отношение этой разницы к измеряемой величине (чаще всего, выраженная в процентах).
Внимательный читатель тут же заметит подвох - каким образом мы можем определить погрешность, если собственно истинное значение величины не знаем и не узнаем никогда? Вопрос и очень сложный и довольно простой одновременно. Очень сложно определить погрешность эталона, этому посвящены многочисленные фундаментальные работы, защищено множество диссертаций. В ряде случаев точность эталона приходилось даже просто постулировать, как до недавнего времени было с эталоном килограмма. А вот после того, как мы определили точность эталона, становиться намного проще, мы можем не знать истинное значение, но можем с высокой степенью уверенности утверждать, что знаем его максимальное и минимальное значение, соответственно мы можем сказать, какая у нас максимально возможная погрешность проверяемого прибора:
Заметим, что мы определяем здесь не саму погрешность как таковую, а максимальную её практическую оценку. Сама по себе ошибка _почти_ всегда меньше.
Относительная погрешность удобна в двух аспектах - во первых, она позволяет сравнить точности измерений у разных приборов или в разных диапазонах, во вторых многие типы погрешностей проявляют себя именно в относительных величинах. Например такой характер будет носить погрешность от неточности делителя входной цепи или неточности шунта в амперметре. Если погрешности велики, как в большинстве стрелочных приборов, то способ выражения погрешности большой роли не играет. А вот если погрешность малая, то составляющие приходится считать отдельно, обычно в инструкции указывают что-то типа "0,5% + 3 е.м.р.". Это означает, что для того, чтобы узнать максимальную ошибку измерения надо взять 0,5% от измеренной величины и прибавить к данной ошибке еще 3 единицы младшего разряда.
Например, прибор показывает 1,950 В, единица младшего разряда в данном случае 0,001 В. Суммарная ошибка составит (1,950 В * 0,5% / 100%)+(0,001 В * 3) = 0,01275 В, т.е. реальное напряжение находится в пределах от 1,93725 до 1,96275 Вольт. Практически считать точнее, чем показывает прибор, смысла нет, поэтому мы можем принять интервал, в котором находится истинное значение, за 1,937 - 1,963 Вольт (в подавляющем большинстве случаев такой точности более чем достаточно).
Теперь сравним два прибора с точностью (0,5% + 3 е.м.р.) и (0,8% + 1 е.м.р.). Первый прибор кажется точнее, но на самом деле это зависит от разрядности дисплея и даже измеренного напряжения! Допустим приборы показывают напряжение 1,000 Вольт. В первом приборе диапазон результат измерения будет (1,000 ± 0,008) В, во втором - (1,000 ± 0,009)В, т.е. первый прибор показывает точнее. А если измеренное напряжение равно 0,670 В (максимальное отображаемое число у большинства мультиметров 2000-4000, реже 6000-6600, поэтому отобразить 670,0 мВ они просто не смогут и перейдут на более высокий предел), то результат первого мультиметра будет (0,670 В ± 6,35 мВ) , а у второго (0,670 В ± 6,36 мВ), т.е. их точности практически сравнялись. Если предположить, что дисплей первого может отображать максимальное значение 4000, а второй 6000, то при измерении 0,5 вольт получиться у первого прибора (0,500 В ± 5,5 мВ), а у второго (500,0 ± 5,0) мВ, т.е. точность второго оказалась выше.
Ставьте лайки, делайте репосты и не забывайте заземлять!
Подписывайтесь на наш канал!
Всем читателям нашего блога - Скидка в нашем интернет-магазине на люксметры по промокоду ZENPROFIT