Уважаемые метрологи, подскажите пожалуйста.
Верно ли я понял относительную и абсолютную погрешность дискретности в задаче: Цифровой измеритель временных интервалов (время – импульсное преобразование) имеет погрешность ±1 единица младшего разряда кода. Определить абсолютную и относительную погрешность дискретности, если измеряемый отрезок времени 3мс, а частота следования счетных импульсов – 1МГц.
1мГц = 1*10-6сек= ±0,000006 сек – абсолютная погрешность
3мс=3*10-3 сек = ±0,003 сек – относительная погрешность
Или в данной задаче нужно применять формулы:
Относительная погрешность = отношение абсолютной погрешности к тому значению, которое принимается за истинное.
Абсолютная погрешность = алгебраическая разность между номинальным и действительным значениями измеряемой величины.
Если не верно, подскажите пожалуйста, в как нужно было?
С Уважением, Виктор.