Wprowadzenie do dokładności multimetru cyfrowego
Dokładność odnosi się do maksymalnego dopuszczalnego błędu w określonym środowisku użytkowania. Innymi słowy, precyzja służy do wskazywania
Bliskość między zmierzoną wartością multimetru cyfrowego a rzeczywistą wartością mierzonego sygnału.
W przypadku multimetrów cyfrowych dokładność jest zwykle wyrażana jako procent odczytu. Na przykład znaczenie 1-procentowej dokładności odczytu jest następujące: gdy wyświetlacz multimetru cyfrowego pokazuje 100.{6}}V, rzeczywiste napięcie może wynosić od 99,0 V do 101,0 V .
Do podstawowej precyzji w specyfikacji mogą zostać dodane określone wartości. Jego znaczenie to liczba słów, które należy dodać, aby przekształcić skrajny prawy koniec wyświetlacza. W poprzednim przykładzie dokładność można określić jako ±(1 procent plus 2). Dlatego jeśli GMM odczyta 1{3}}0,0 V, rzeczywiste napięcie będzie się mieścić w przedziale od 98,8 V do 101,2 V.
Dokładność miernika analogowego jest obliczana na podstawie błędu pełnej skali, a nie wyświetlanego odczytu. Typowa dokładność mierników analogowych wynosi ±2 procent lub ±3 procent pełnej skali. Typowa podstawowa dokładność multimetru cyfrowego wynosi od ±(0,7 procent plus 1) do ±(0,1 procent plus 1) odczytu lub nawet więcej.
