Dokładność, precyzja i błąd procentowy muszą być wzięte razem, aby pomiar miał sens. Jako naukowiec i statystyk musiałbym powiedzieć, że nie ma górnej granicy na „błąd procentowy”. Jest tylko konieczny (ludzki) osąd, czy dane, do których się odnosi, mogą być użyteczne, czy nie.
Dokładność i precyzja są nieodłączne w projektach pomiarowych. Są one tym, czym są, i mogą być poprawione tylko przez ulepszenie urządzenia. Wielokrotne pomiary mogą poprawić dokładność statystyki pomiaru, ale nie mogą poprawić nieodłącznego błędu pomiaru. Błąd procentowy jest obliczany jako zakres odchylenia pomiaru od ostatniego, najlepiej ustalonego punktu metrycznego.
Na przykład, mogę mieć rzeczywisty, PRIMARY standardowy pręt miernika. Ale, bez skalibrowanych sub-intervals mogę naukowo tylko zrobić „dokładne” pomiary do +/- 1 metra. Naprawdę nie mogę ufać moim oczom (zwłaszcza w porównaniu z oczami innych), aby dokładnie określić nawet ¼ metra.
Mój pomiar 0,5 metra zawiera błąd, ponieważ nie ma rzeczywistego znaku odniesienia 0,5 metra. Tak więc, w porównaniu do mojego dokładnego miernika, mój pomiar 0,5 metra ma 0,5/1 * 100 = 50% błędu. To jest całkiem sporo fizycznej rzeczywistości dla każdego przedziału pomiarowego. Nawet tam jesteśmy zakładając, że nasza ostrość widzenia jest naprawdę w stanie znaleźć ten „punkt środkowy” między dwoma innymi znakami.
Precyzja ma do czynienia z tym, jak konsekwentnie urządzenie dostarcza tę samą wartość dla tego samego pomiaru. Jest to zazwyczaj funkcja konstrukcji i użytkowania urządzenia. Dokładność jest jak blisko do „prawdziwej” wartości jest wartość mierzona. To często wiąże się z kalibracją urządzenia. Błąd procentowy jest tylko określeniem, jak możliwe wartości mogą odbiegać od „prawdziwej” wartości z powodu ograniczeń urządzenia metrycznego i jego zastosowania.
.