Nøjagtighed, præcision og procentvis fejl skal alle tages sammen for at give mening til en måling. Som videnskabsmand og statistiker må jeg sige, at der ikke er nogen øvre grænse for en “procentfejl”. Der er kun den nødvendige (menneskelige) vurdering af, om de data, der henvises til, kan være nyttige eller ej.
Rigtighed og præcision er iboende i målekoncepter. De er, hvad de er, og kan kun forbedres ved at forbedre apparatet. Flere målinger kan forbedre nøjagtigheden af statistikken for en måling, men de kan ikke forbedre den iboende målefejl. Den procentvise fejl beregnes som afvigelsesområdet for en måling i forhold til det sidste, bedste faste metriske punkt.
For eksempel kan jeg have den faktiske, PRIMÆRE standardmeterstang. Men uden kalibrerede delintervaller kan jeg videnskabeligt set kun foretage “nøjagtige” målinger til +/- 1 meter. Jeg kan virkelig ikke stole på mine øjne (især ikke sammenlignet med andres) til at definere selv ¼-meter nøjagtigt.
Min 0,5-meter-måling indeholder fejl, fordi der ikke findes et egentligt 0,5-m-referencemærke. Så i forhold til min nøjagtige måler har min måling af 0,5 meter en fejl på 0,5/1 * 100 = 50 %. Det er stort set den fysiske virkelighed for ethvert måleinterval. Selv der antager vi, at vores synsstyrke virkelig er i stand til at finde det “midterste punkt” mellem to andre mærker.
Præcision har noget at gøre med, hvor konsekvent apparatet leverer den samme værdi for den samme måling. Det er normalt en funktion af apparatets konstruktion og anvendelse. Nøjagtighed er, hvor tæt på den “virkelige” værdi den målte værdi er. Det hænger ofte sammen med kalibreringen af apparatet. Procentfejl er blot en bestemmelse af, hvor meget de mulige værdier kan afvige fra den “rigtige” værdi på grund af begrænsningerne ved det metriske apparat og dets anvendelse.