Noggrannhet, precision och procentuellt fel måste tas tillsammans för att en mätning ska bli meningsfull. Som forskare och statistiker måste jag säga att det inte finns någon övre gräns för ett ”procentfel”. Det finns bara den nödvändiga (mänskliga) bedömningen av om de uppgifter som avses kan vara användbara eller inte.
Riktighet och precision är inneboende i mätningsutformningar. De är vad de är och kan bara förbättras genom att förbättra anordningen. Flera mätningar kan förbättra noggrannheten i statistiken för en mätning, men de kan inte förbättra det inneboende mätfelet. Det procentuella felet beräknas som avvikelseområdet för en mätning från den sista, bästa fasta metriska punkten.
Till exempel kan jag ha den faktiska, PRIMÄRA standardmätarstaven. Men utan kalibrerade delintervall kan jag vetenskapligt sett bara göra ”exakta” mätningar på +/- 1 meter. Jag kan verkligen inte lita på att mina ögon (särskilt inte jämfört med andras) kan definiera ens ¼ meter exakt.
Min 0,5-metersmätning innehåller fel, eftersom det inte finns något verkligt referensmärke på 0,5 meter. Så jämfört med min exakta mätare har min mätning av 0,5 meter ett fel på 0,5/1 * 100 = 50 %. Detta är i stort sett den fysiska verkligheten för alla mätintervall. Även där utgår vi från att vår synskärpa verkligen kan hitta den där ”mittpunkten” mellan två andra märken.
Precision har att göra med hur konsekvent apparaten levererar samma värde för samma mätning. Det är vanligtvis en funktion av apparatens konstruktion och användning. Noggrannhet handlar om hur nära det ”verkliga” värdet det uppmätta värdet ligger. Det har ofta att göra med kalibreringen av apparaten. Felprocent är bara fastställandet av hur de möjliga värdena kan avvika från det ”sanna” värdet på grund av begränsningarna hos den metriska anordningen och dess användning.