La exactitud, la precisión y el porcentaje de error deben tomarse conjuntamente para que una medición tenga sentido. Como científico y estadístico tendría que decir que no hay un límite superior en el «porcentaje de error». Sólo existe el necesario juicio (humano) sobre si los datos a los que se refiere pueden ser útiles o no.
La exactitud y la precisión son inherentes a los diseños de medición. Son lo que son, y sólo pueden ser mejorados mediante la mejora del dispositivo. Las mediciones múltiples pueden mejorar la precisión de las estadísticas de una medición, pero no pueden mejorar el error de medición inherente. El porcentaje de error se calcula como el rango de desviación de una medición desde el último y mejor punto métrico fijo.
Por ejemplo, puedo tener la varilla del medidor estándar real y PRIMARIA. Pero, sin subintervalos calibrados, científicamente sólo puedo hacer mediciones «precisas» hasta +/- 1 metro. Realmente no puedo confiar en mis ojos (especialmente en comparación con los de otros) para definir con precisión incluso ¼ de metro.
Mi medición de 0,5 metros contiene error, porque no hay una marca de referencia real de 0,5 metros. Así que, en comparación con mi medidor preciso, mi medición de 0,5 metros tiene un error de 0,5/1 * 100 = 50%. Esa es más o menos la realidad física de cualquier intervalo de medición. Incluso ahí estamos asumiendo que nuestra agudeza visual es realmente capaz de encontrar ese «punto medio» entre cualquier otra marca.
La precisión tiene que ver con la consistencia con la que el dispositivo proporciona el mismo valor para la misma medición. Eso suele ser una función de la construcción y el uso del dispositivo. La exactitud es la proximidad al valor «real» del valor medido. Esto suele estar relacionado con la calibración del dispositivo. El porcentaje de error no es más que la determinación de cómo los posibles valores pueden desviarse del valor «real» debido a las limitaciones del dispositivo métrico y su uso.