測定の意味を理解するためには、精度、正確さ、およびパーセント誤差のすべてを考慮する必要があります。 科学者、統計学者として、私は「パーセントエラー」に上限はないと言わざるを得ません。 あるのは、そのデータが有用かどうかという、必要な(人間の)判断だけなのです。
精度と正確さは、測定設計に固有のものです。 それらは何であれ、装置を改良することによってのみ改善することができる。 複数回の測定は測定の統計の精度を向上させることができますが、固有の測定誤差を改善することはできません。 誤差の割合は、最後に固定された最良の測定点からの測定の偏差範囲として計算されます。
たとえば、私は実際に、主要な標準のメーターロッドを持っているかもしれません。 しかし、校正されたサブ間隔がなければ、科学的に±1 メートルまでしか「正確な」測定ができません。 私は、1/4 メートルさえも正確に定義するために、自分の目を(特に他の人と比べて)本当に信じることができません。
私の 0.5 メートルの測定は、実際の 0.5 メートルの基準マークがないため、誤差を含んでいます。 つまり、私の正確なメーターと比較すると、私の0.5メートルの測定は0.5/1 * 100 = 50%の誤差があるのです。 これは、どのような測定間隔においても、ほぼ物理的な現実である。 そこでも、私たちの視力が、他の2つのマークの間の「中間点」を本当に見つけることができると仮定しています。
精度は、同じ測定に対して、装置がどれだけ一貫して同じ値を提供するかに関係しています。 これは通常、装置の構造と使用方法の関数です。 精度は、測定値がどれだけ「実際の」値に近いかということです。 これは、多くの場合、装置の校正に関係する。 誤差の割合は、計量器の限界とその使用により、可能な値が「真の」値からどのように逸脱するかを判断したものに過ぎません
。