Genauigkeit, Präzision und prozentualer Fehler müssen alle zusammengenommen werden, um einer Messung einen Sinn zu geben. Als Wissenschaftler und Statistiker würde ich sagen, dass es keine Obergrenze für einen „prozentualen Fehler“ gibt. Es gibt nur die notwendige (menschliche) Beurteilung, ob die Daten, auf die man sich bezieht, nützlich sein können oder nicht.
Genauigkeit und Präzision sind den Messkonzepten inhärent. Sie sind so, wie sie sind, und können nur durch Verbesserung des Geräts verbessert werden. Mehrfache Messungen können die Genauigkeit der Statistik einer Messung verbessern, aber sie können nicht den inhärenten Messfehler verbessern. Der prozentuale Fehler wird als Abweichungsbereich einer Messung vom letzten, besten metrischen Fixpunkt berechnet.
Zum Beispiel: Ich habe vielleicht die eigentliche, PRIMÄREN Standard-Messlatte. Aber ohne kalibrierte Teilintervalle kann ich wissenschaftlich nur auf +/- 1 Meter „genau“ messen. Ich kann meinen Augen (vor allem im Vergleich zu anderen) nicht trauen, auch nur einen ¼-Meter genau zu bestimmen.
Meine 0,5-Meter-Messung enthält Fehler, weil es keine echte 0,5-Meter-Referenzmarke gibt. Verglichen mit meinem genauen Messgerät hat meine Messung von 0,5 m also einen Fehler von 0,5/1 * 100 = 50%. Das ist so ziemlich die physikalische Realität für jedes Messintervall. Selbst hier gehen wir davon aus, dass unsere Sehschärfe wirklich in der Lage ist, den „Mittelpunkt“ zwischen zwei beliebigen anderen Markierungen zu finden.
Präzision hat damit zu tun, wie konstant das Gerät denselben Wert für dieselbe Messung liefert. Das ist in der Regel eine Funktion der Konstruktion und der Verwendung des Geräts. Die Genauigkeit gibt an, wie nahe der gemessene Wert am „echten“ Wert liegt. Dies hängt oft mit der Kalibrierung des Geräts zusammen. Der prozentuale Fehler gibt an, wie stark die möglichen Werte aufgrund der Beschränkungen des Messgeräts und seiner Verwendung vom „wahren“ Wert abweichen können.