Accuratezza, precisione ed errore percentuale devono essere presi tutti insieme per dare un senso a una misurazione. Come scienziato e statistico devo dire che non c’è un limite massimo di “errore percentuale”. C’è solo il necessario giudizio (umano) sul fatto che i dati a cui ci si riferisce possano essere utili o meno.
Accuratezza e precisione sono inerenti ai disegni di misurazione. Sono quello che sono, e possono essere migliorate solo migliorando il dispositivo. Le misurazioni multiple possono migliorare la precisione delle statistiche di una misurazione, ma non possono migliorare l’errore di misurazione intrinseco. L’errore percentuale è calcolato come l’intervallo di deviazione di una misurazione dall’ultimo, migliore punto metrico fisso.
Per esempio, posso avere l’asta del metro reale, standard PRIMARIO. Ma, senza sub-intervalli calibrati, posso scientificamente fare misure “accurate” solo fino a +/- 1 metro. Non posso davvero fidarmi dei miei occhi (soprattutto rispetto a quelli di altri) per definire con precisione anche ¼ di metro.
La mia misura di 0,5 metri contiene un errore, perché non c’è un vero e proprio segno di riferimento di 0,5 metri. Quindi, rispetto al mio metro preciso, la mia misura di 0,5 metri ha un errore di 0,5/1 * 100 = 50%. Questa è più o meno la realtà fisica per qualsiasi intervallo di misurazione. Anche qui stiamo supponendo che la nostra acutezza visiva sia davvero in grado di trovare quel “punto medio” tra due qualsiasi altri segni.
La precisione ha a che fare con quanto costantemente il dispositivo fornisce lo stesso valore per la stessa misurazione. Questo è di solito una funzione della costruzione e dell’uso del dispositivo. L’accuratezza è quanto vicino al valore “reale” è il valore misurato. Questo spesso si riferisce alla calibrazione del dispositivo. L’errore percentuale è solo la determinazione di come i possibili valori possono deviare dal valore “vero” a causa delle limitazioni del dispositivo metrico e del suo uso.