Errore di misura

In Metrologia l’analisi degli errori comprende lo studio delle incertezze nelle misure, in quanto, nessuna misura per quanto essa sia eseguita con cura è completamente libera da incertezze.

Dal momento che tutte le scienze e la tecnica dipendono dalle misura, è fondamentale valutare e calcolare con buona approssimazione tali incertezze (errori) per ridurle al minimo possibile.

Classificazione degli errori di misura

Gli errori di misura possono essere classificati come segue:

Errori di misura grossolani

Gli errori grossolani sono quelli addebitabili a imperizia o distrazione dell’operatore che sta compiendo la misura; possono ad esempio derivare da una sbagliata lettura o da un uso improprio degli strumenti, oppure da trascrizioni errate dai dati sperimentali o anche da errate elaborazioni di tali dati.

È evidente perciò che tali errori non si presentano quando si opera con cura e attenzione e comunque possono essere eliminati semplicemente ripetendo la misura.

Errori di misura accidentali

Gli errori accidentali (detti anche non sistematici o casuali) sono quelli che permangono anche nell’ipotesi di essere riusciti ad eliminare tutti gli errori grossolani e sistematici. Le cause di tali errori sono tipicamente le imprevedibili fluttuazioni nelle condizioni operative, strumentali ed ambientali.

Gli errori accidentali possono essere analizzati statisticamente, in quanto si è visto empiricamente che essi sono generalmente distribuiti secondo leggi semplici. In particolare, si fa spesso l’ipotesi che le cause di tali errori agiscano in modo del tutto aleatorio, determinando perciò scarti, rispetto al valore medio, sia negativi sia positivi. Questo ci autorizza ad aspettarci che gli effetti mediamente si annullino, ossia sostanzialmente che il valore medio degli errori accidentali sia nullo.

Questa considerazione ha una conseguenza fondamentale: se riusciamo a correggere tutti gli errori grossolani e quelli sistematici, per cui avremo a che fare solo con errori accidentali, ci basterà compiere misure ripetute e poi mediare i risultati: quante più misure considereremo, tanto meno il risultato finale (media dei singoli risultati) sarà affetto da errori accidentali.

Quanto più piccoli risultano gli errori accidentali, tanto più si dice che la misura è precisa.

In generale, dunque, nell’ipotesi di aver eliminato ogni tipo di errore grossolano, possiamo affermare che l’errore di una misura è somma di un errore sistematico (che si ripete ogni misura, in uguali condizioni operative) e di un errore accidentale (che invece varia casualmente in ogni misura, anche se le condizioni operative rimangono immutate):

\[E=E_S+E_A\]

Somma degli errori accidentali (o casuali)

I valori degli errori accidentali sono normalmente preceduti dal segno \(+\) o dal segno \(-\); per ottenere la somma totale di questi errori si dovrà valutare la radice quadrata della somma dei quadrati del contributo di ciascun errore:

\[\varepsilon_{tot} = \sqrt{\varepsilon_1^2+\varepsilon_2^2+…+\varepsilon_n^2}\]

La somma di detti errori è chiamata errore residuo. In Metrologia si definisce errore residuo quell’errore di misura dato dalla somma di tutti gli errori casuali riscontrati durante il procedimento di misurazione.

L’errore residuo può essere valutato sia a posteriori che a priori. Il metodo di valutazione dell’errore residuo a posteriori consiste nell’applicare i risultati del calcolo delle probabilità ad una popolazione di misure (affette solo da errori accidentali) onde ricavarne il valore più probabile. Lo svantaggio più evidente di tale metodo è legato alla necessità di effettuare un numero molto grande di osservazioni.

Il metodo di valutazione dell’errore residuo a priori consiste nel valutare singolarmente il contributo fornito dall’errore accidentale da ogni possibile causa sia interna che esterna allo strumento stesso. La validità del metodo a priori è legata alla possibilità di conoscere in modo completo tutte le grandezze che accidentalmente influiscono sulla misura. Nella pratica, la valutazione del contributo di ciascuna di queste grandezze, che per tale motivo vengono dette “grandezze d’influenza”, è possibile a patto di poter annullare l’effetto di tutte le grandezze tranne quella della quale si vuole valutarne l’influenza sulla misura.

Si definisce, invece, errore relativo di una misura il rapporto tra errore assoluto (differenza tra valore misurato e valore vero della grandezza) ed il valore misurato per la grandezza; viene normalmente espresso in percentuale.

Si osserva che nella pratica l’errore relativo è il più utilizzato in quanto fornisce immediatamente l’idea dell’importanza dell’errore commesso nel compiere una misurazione.

Errori di misura sistematici

Gli errori sistematici sono quelli che si ripresentano sempre con lo stesso segno e la stessa ampiezza, ove ovviamente la misura di una grandezza venga ripetuta più volte con la stessa strumentazione e nelle stesse condizioni operative ed ambientali.

Un errore viene detto sistematico se è nota la relazione funzionale tra l’entità dell’errore e l’intensità della grandezza fisica che ne è la causa.

L’errore sistematico è per sua natura valutabile in modo preciso e la sua conoscenza permette il passaggio dalla misura bruta alla misura corretta, tramite la curva di taratura. Una volta effettuata detta correzione, la misura rimane ancora affetta da un errore residuo dato dalla somma di tutti gli errori casuali.

Questi errori sono generalmente dovuti ad una non corretta taratura degli strumenti oppure a difetti intrinseci degli strumenti stessi (ad esempio, possono esserci dei difetti costruttivi oppure dei malfunzionamenti derivanti dall’aver usato gli strumenti in particolari condizioni operative o ambientali; elevate temperature, forti campi elettromagnetici, sovraccarichi e così via); questo significa, sostanzialmente, che in talune situazioni è possibile correggere tali errori o comunque minimizzarli.

Errori statici

Vengono definiti errori statici quegli errori valutati in condizioni statiche, ossia, mediante effettuazione della misurazione di una grandezza costante; essi sono:

Errore di lettura

È quello che si compie nel valutare la posizione relativa dell’indice dello strumento di misura rispetto alla scala; tale errore è in generale dovuto a quattro cause:

  1. potere risolutivo dell’occhio umano: è definito come l’angolo di minima separazione tra due punti che l’occhio è capace di discernere come due oggetti separati e distinti (è di circa 0,1 mm che corrispondono a 100 μm, tuttavia con molte variabili fisiologiche);
  2. errore di parallasse: è dovuto al fatto che l’indice e la scala dello strumento si trovano su piani differenti (lo sguardo dell’operatore dovrebbe essere sempre perpendicolare alla scala per una misura corretta);
  3. incertezza di interpolazione: quando la scala dello strumento è lineare, è dell’ordine del ±10% della distanza tra due successive divisioni. Se la scala non è lineare, tale valore di incertezza può aumentare anche notevolmente. Per ridurre l’errore d’interpolazione si possono usare sistemi di lettura con nonii, viti micrometriche e scale ticoniche;
  4. rumore di fondo: è l’insieme di tutte quelle cause che impongono movimenti all’indice sovrapponendosi allo spostamento prodotto dal misurando. Per quanto riguarda la stima del valore dell’errore prodotto dal rumore di fondo, nei casi semplici e cioè quando si tratta di apprezzare il valor medio del segnale osservato o registrato, si ammette pari a ±10% calcolato sulla doppia ampiezza dell’oscillazione.

Errore di mobilità

È dovuto principalmente all’attrito che si sviluppa tra gli organi mobili componenti lo strumento ed agli inevitabili giochi tra di essi.

Errore di isteresi

È dovuto al fatto che in generale un materiale, se sollecitato, continua nel tempo a deformarsi anche se la sollecitazione rimane costante; quindi l’indicazione fornita dallo strumento “ricorda” le indicazioni precedenti.

In Metrologia l’errore di isteresi di uno strumento di misura viene definito come la differenza massima tra il valore rilevato dal trasduttore quando viene applicato uno specifico valore della grandezza in ingresso raggiunto imponendo ingressi crescenti, ed il medesimo valore ottenuto imponendo ingressi decrescenti.

In altre parole l’errore di isteresi è dato dalla differenza massima tra il valore misurato in senso crescente ed il rispettivo valore misurato in senso decrescente.

L’effetto dovuto all’isteresi viene espresso in % del fondo scala.

Errore di fedeltà

In Metrologia, si dice che uno strumento di misura è tanto più fedele quanto più esso fornisce indicazioni di valore poco discordante tra di esse nel corso di più misurazioni di una grandezza fisica costante. L’errore di fedeltà viene valutato effettuando un certo numero di misurazioni del medesimo misurando supposto costante: l’errore dunque sarà rappresentato dalla semidifferenza (metà del risultato di una sottrazione) tra il valore massimo e minimo delle corrispondenti misure. L’errore di fedeltà è principalmente dovuto alle grandezze d’influenza esterne: temperatura, campo magnetico, pressione, accelerazione angolare o lineare, eccetera. Queste grandezze agiranno contemporaneamente e con diversa intensità da istante ad istante, per cui lo strumento fornirà nel tempo indicazioni diverse della stessa grandezza; quindi, uno strumento risulterà tanto più fedele quanto più esso è stato costruito in modo da essere insensibile alle grandezze di influenza.

Errore di zero

Per errore di zero si intende quell’errore che si commette quando vengono effettuate misurazioni in genere di lunga durata e si verifica che lo zero dello strumento di misura subisca un fenomeno di deriva, detto deriva di zero. La deriva di zero è lo scostamento dell’indice dalla posizione di zero, ovvero dall’origine della curva di graduazione. L’errore di zero viene valutato in unità della grandezza da misurare.

Errore di giustezza o taratura

L’operazione di taratura può comportare due tipologie di errori:

  1. quello dovuto alla grandezza di riferimento, oppure allo strumento campione che la sostituisce, indicato con \(\pm\alpha\);
  2. quello compiuto durante l’operazione di tracciamento della scala dello strumento, indicato con \(\pm\beta\).

Pertanto quando verrà tracciata la curva di taratura dello strumento, si avrà un errore sistematico \(y-y_b\) che rappresenterà la differenza rispetto allo strumento campione e l’altro pari a: \(\varepsilon =\pm\sqrt{\alpha^2+\beta^2}\)

In definitiva l’errore totale dovuto alla taratura è pari a:

\[\varepsilon_{tot}=y-y_b\pm\sqrt{\alpha^2+\beta^2}\]

Ad ogni modo l’errore complessivo compiuto dallo strumento si ottiene sommando l’errore di giustezza a tutti gli altri errori elementari esaminati e viene normalmente espresso come “classe di precisione” dello strumento (definita dal rapporto tra l’ampiezza della somma di detti errori valutata in unità di scala e campo di misura, e viene normalmente espressa in percentuale sul valore di fondo scala).

Errori dinamici

Viceversa, nel caso in cui vengano misurate grandezze “dinamiche” (variabili) si aggiungono le seguenti cause di errore dinamico:

Errore di finezza (o di inserzione)

È dovuto alla presenza dello strumento di misura stesso, all’interno dell’ambiente in cui si effettua la misurazione; in altre parole lo strumento di misura modifica le condizioni di misura e di conseguenza modifica anche il valore finale del misurando. Pertanto si dice che uno strumento di misura è tanto più “fino” quanto meno perturba il fenomeno che si intende misurare; ossia quanto più è piccola l’entità della reazione provocata dalla sua presenza. Questa reazione può essere valutata se sono note le caratteristiche dello strumento ed in particolare del suo sensore (o trasduttore).

Errore di rapidità

È quella qualità metrologica di uno strumento che esprime la sua capacità di seguire le variazioni (dinamiche) nel tempo del misurando; la sua conoscenza è essenziale perché permette di valutare i limiti entro i quali uno strumento di misura può essere idoneo alla misurazioni di grandezze variabili nel tempo (grandezze dinamiche).Un’altra definizione pratica dell’errore di rapidità stabilisce che: esso è tanto più piccolo quanto più è veloce l’indice dello strumento di misura nel cambiare la sua posizione sulla scala graduata dello strumento.La rapidità, limitata dall’inerzia delle parti mobili dello strumento e dallo smorzamento a cui esse sono sottoposte, è caratterizzata in modo diverso dipendentemente dal tipo di variazioni temporali della grandezza.

  1. Nel caso in cui la grandezza da misurare è costante, la rapidità dello strumento è caratterizzata dal tempo di risposta. Questo è definito dal tempo necessario, per l’indice, per raggiungere la posizione definitiva una volta messo in contatto con il misurando.
  2. Nel caso in cui la grandezza da misurare sia lentamente variabile nel tempo, la rapidità è caratterizzata dal ritardo con il quale l’indice dello strumento la segue. Questo ritardo è costante se tale è la variazione della grandezza in esame, ed è tanto maggiore quanto maggiore è detta variazione. Se invece la variazione della grandezza è periodica, l’indice dello strumento fornisce una misura il cui valore massimo è inferiore al valore massimo della grandezza: il ritardo dipende dalla frequenza di questa variazione.
  3. Nel caso infine di grandezze rapidamente variabili nel tempo, la rapidità è definita dal comportamento delle parti mobili dello strumento quando la grandezza varia sinusoidalmente. In generale il rapporto tra l’indicazione fornita dallo strumento ed il valore della grandezza in entrata diminuisce quando la frequenza aumenta.

Banda di errore

Intervallo di deviazione massima dell’output del trasduttore da una curva di riferimento dovuto al trasduttore stesso; detta deviazione (che in generale viene espressa in percento del fondo scala) può essere causata da non linearità, non ripetibilità, isteresi, eccetera; viene determinata mediante più cicli di calibrazione consecutivi così da includere anche la ripetibilità.

Si può anche verificare la circostanza che il trasduttore debba operare solo in un campo di variazione della grandezza in ingresso che è contenuto nel campo di misura; ne consegue che variando il valore dell’errore statico ritenuto accettabile si possono avere diversi campi di utilizzo.

Torna su