Misura

I processi conoscitivi con i quali l’uomo si pone in rapporto con le entità ed i fenomeni presenti nell’universo, si possono distinguere e classificare in base alle caratteristiche ed alle proprietà che tali entità e fenomeni manifestano. Per cui, tale valore associato alla grandezza in oggetto di studio, viene chiamato misura della grandezza fisica.

Il risultato della misurazione è la misura. Di sovente, per questioni di semplicità, si parla di misura anziché di misurazione, ma è bene tener presente la differenza tra i due termini.

Con il termine misurazione, invece, si indicano una serie di operazioni o procedimenti teorici o sperimentali aventi lo scopo di determinare quantitativamente il valore (numerico) di una grandezza fisica. La conoscenza della realtà che ci circonda è fondata sulla misura delle grandezze fisiche, infatti conoscere significa misurare.

L’esecuzione di una misura richiede, teoricamente, un confronto tra la quantità incognita che si vuol misurare e una quantità nota, che è presa come campione di riferimento. Infatti  il concetto di misura deriva dalla possibilità di fare il rapporto fra due grandezze fisiche omogenee di cui una è presa come campione o unità di misura; rapportando due grandezze \(A\) e \(B\) esiste sempre un determinato numero reale e razionale o irrazionale, tale che:

\[m=\dfrac{A}{B}\]

il valore numerico di \(m\) si chiama misura di \(A\) rispetto a \(B\) e a tale risultato corrispondono alcune caratteristiche:

  • indicazione bruta: è il valore numerico fornito in uscita dall’ultimo stadio di uno strumento di misura, senza unità di misura;
  • misura bruta: è il valore numerico fornito dallo strumento di misura a cui è associata l’unità di misura della grandezza fisica misurata;
  • misura corretta: è quella misura che corrisponde alla misura bruta a cui è associata l’unità di misura (tale operazione si ottiene attraverso la curva di graduazione);
  • valore vero: è quel valore di una misurazione che corrisponde alla misura corretta senza incertezze (si ottiene tramite l’analisi delle misure e la presentazione dei dati di più misure corrette che siano le probabili).

Regole di scrittura dei nomi e dei simboli delle unità di misura

  • Le unità di misura, anche se derivano da nomi propri, vanno scritte sempre in carattere minuscolo e prive di accento;
  • i simboli delle unità di misura vanno scritte con il carattere minuscolo. Fanno eccezione i simboli delle unità di misura che derivano da un nome proprio: in questi casi l’iniziale deve essere maiuscola;
  • i simboli delle unità di misura devono sempre seguire il valore numerico e mai precederlo;
  • i simboli non devono mai essere seguiti da un punto;
  • l’unità di misura se non accompagnata dal valore numerico, deve essere sempre scritta per esteso.

Cifre significative e criteri di arrotondamento

Possiamo definire le cifre significative di un numero come il minimo numero di cifre necessarie ad esprimere un dato valore senza comprometterne la precisione. È necessario però dare un metodo su come individuarle, soprattutto in presenza di zeri nel numero. Il conteggio delle cifre significative viene effettuato con queste regole:

  • tutti i valori non nulli rappresentano cifre significative;
  • gli zeri compresi tra cifre non nulle sono cifre significative (ad esempio gli zeri in questo numero sono significativi 4506002);
  • gli zeri che precedono la prima cifra significativa non sono cifre significative (ad esempio 0,003 ha una sola cifra significativa);
  • gli zeri finali sono significativi solo se presente la virgola (ad esempio in 13900 gli zeri non sono significativi, ma in 13900,0 tutti gli zeri sono significativi.

Quando effettuiamo misure ed andiamo a calcolare, ad esempio, l’errore relativo essendoci una divisione da fare, potrebbe accadere che vi siano molte cifre dopo la virgola, quindi siamo costretti a procedere ad un arrotondamento.

Dovendo procedere, ad esempio, ad un arrotondamento alla quarta cifra decimale decideremo di approssimare per difetto se essa risulta essere 0, 1, 2, 3 oppure 4.

Mentre andremo ad approssimare per eccesso se essa risulta essere 5, 6, 7, 8 oppure 9. Se avessimo quindi il valore 0,006324532 come risultato di una operazione, è opportuno procedere ad una approssimazione per difetto, scrivendo il numero come 0,006 essendo la quarta cifra minore di 5. Nel caso in cui il numero dovesse, ad esempio essere 0,006678, avremmo potuto approssimare per eccesso scrivendolo come 0,007.

Notazione scientifica

Un numero \(\alpha\) è scritto in notazione scientifica se si presenta nella forma:

\[\alpha = k\cdot 10^n\]

dove \(k\) è un numero decimale maggiore o uguale a 1 e minore di 10 e \(n\) è un numero intero.

Ad esempio: i numeri \(3,5\cdot 10^7\) e \(8,9\cdot 10^{−5}\) sono scritti in notazione scientifica, mentre i numeri \(0,5\cdot 10^3\) e \(10,3\cdot 10^{−8}\) non sono scritti in notazione scientifica in quanto il numero davanti alla potenza di 10 nel primo caso è 0,5 che è minore di 1, nel secondo caso è 10,3 che è maggiore di 10.

Come trasformare un numero in notazione scientifica

Consideriamo la misura del diametro del globulo rosso, ovvero 0,000007 m. Per esprimere questa misura in notazione scientifica basta considerare la sua frazione generatrice, ovvero:

\[0,000007\;\textrm{m}=7\cdot\dfrac{1}{1000000}\;\textrm{m}=7\cdot 10^{-6}\;\textrm{m}\]

Osservazione: A numeri “piccoli”, corrisponde una potenza di dieci con esponente negativo; a numeri “grandi”, corrisponde una potenza di dieci con esponente positivo.

Procedura: scrivere un numero decimale positivo \(a\) in notazione scientifica, se \(a > 1\):

  1. si divide il numero decimale per una potenza di 10 in modo da avere un numero decimale compreso maggiore o uguale a 1 e minore di 10. Per trovare la potenza di 10 per la quale dividere il numero bisogna contare le cifre significative del numero prima della eventuale virgola e togliere 1;
  2. per scrivere il numero a in notazione scientifica occorre moltiplicare il numero trovato al passo precedente per la potenza di 10 utilizzata.

Scrivere un numero decimale positivo a in notazione scientifica, se \(0 < a < 1\):

  1. si moltiplica il numero decimale per una opportuna potenza di 10 in modo da ottenere un numero maggiore o uguale a 1 e minore di 10. Per trovare la potenza di 10 bisogna contare gli zeri che si trovano tra la virgola e la prima cifra significativa del numero e aggiungere 1;
  2. per scrivere il numero a in notazione scientifica occorre moltiplicare il numero ottenuto al passo precedente per la stessa potenza di 10 utilizzata presa però con esponente negativo.

Metodi di misura

Per metodo di misura si intende la sequenza logica di operazioni pratiche, impiegate nell’esecuzione della misurazione di grandezze fisiche in osservazione.

Quanto migliore è il metodo di misura utilizzato e quanto migliori sono gli strumenti e la loro tecnologia, tanto più vicina alla realtà è la misura che descrive lo stato della grandezza fisica misurata. In linea di principio quindi la misura rappresenta la realtà fisica con una certa approssimazione, ovvero con un certo errore, errore che potrà essere reso piccolissimo ma mai nullo.

Ci sono due possibilità per effettuare una misura:

  1. il metodo diretto di misura permette di ottenere il risultato della misura direttamente dalla lettura dello strumento utilizzato (in altre parole si ha un confronto diretto della grandezza da misurare con una grandezza omogenea scelta come campione), senza la necessità di conoscere esplicitamente valori di altri parametri, eccetto ovviamente quelli delle grandezze che influenzano la misura stessa; una misura ottenuta con il metodo diretto è ovviamente detta misura diretta;
  2. si parla invece di metodo indiretto di misura quando il risultato della misura è ottenuto per mezzo di una legge fisica misurando, per via diretta, le varie grandezze che in essa intervengono. Parliamo perciò in questo caso di una misura indiretta. Ad esempio, una misura di resistenza si può ottenere misurando la tensione ai suoi capi e la corrente attraverso di essa e facendo poi il rapporto.

La maggior parte delle misure è ottenuta per via indiretta, quasi sempre per motivi di costo. Ad esempio, una misura di densità di una data sostanza potrebbe essere ottenuta direttamente tramite un apparecchio che si chiama densimetro, ma è decisamente più comodo misurare direttamente la massa ed il volume della sostanza e farne poi il rapporto.

Il vantaggio delle misure dirette consiste essenzialmente nel fatto che con esse è più difficile compiere errori grossolani, in quanto lo strumento necessario per compiere il confronto è in generale semplice, e pertanto non soggetto a guasti occulti.

Le misurazioni indirette, invece, hanno la caratteristica di essere maggiormente soggette al compimento di approssimazioni in quanto nell’applicazione della formula che rappresenta la legge fisica è presente la propagazione degli errori. Occorre pertanto porre attenzione particolare alle approssimazioni che si compiono quando si eseguono le misure dirette.

Si definiscono inoltre misurazioni con strumenti tarati, quelle effettuate a mezzo di uno strumento, e cioè un dispositivo atto a memorizzare definitivamente il campione con il quale viene confrontata la grandezza in esame. Nel caso di strumenti tarati, in generale, lo strumento è sensibile a grandezze non omogenee con quella da misurare.

Catena di misura

Con il termine catena di misura si intende l’insieme degli stadi di uno strumento di misura, che elaborano l’informazione rilevata dalla grandezza fisica in studio, per poi presentare un risultato: ossia la misura.

Gli stadi di una catena di misura sono essenzialmente tre:

  1. il primo è costituito da un sensore e/o da un trasduttore a contatto con la grandezza da rilevare (chiamato anche elemento sensibile primario). In catene di misura che prevedano più di un trasduttore, si possono manifestare effetti di crosstalk, e la causa di questo effetto è da ricercare in accoppiamenti capacitivi ed induttivi che si possono manifestare nei trasduttori stessi, nei cavi di connessione, ed infine, nel blocco di manipolazione;
  2. il secondo è costituito da un sistema di elaborazione intermedio del segnale o condizionatore di segnale che converte l’informazione proveniente dagli stadi precedenti in una forma tale da adattarsi al sistema di acquisizione. Tipiche operazioni effettuate dal circuito di condizionamento sono il filtraggio dei disturbi, la linearizzazione della funzione di trasferimento, la conversione e l’amplificazione del segnale generato dal trasduttore. Il segnale di uscita dalla catena di misura può essere di tipo analogico o digitale. L’alimentatore fornisce la potenza elettrica necessaria al funzionamento dei vari dispositivi elettronici impiegati nella catena di misura. Il sensore non viene alimentato quando trae la potenza indispensabile per l’informazione dal mondo esterno come avviene per le termocoppie e i sensori piezoelettrici;
  3. il terzo invece è rappresentato dallo strumento terminale che indica il risultato delle operazioni effettuate dagli stadi precedenti, ovvero fornisce all’operatore il valore della misurazione.

Grandezze di influenza nelle misure

In Metrologia, nei casi in cui le condizioni ambientali di reale utilizzazione del trasduttore si discostino in modo rilevante dalle condizioni ambientali di calibrazione occorrerà tenere conto degli effetti dovuti alle grandezze di influenza. In questi casi si dovranno condurre prove specifiche su di una popolazione dei trasduttori oppure, almeno, su di un solo esemplare di trasduttore.

Appare necessario evidenziare che occorre porre attenzione alle condizioni ambientali non solo durante l’esercizio del sensore ma anche durante le precedenti fasi quali lo stoccaggio ed il trasporto; dette condizioni ambientali, se non controllate e verificate possono alterare significativamente e, soprattutto, in modo imprevedibile le prestazioni metrologiche del trasduttore.

Talune delle principali grandezze di influenza che si manifestano nelle misure meccaniche e termiche sono qui di seguito richiamate.

Effetti dovuti alla temperatura

Per ogni trasduttore viene indicato il campo di variazione della temperatura di lavoro all’interno del quale può essere utilizzato senza determinarne un danneggiamento.

In detto campo di utilizzo vengono generalmente forniti dal costruttore gli andamenti sia della deriva di zero che della deriva della sensibilità; infatti, ad esempio, nelle misure condotte con estensimetri a resistenza sono forniti sia gli andamenti della deformazione apparente in funzione della temperatura (deriva di zero) che il coefficiente di sensibilità del fattore di taratura in funzione della temperatura (deriva della sensibilità).

Un ulteriore metodo che consente di esprimere il modo sintetico l’effetto dovuto alla temperatura è la individuazione di un intervallo di variazione dell’errore da essa dovuta, che viene espresso ad esempio in percentuale del fondo scala.

Occorre anche conoscere il valore massimo e minimo della temperatura alla quale può essere esposto il trasduttore senza che si abbia un danneggiamento permanente dello stesso, ossia senza che le caratteristiche metrologiche vengano a variare. Variazioni della temperatura ambiente non solo determinano effetti sulle caratteristiche metrologiche statiche ma anche su quelle dinamiche. Infatti occorre che i valori forniti dal costruttore siano riferiti ad uno specifico campo di variazione della temperatura.

Tuttavia la temperatura manifesta effetti che possono anche essere significativi quando si abbiano sue variazioni a gradino.

Effetti dovuti alla accelerazione

Gli errori causati dalla accelerazione possono manifestarsi sia direttamente sull’elemento sensibile, sia sugli elementi di connessione o di supporto e possono essere di entità tale da indurre deformazioni da rendere prive di significato le misure condotte.

In generale, i trasduttori mostreranno una sensibilità alle accelerazioni più rilevante secondo alcuni assi, è necessario quindi indicare la terna degli assi di riferimento scelta ed esprimere l’errore dovuto alla accelerazione.

Viene definito come errore di accelerazione la massima differenza tra l’uscita del sensore in assenza ed in presenza di una specificata accelerazione costante applicata secondo un determinato asse.

Infine è opportuno specificare che alcuni sensori mostrano una sensibilità alla accelerazione di gravità così che la disposizione del trasduttore rispetto al campo gravitazionale costituisce una importante condizione di vincolo.

Effetti dovuti alle vibrazioni

La variazione della frequenza delle vibrazioni, applicate secondo uno specifico asse di riferimento, può determinare (ad esempio per fenomeni di risonanza, eccetera) rilevanti effetti nell’output del segnale fornito dal trasduttore.

Per esprimere in modo sintetico l’effetto dovuto alle vibrazioni occorrerà definire la variazione massima nell’output, per ogni valore della grandezza fisica in ingresso, quando una specifica ampiezza della vibrazione, e per un determinato campo di frequenze, è applicata secondo un asse del trasduttore.

Effetti dovuti alla pressione ambiente

Talvolta si può verificare che il trasduttore debba operare in condizioni alle quali la pressione è significativamente diversa dalla pressione alla quale è stata condotta l’operazione di calibrazione, che in generale è pari alla pressione ambiente.

Pressioni relativamente diverse da quelle alle quali sono state condotte le prove di calibrazione possono determinare variazioni della geometria interna del trasduttore così da variare le caratteristiche metrologiche fornite dal costruttore.

Appare forse non necessario ricordare che risulta ben più grave uno scostamento dalle condizioni di calibrazione piuttosto che da un danneggiamento del trasduttore che, invece, è facilmente individuabile dallo sperimentatore.

Si definisce come errore dovuto alla pressione la massima variazione dell’output del trasduttore, per ogni valore della grandezza in ingresso compreso nel campo di misura, quando la pressione alla quale opera il trasduttore viene fatta variare in specificati intervalli.

Effetti dovuti alla messa in esercizio del trasduttore

Si può presentare la circostanza in cui una non attenta messa in esercizio del trasduttore possa causare danni allo stesso (deformazioni della struttura, ad esempio) tali da variare le condizioni di funzionamento del trasduttore.

Ovviamente non sono disponibili dal costruttore dati relativi a detta causa di errore ed occorre che l’utente si assicuri dell’accurata e corretta installazione del dispositivo.

Errori di misura

In Metrologia l’analisi degli errori comprende lo studio delle incertezze nelle misure, in quanto, nessuna misura per quanto essa sia eseguita con cura è completamente libera da incertezze.

Dal momento che tutte le Scienze e la Tecnica dipendono dalle misura, è fondamentale valutare e calcolare con buona approssimazione tali incertezze (errori) per ridurle al minimo possibile.

Errori di misura ed incertezza

Durante le operazioni di misurazione, per quanto queste siano eseguite con cura certosina, saranno sempre e comunque affette da un errore di misura, ovvero una incertezza.

Si definisce incertezza di una misura la stima della dispersione dei valori “attribuibili” al misurando. Viene associata al valore della misura come segue nell’esempio (misura di un diametro):

\[D=47\pm 0,1\;mm\]

In Metrologia, il termine “errore” non implica necessariamente una procedura di misura sbagliata da parte dell’operatore, ma anche una incertezza fornita dalla strumentazione, e cioè che il valore presentato dallo strumento di misura fornisce un valore della grandezza misurata con una certa approssimazione.

Sostanzialmente gli errori di misura sono causati da:

  • fattori umani (imprecisioni nella progettazione della catena di misura, distrazioni o poca accuratezza dell’operatore);
  • fattori tecnologici (qualità costruttive e metrologiche statiche e dinamiche degli strumenti);
  • fattori ambientali (grandezze di influenza esterne presenti nell’ambiente in cui si effettua la misura).

Classificazione degli errori di misura

Gli errori di misura possono essere classificati come segue:

Errori di misura grossolani

Gli errori grossolani sono quelli addebitabili a imperizia o distrazione dell’operatore che sta compiendo la misura; possono ad esempio derivare da una sbagliata lettura o da un uso improprio degli strumenti, oppure da trascrizioni errate dai dati sperimentali o anche da errate elaborazioni di tali dati.

È evidente perciò che tali errori non si presentano quando si opera con cura e attenzione e comunque possono essere eliminati semplicemente ripetendo la misura.

Errori di misura accidentali

Gli errori accidentali (detti anche non sistematici o casuali) sono quelli che permangono anche nell’ipotesi di essere riusciti ad eliminare tutti gli errori grossolani e sistematici. Le cause di tali errori sono tipicamente le imprevedibili fluttuazioni nelle condizioni operative, strumentali ed ambientali.

Gli errori accidentali possono essere analizzati statisticamente, in quanto si è visto empiricamente che essi sono generalmente distribuiti secondo leggi semplici. In particolare, si fa spesso l’ipotesi che le cause di tali errori agiscano in modo del tutto aleatorio, determinando perciò scarti, rispetto al valore medio, sia negativi sia positivi. Questo ci autorizza ad aspettarci che gli effetti mediamente si annullino, ossia sostanzialmente che il valore medio degli errori accidentali sia nullo.

Questa considerazione ha una conseguenza fondamentale: se riusciamo a correggere tutti gli errori grossolani e quelli sistematici, per cui avremo a che fare solo con errori accidentali, ci basterà compiere misure ripetute e poi mediare i risultati: quante più misure considereremo, tanto meno il risultato finale (media dei singoli risultati) sarà affetto da errori accidentali.

Quanto più piccoli risultano gli errori accidentali, tanto più si dice che la misura è precisa.

In generale, dunque, nell’ipotesi di aver eliminato ogni tipo di errore grossolano, possiamo affermare che l’errore di una misura è somma di un errore sistematico (che si ripete ogni misura, in uguali condizioni operative) e di un errore accidentale (che invece varia casualmente in ogni misura, anche se le condizioni operative rimangono immutate):

\[E=E_S+E_A\]

Somma degli errori accidentali (o casuali)

I valori degli errori accidentali sono normalmente preceduti dal segno \(+\) o dal segno \(-\); per ottenere la somma totale di questi errori si dovrà valutare la radice quadrata della somma dei quadrati del contributo di ciascun errore:

\[\varepsilon_{tot} = \sqrt{\varepsilon_1^2+\varepsilon_2^2+…+\varepsilon_n^2}\]

La somma di detti errori è chiamata errore residuo. In Metrologia si definisce errore residuo quell’errore di misura dato dalla somma di tutti gli errori casuali riscontrati durante il procedimento di misurazione.

L’errore residuo può essere valutato sia a posteriori che a priori. Il metodo di valutazione dell’errore residuo a posteriori consiste nell’applicare i risultati del calcolo delle probabilità ad una popolazione di misure (affette solo da errori accidentali) onde ricavarne il valore più probabile. Lo svantaggio più evidente di tale metodo è legato alla necessità di effettuare un numero molto grande di osservazioni.

Il metodo di valutazione dell’errore residuo a priori consiste nel valutare singolarmente il contributo fornito dall’errore accidentale da ogni possibile causa sia interna che esterna allo strumento stesso. La validità del metodo a priori è legata alla possibilità di conoscere in modo completo tutte le grandezze che accidentalmente influiscono sulla misura. Nella pratica, la valutazione del contributo di ciascuna di queste grandezze, che per tale motivo vengono dette “grandezze d’influenza”, è possibile a patto di poter annullare l’effetto di tutte le grandezze tranne quella della quale si vuole valutarne l’influenza sulla misura.

Si definisce, invece, errore relativo di una misura il rapporto tra errore assoluto (differenza tra valore misurato e valore vero della grandezza) ed il valore misurato per la grandezza; viene normalmente espresso in percentuale.

Si osserva che nella pratica l’errore relativo è il più utilizzato in quanto fornisce immediatamente l’idea dell’importanza dell’errore commesso nel compiere una misurazione.

Errori di misura sistematici

Gli errori sistematici sono quelli che si ripresentano sempre con lo stesso segno e la stessa ampiezza, ove ovviamente la misura di una grandezza venga ripetuta più volte con la stessa strumentazione e nelle stesse condizioni operative ed ambientali.

Un errore viene detto sistematico se è nota la relazione funzionale tra l’entità dell’errore e l’intensità della grandezza fisica che ne è la causa.

L’errore sistematico è per sua natura valutabile in modo preciso e la sua conoscenza permette il passaggio dalla misura bruta alla misura corretta, tramite la curva di taratura. Una volta effettuata detta correzione, la misura rimane ancora affetta da un errore residuo dato dalla somma di tutti gli errori casuali.

Questi errori sono generalmente dovuti ad una non corretta taratura degli strumenti oppure a difetti intrinseci degli strumenti stessi (ad esempio, possono esserci dei difetti costruttivi oppure dei malfunzionamenti derivanti dall’aver usato gli strumenti in particolari condizioni operative o ambientali; elevate temperature, forti campi elettromagnetici, sovraccarichi e così via); questo significa, sostanzialmente, che in talune situazioni è possibile correggere tali errori o comunque minimizzarli.

Errori statici

Vengono definiti errori statici quegli errori valutati in condizioni statiche, ossia, mediante effettuazione della misurazione di una grandezza costante; essi sono:

Errore di lettura

È quello che si compie nel valutare la posizione relativa dell’indice dello strumento di misura rispetto alla scala; tale errore è in generale dovuto a quattro cause:

  1. potere risolutivo dell’occhio umano: è definito come l’angolo di minima separazione tra due punti che l’occhio è capace di discernere come due oggetti separati e distinti (è di circa 0,1 mm che corrispondono a 100 μm, tuttavia con molte variabili fisiologiche);
  2. errore di parallasse: è dovuto al fatto che l’indice e la scala dello strumento si trovano su piani differenti (lo sguardo dell’operatore dovrebbe essere sempre perpendicolare alla scala per una misura corretta);
  3. incertezza di interpolazione: quando la scala dello strumento è lineare, è dell’ordine del ±10% della distanza tra due successive divisioni. Se la scala non è lineare, tale valore di incertezza può aumentare anche notevolmente. Per ridurre l’errore d’interpolazione si possono usare sistemi di lettura con nonii, viti micrometriche e scale ticoniche;
  4. rumore di fondo: è l’insieme di tutte quelle cause che impongono movimenti all’indice sovrapponendosi allo spostamento prodotto dal misurando. Per quanto riguarda la stima del valore dell’errore prodotto dal rumore di fondo, nei casi semplici e cioè quando si tratta di apprezzare il valor medio del segnale osservato o registrato, si ammette pari a ±10% calcolato sulla doppia ampiezza dell’oscillazione.

Errore di mobilità

È dovuto principalmente all’attrito che si sviluppa tra gli organi mobili componenti lo strumento ed agli inevitabili giochi tra di essi.

Errore di isteresi

È dovuto al fatto che in generale un materiale, se sollecitato, continua nel tempo a deformarsi anche se la sollecitazione rimane costante; quindi l’indicazione fornita dallo strumento “ricorda” le indicazioni precedenti.

In Metrologia l’errore di isteresi di uno strumento di misura viene definito come la differenza massima tra il valore rilevato dal trasduttore quando viene applicato uno specifico valore della grandezza in ingresso raggiunto imponendo ingressi crescenti, ed il medesimo valore ottenuto imponendo ingressi decrescenti.

In altre parole l’errore di isteresi è dato dalla differenza massima tra il valore misurato in senso crescente ed il rispettivo valore misurato in senso decrescente.

L’effetto dovuto all’isteresi viene espresso in % del fondo scala.

Errore di fedeltà

In Metrologia, si dice che uno strumento di misura è tanto più fedele quanto più esso fornisce indicazioni di valore poco discordante tra di esse nel corso di più misurazioni di una grandezza fisica costante. L’errore di fedeltà viene valutato effettuando un certo numero di misurazioni del medesimo misurando supposto costante: l’errore dunque sarà rappresentato dalla semidifferenza (metà del risultato di una sottrazione) tra il valore massimo e minimo delle corrispondenti misure. L’errore di fedeltà è principalmente dovuto alle grandezze d’influenza esterne: temperatura, campo magnetico, pressione, accelerazione angolare o lineare, eccetera. Queste grandezze agiranno contemporaneamente e con diversa intensità da istante ad istante, per cui lo strumento fornirà nel tempo indicazioni diverse della stessa grandezza; quindi, uno strumento risulterà tanto più fedele quanto più esso è stato costruito in modo da essere insensibile alle grandezze di influenza.

Errore di zero

Per errore di zero si intende quell’errore che si commette quando vengono effettuate misurazioni in genere di lunga durata e si verifica che lo zero dello strumento di misura subisca un fenomeno di deriva, detto deriva di zero. La deriva di zero è lo scostamento dell’indice dalla posizione di zero, ovvero dall’origine della curva di graduazione. L’errore di zero viene valutato in unità della grandezza da misurare.

Errore di giustezza o taratura

L’operazione di taratura può comportare due tipologie di errori:

  1. quello dovuto alla grandezza di riferimento, oppure allo strumento campione che la sostituisce, indicato con \(\pm\alpha\);
  2. quello compiuto durante l’operazione di tracciamento della scala dello strumento, indicato con \(\pm\beta\).

Pertanto quando verrà tracciata la curva di taratura dello strumento, si avrà un errore sistematico \(y-y_b\) che rappresenterà la differenza rispetto allo strumento campione e l’altro pari a: \(\varepsilon =\pm\sqrt{\alpha^2+\beta^2}\)

In definitiva l’errore totale dovuto alla taratura è pari a:

\[\varepsilon_{tot}=y-y_b\pm\sqrt{\alpha^2+\beta^2}\]

Ad ogni modo l’errore complessivo compiuto dallo strumento si ottiene sommando l’errore di giustezza a tutti gli altri errori elementari esaminati e viene normalmente espresso come “classe di precisione” dello strumento (definita dal rapporto tra l’ampiezza della somma di detti errori valutata in unità di scala e campo di misura, e viene normalmente espressa in percentuale sul valore di fondo scala).

Errori dinamici

Viceversa, nel caso in cui vengano misurate grandezze “dinamiche” (variabili) si aggiungono le seguenti cause di errore dinamico:

Errore di finezza (o di inserzione)

È dovuto alla presenza dello strumento di misura stesso, all’interno dell’ambiente in cui si effettua la misurazione; in altre parole lo strumento di misura modifica le condizioni di misura e di conseguenza modifica anche il valore finale del misurando. Pertanto si dice che uno strumento di misura è tanto più “fino” quanto meno perturba il fenomeno che si intende misurare; ossia quanto più è piccola l’entità della reazione provocata dalla sua presenza. Questa reazione può essere valutata se sono note le caratteristiche dello strumento ed in particolare del suo sensore (o trasduttore).

Errore di rapidità

È quella qualità metrologica di uno strumento che esprime la sua capacità di seguire le variazioni (dinamiche) nel tempo del misurando; la sua conoscenza è essenziale perché permette di valutare i limiti entro i quali uno strumento di misura può essere idoneo alla misurazioni di grandezze variabili nel tempo (grandezze dinamiche).Un’altra definizione pratica dell’errore di rapidità stabilisce che: esso è tanto più piccolo quanto più è veloce l’indice dello strumento di misura nel cambiare la sua posizione sulla scala graduata dello strumento.La rapidità, limitata dall’inerzia delle parti mobili dello strumento e dallo smorzamento a cui esse sono sottoposte, è caratterizzata in modo diverso dipendentemente dal tipo di variazioni temporali della grandezza.

  1. Nel caso in cui la grandezza da misurare è costante, la rapidità dello strumento è caratterizzata dal tempo di risposta. Questo è definito dal tempo necessario, per l’indice, per raggiungere la posizione definitiva una volta messo in contatto con il misurando.
  2. Nel caso in cui la grandezza da misurare sia lentamente variabile nel tempo, la rapidità è caratterizzata dal ritardo con il quale l’indice dello strumento la segue. Questo ritardo è costante se tale è la variazione della grandezza in esame, ed è tanto maggiore quanto maggiore è detta variazione. Se invece la variazione della grandezza è periodica, l’indice dello strumento fornisce una misura il cui valore massimo è inferiore al valore massimo della grandezza: il ritardo dipende dalla frequenza di questa variazione.
  3. Nel caso infine di grandezze rapidamente variabili nel tempo, la rapidità è definita dal comportamento delle parti mobili dello strumento quando la grandezza varia sinusoidalmente. In generale il rapporto tra l’indicazione fornita dallo strumento ed il valore della grandezza in entrata diminuisce quando la frequenza aumenta.

Banda di errore

Intervallo di deviazione massima dell’output del trasduttore da una curva di riferimento dovuto al trasduttore stesso; detta deviazione (che in generale viene espressa in percento del fondo scala) può essere causata da non linearità, non ripetibilità, isteresi, eccetera; viene determinata mediante più cicli di calibrazione consecutivi così da includere anche la ripetibilità.

Si può anche verificare la circostanza che il trasduttore debba operare solo in un campo di variazione della grandezza in ingresso che è contenuto nel campo di misura; ne consegue che variando il valore dell’errore statico ritenuto accettabile si possono avere diversi campi di utilizzo.

Strumenti di misura

Caratteristiche metrologiche statiche

Con caratteristiche statiche si intendono l’insieme delle proprietà metrologiche che consentono una esaustiva descrizione del funzionamento di un trasduttore, operante in specifiche condizioni ambientali, quando: sono imposte al suo ingresso variazioni lente del misurando, ed in assenza di shock, vibrazioni ed accelerazioni (a meno che, ovviamente, queste grandezze fisiche siano esse stesse l’oggetto della misura).

Se non si specifica altrimenti per condizioni ambientali si fa riferimento a:

  • campo di variazioni della temperatura compresa tra 15° e 35° C;
  • umidità relativa sempre inferiore al 90%;
  • pressione compresa nell’intervallo tra circa 90÷110 kPa.

Nelle ipotesi in cui si potessero scegliere le caratteristiche metrologiche statiche di un trasduttore, si desidererebbe, evidentemente, che la curva di graduazione assuma un andamento lineare, che si traduce ossia in sensibilità costante nel campo di misura scelto, essendo la sensibilità la derivata della curva di graduazione.

Occorre osservare che non è possibile determinare il valore vero di una grandezza fisica, ma possono essere utilizzati campioni oppure valori numerici rilevati con altra strumentazione, i cui campi di incertezza siano di ampiezza sufficientemente contenuta per gli scopi che lo sperimentatore si prefigge. Inoltre, anche se sono stati ridotti a valori trascurabili gli effetti dovuti alle cause di errore sistematico, ripetendo le operazioni di calibrazione si otterrà una distribuzione dei valori misurati, dovuta a variazioni di natura casuale sia del misurando, che delle condizioni di funzionamento del trasduttore, che, infine, dei parametri ambientali.

Per definire compiutamente le proprietà metrologiche di un trasduttore occorrerà quantificare le caratteristiche che qui di seguito sono elencate. Dette caratteristiche fanno riferimento o ad un intervallo di tempo oppure ad un numero minimo di cicli completi di misura, che possono essere imposti senza che si determini un’alterazione non prevedibile delle proprietà metrologiche del trasduttore.

  • Accuratezza
  • Precisione
  • Isteresi
  • Ripetibilità
  • Linearità
  • Risoluzione
  • Sensibilità
  • Campo di misura
  • Minimo segnale rilevabile
  • Rumore

Accuratezza

In Metrologia si definisce accuratezza la quantificazione della prossimità del valore medio \(x_m\) delle misure al valore vero \(x_v\) del misurando.

Per chiarire si prenda in esempio il caso balistico del tiro a freccette: quanto più i tiri sono prossimi tra loro (le freccette collidono tutte in una stessa zona limitata) ed al centro del bersaglio tanto più i tiri si dicono “accurati”, allo stesso modo un insieme di dati sperimentali vicini tra loro e prossimi al valore vero daranno una misura accurata.

La inaccuratezza viene espressa con:

\[\varepsilon_a = 100\cdot \dfrac{x_m-x_v}{x_v}\]

Il valore vero non risulta a priori noto e quindi è possibile prendere come riferimento un valore ottenuto da un’analisi statisitca (valore migliore) oppure mediante un campione fornito da laboratori metrologici.

Precisione

In Metrologia, la precisione è una qualità globale di uno strumento di misura che esprime l’attitudine a fornire il valore vero del misurando; in altre parole: di indica la dispersione di un insieme di dati sperimentali relativi ad un’unica grandezza fisica di valore sconosciuto.

Uno strumento di misura è tanto più preciso quanto più è piccolo l’errore che compie; pertanto, si può anche dire che la precisione è l’attitudine di uno strumento di misura a fornire la misura del misurando con il minimo errore (o meglio ancora con la minima incertezza).

Isteresi

L’errore di isteresi di uno strumento di misura viene definito come la differenza massima tra il valore rilevato dal trasduttore quando viene applicato uno specifico valore della grandezza in ingresso raggiunto imponendo ingressi crescenti, ed il medesimo valore ottenuto imponendo ingressi decrescenti.

In altre parole l’errore di isteresi è dato dalla differenza massima tra il valore misurato in senso crescente ed il rispettivo valore misurato in senso decrescente.

L’effetto dovuto all’isteresi viene espresso in % del fondo scala.

Ripetibilità

Con la ripetibilità si intende la capacità di un trasduttore nel rilevare valori identici quando sono applicati identici ingressi ed ipotizzando medesime condizioni ambientali nelle quali opera il trasduttore.

Questa proprietà metrologica viene espressa come il limite massimo in % del fondo scala.

Linearità

La linearità di uno strumento di misura può essere espressa come percentuale di scostamento dal comportamento lineare.

Per determinare la retta che meglio interpola un insieme di dati sperimentali si possono adottare diversi criteri statistici (metodo ai minimi quadrati, ad esempio) con diverse condizioni di vincolo (la retta interpolante deve passare per gli estremi del campo di misura o meno).

Poiché non risulta univoca la modalità di conduzione dell’analisi statistica, occorre che lo sperimentatore illustri sempre la metodologia adottata.

Risoluzione

In Metrologia, si definisce risoluzione di uno strumento di misura la capacità di rilevare il più piccolo scostamento del valore del misurando.

Per taluni trasduttori si verifica che variando in modo continuativo il misurando, l’output del trasduttore non vari in modo anch’esso continuativo, ma vari a step misurabili. Un esempio è rappresentato dal potenziometro del tipo a filo avvolto, la cui curva di graduazione ha un andamento a gradini.

Per esprimere questa proprietà metrologica si considera il numero totale degli step che si manifestano in tutto il campo di misura.

Un altro caso si presenta nell’operazione di digitalizzazione di un segnale analogico; infatti, dipendentemente dal numero di bit del convertitore, il campo di misura viene diviso in un ben specifico numero di intervalli; ad esempio, utilizzando un convertitore a 12 bit si hanno a disposizione \(2^{12}=4096\) livelli di digitalizzazione del segnale.

Sensibilità

La sensibilità di uno strumento di misura è quella caratteristica metrologica che fornisce informazioni sull’attitudine dello strumento a rilevare piccole variazioni della grandezza in ingresso. È definita anche come la derivata della curva di graduazione, in quanto definita dal rapporto tra la variazione dell’indicazione dello strumento quando la grandezza fisica subisce un incremento, e l’incremento stesso della grandezza.

Il coefficiente angolare della tangente geometrica alla curva di graduazione fornisce il valore della sensibilità; ne deriva che: se la curva di graduazione è una retta, la sensibilità è costante lungo tutta la scala dello strumento, altrimenti essa è funzione del valore della grandezza fisica. La qualità che descrive la soglia della sensibilità è chiamato potere risolutivoo risoluzione dello strumento di misura.

Campo di misura

Il campo di misura di uno strumento è definito dall’intervallo tra i valori massimo e minimo, della grandezza fisica da esso rilevabili. In altre parole è la specifica principale, perché fornisce informazioni sull’idoneità dello strumento a compiere la misurazione di una data grandezza, oltre che a definire le specifiche di sicurezza dichiarate dal costruttore.

Tutte le altre qualità metrologiche di uno strumento vengono riferite al campo di misura; infatti esse possono essere ritenute valide solo per i valori della grandezza in esame, interni a detto campo. Il campo di misura può essere inferiore al campo della graduazione (cioè della scala graduata): in questo caso la graduazione contiene le portate minima e massima dello strumento, oppure solamente la portata massima nel caso che la portata minima sia uguale a zero; oppure viceversa la sola portata minima nel caso in cui la portata massima coincida con l’estremo superiore della graduazione.

La legge di distribuzione spaziale delle divisioni che costituiscono la scala dello strumento (graduazione della scala) rappresenta la legge fisica sulla quale è fondato il principio di funzionamento dello strumento stesso. La graduazione può essere di tipo lineare (ovvero le divisioni della scala sono equidistribuite), di tipo quadratico (se le distanze tra due divisioni successive variano secondo una legge quadratica), di tipo logaritmico, eccetera. A tal proposito conviene osservare che tutti gli strumenti che non sono a graduazione lineare richiedono una particolare attenzione nella lettura della misura: infatti l’occhio umano difficilmente compie l’operazione di interpolazione nell’intervallo tra due tratti consecutivi se la legge di distribuzione spaziale delle divisioni non è di tipo lineare.

La conoscenza della legge fisica sulla quale è fondato il funzionamento dello strumento permette di stabilire se lo strumento sia, oppure no, idoneo a fornire la misura di determinate grandezze. Ad esempio se un galvanometro è lineare, tale strumento sarà idoneo solamente alla misurazione di correnti continue; se, al contrario, il galvanometro è a legge quadratica, esso sarà sensibile ad un effetto termico e quindi adatto alla misurazione di correnti continue ed alternate, di forma d’onda qualsiasi.

A questo punto giova ricordare che la nozione fondamentale di campo di misura, dal punto di vista del pratico impiego dello strumento, viene completata dalle seguenti ulteriori definizioni:

  • estensione della graduazione: insieme di tutte le divisioni tracciate sulla scala dello strumento; il campo di misura può, al massimo, essere pari all’estensione della graduazione;
  • portata minima: valore della grandezza da misurare al di sotto del quale lo strumento fornisce indicazioni con precisione inferiore a quella dichiarata;
  • portata massima: stessa definizione relativa alla portata minima con riferimento al massimo valore della grandezza. Inoltre, è il valore al di sopra del quale lo strumento fornisce indicazioni della grandezza da misurare con precisione inferiore a quella dichiarata;
  • portata: portata massima di uno strumento la cui portata minima è prossima allo zero; in altre parole è il valore massimo misurabile da uno strumento di misura, al di sopra del quale lo strumento fornisce indicazioni del misurando con precisione inferiore a quella dichiarata (oltre al fatto che potrebbe subire un danneggiamento). La definizione di portata coincide con quella di portata massima, con la condizione che la portata minima sia prossima allo zero. La portata minima, invece, indica il valore al di sotto del quale lo strumento di misura fornisce indicazioni del misurando con precisione inferiore a quella dichiarata.
  • sovraccarico nominale: valore massimo consentito per la grandezza da misurare oltre il quale lo strumento subisce danni irreversibili; l’ordine di grandezza del sovraccarico nominale è pari a circa 3 o 4 volte la portata massima dello strumento.

Minimo segnale rilevabile

Ipotizzando che il segnale in ingresso ad un trasduttore sia privo di rumore, il valore minimo rilevabile è funzione del livello di rumore intrinsecamente generato dal trasduttore stesso.

Rumore

In Metrologia, il rumore viene definito come l’insieme di variazioni casuali della grandezza da misurare che determinano variazioni anch’esse casuali dell’output. Il rumore può essere generato sia internamente ad un trasduttore (rumore Johnson, ossia movimento casuale delle cariche che genera una forza elettro-motrice variabile ai terminali di connessione) che esternamente al trasduttore (ad esempio effetti dovuti alla frequenza di rete, altri accoppiamenti magnetici, eccetera). In particolare, il rumore casuale le cui ampiezze istantanee presentano una distribuzione gaussiana ed il cui spettro di potenza risulta costante nella banda di frequenze considerato, è detto rumore bianco.

I trasduttori nella loro usuale utilizzazione in ambito industriale possono mostrare in modo marcato la presenza di rilevanti effetti dovuti a grandezze di influenza che possono essere di natura meccanica, elettrica, elettromagnetica e/o fotonica. Il rumore meccanico può essere trasmesso mediante l’aria o le connessioni del trasduttore alla struttura; gli effetti da esso determinati possono essere contenuti mediante un’attenta progettazione di elementi smorzatori. Le interferenze di natura elettrica e magnetica possono essere compensate mediante una gabbia di Faraday collegata a massa e schermi magnetici realizzati con materiali ad elevata permeabilità magnetica. Le interferenze di origine fotonica, determinate da lampade ad incandescenza o a fluorescenza possono essere ridotte utilizzando materiali opachi.

Caratteristiche metrologiche funzione del tempo (dinamiche)

Le caratteristiche metrologiche che risultano funzione del tempo sono:

  • Creep: fenomeni di creep si manifestano quando varia il segnale in uscita dal trasduttore pur essendo costante il segnale in ingresso, nell’ipotesi in cui si possano ritenere costanti le condizioni ambientali esterne.
  • Deriva di zero: se un trasduttore viene alimentato (se necessario) con valori di tensione o intensità di corrente che possono essere ritenuti costanti ed il valore del misurando è nullo, si dirà che il trasduttore è affetto da deriva di zero se esso mostra in uscita un segnale, funzione del tempo, diverso da zero; si ha, quindi, una traslazione della curva di graduazione. Occorrerà anche specificare le condizioni ambientali nelle quali è stata rilevata sperimentalmente la deriva di zero.
  • Deriva della sensibilità: i trasduttori possono manifestare una dipendenza dalla curva di graduazione in funzione del tempo, ossia possono variare la pendenza della curva di graduazione e quindi della sensibilità. Sarà necessario indicare le condizioni ambientali alle quali sono state condotte le prove.
  • Banda di errore: intervallo di deviazione massima dell’output del trasduttore da una curva di riferimento dovuto al trasduttore stesso; detta deviazione (che in generale viene espressa in percento del fondo scala) può essere causata da non linearità, non ripetibilità, isteresi, eccetera; viene determinata mediante più cicli di calibrazione consecutivi così da includere anche la ripetibilità.
  • Stabilità: attitudine di uno strumento di misura a mantenere costanti le caratteristiche metrologiche nel tempo, oppure in funzione di altre grandezze fisiche.

Quando il trasduttore deve seguire rapide variazioni della grandezza da misurare, operando sempre in specificate condizioni ambientali, occorre evidentemente integrare le caratteristiche metrologiche statiche con quelle dinamiche.

Considerando un ingresso sinusoidale e la corrispondente uscita a regime, si individua la risposta in ampiezza e la risposta in fase. Mediante le curve che esprimono gli andamenti sia del rapporto dell’ampiezza in uscita e di quella in ingresso che della fase in funzione della frequenza del segnale sinusoidale applicato all’ingresso, si viene a caratterizzare completamente, come è noto, il comportamento dinamico di un sistema. Si individuano, infatti, l’errore dinamico e la banda passante.

Una volta che sia stato definito un valore accettabile dell’errore dinamico (costituito da una quotaparte funzione delle ampiezze e da un’altra dipendente dalle fasi) e nota la specifica curva di ampiezza e di fase, si definisce banda passante quell’intervallo di frequenze all’interno del quale l’errore dinamico compiuto è al massimo pari all’errore dinamico ritenuto accettabile.

Per completezza si ricorda che le condizioni di idealità sono:

  1. andamento costante del rapporto dell’ampiezza del segnale in uscita dal trasduttore con quello in ingresso in funzione della frequenza del segnale in ingresso;
  2. andamento lineare della fase in funzione della frequenza del segnale in ingresso.

I sistemi lineari possono essere classificati in:

  • sistemi di ordine zero;
  • sistemi del primo ordine;
  • sistemi del secondo ordine;
  • sistemi di ordine superiore.

Grandezze necessarie per la caratterizzazione dell’affidabilità

Tutte le caratteristiche metrologiche fin qui elencate, in aggiunta alle caratteristiche metrologiche statiche, sono utili per definire l’affidabilità, intesa in senso generale, di un trasduttore; tuttavia è anche di interesse per l’utilizzatore avere una stima del periodo utile del trasduttore stesso. Detto periodo utile viene espresso:

  1. come un intervallo di tempo minimo nel quale il sensore possa operare, continuativamente o meno;
  2. come numero minimo di cicli applicabili che non alterino le condizioni operative del trasduttore.

Occorre porre attenzione anche all’intervallo di tempo che intercorre tra la realizzazione del sensore e la sua messa in esercizio. Sarà quindi rilevante in taluni casi conoscere anche la durata dello stoccaggio.

Bibliografia

  1. Matematica C3, Algebra 1 – Codice ISBN: 9788896354803 – Editore: Matematicamente.it – Anno di edizione: 2015