Cosa comporta la calibrazione del multimetro?

La calibrazione del multimetro comporta l'esecuzione di misurazioni e regolazioni su diverse modalità di misurazione di un multimetro o multitester. Le modalità di misurazione più comuni sono la tensione alternata / corrente continua (CA / CC), la corrente CA / CC e le misure di resistenza CC. Esistono diverse apparecchiature e configurazioni di calibrazione del multimetro che fungono da riferimento di calibrazione, a seconda dell'accuratezza richiesta.

I multimetri digitali di solito hanno processori integrati che gestiscono le misurazioni utilizzando riferimenti di tensione stabili. A differenza dei multimetri digitali, i multimetri analogici devono essere calibrati per mantenere la precisione. I multimetri analogici di solito hanno resistori regolabili chiamati resistori di trimmer che possono essere utilizzati per compensare condizioni diverse.

Le proprietà elettriche ed elettroniche possono cambiare a seguito dell'uso ripetuto del multimetro. Diversi fattori, come resistori, sensibilità del movimento del misuratore e tensione della batteria, possono influenzare l'accuratezza delle letture del multimetro. Alcuni multimetri analogici utilizzano anche una batteria interna per le misurazioni di tensione e corrente.

Diversi campi di misura vengono controllati nella calibrazione del multimetro. In un multimetro che utilizza un movimento del misuratore con 50 micropunti a fondo scala, il produttore identifica il fondo scala a corrente continua con corrente continua da 10, 50, 250 e 500 volt (VDC). In questo caso, ci sono quattro posizioni del selettore di gamma che misurano la tensione CC.

È possibile calcolare la resistenza totale necessaria in serie con un movimento di 1 chilo-ohm (k-ohm). A 10 VCC a fondo scala, la corrente nel voltmetro deve essere di 50 micropunte a fondo scala e la resistenza totale coinvolta è di 10 volt (V) / 50 microamperes o 200 k-ohm. La resistenza totale è di 200 k-ohm, quindi la resistenza in serie necessaria è di 200 k-ohm in meno di 1 k-ohm o 199 k-ohm. La calibrazione si basa sull'utilizzo di una resistenza fissa e di una resistenza regolabile a circa 199 k-ohm. Un esempio tipico potrebbe essere la resistenza fissa di 180 k-ohm in serie con un resistore di trimmer da 20 k-ohm per l'intervallo di 10 V CC.

Per la calibrazione del multimetro CA, il circuito è lo stesso del circuito del multimetro CC con circuito raddrizzatore aggiunto. I diodi nel circuito raddrizzatore convertono la corrente alternata in impulsi CC a semionda o a onda piena proporzionali che vengono filtrati e limitati per guidare il movimento del misuratore. Con la giusta selezione della resistenza in serie, le letture sono simili a quelle di un vero multimetro quadratico medio (RMS).

Negli amperometri CC, che misurano le correnti CC, i movimenti del misuratore sono paralleli a resistenze molto basse. La calibrazione viene solitamente eseguita regolando una resistenza in serie con il movimento del misuratore. Quando un movimento di un misuratore da 50 microampere è parallelo a un resistore da 0,1 ohm, un fondo scala di 50 microampere corrisponde a una piccola tensione di 0,05 V CC attraverso l'amperometro. Ciò corrisponde a una corrente di 0,5 ampere (A) e l'etichetta di fondo scala è quindi di 500,05 milliampere (mA).

ALTRE LINGUE

Questo articolo è stato utile? Grazie per il feedback Grazie per il feedback

Come possiamo aiutare? Come possiamo aiutare?