Para el uso de los instrumentos de medición, a los fines de la interpretación de la medición se define:
El mayor valor que puede leer un instrumento.
La diferencia entre los valores máximo y mínimo que puede leer un instrumento.
Es la cantidad de divisiones existentes en el rango de la medida.
Constante/n, siendo "n" comunmente 2. La apreciación está relacionada con la menor variación del parámetro de medición que se puede apreciar. Por ejemplo si las rayitas que determinan las divisiones del instrumento están separadas 1mm, la constante dividida por 2 será la apreciación, en cambio si están separadas por 5mm, se podrán apreciar hasta las variaciones del orden del mm, con lo cual la apreciación será la constante/5 (es decir n=5)
- Error Absoluto de una medición
Supongamos que se mida una magnitud con un instrumento poco exacto, obteniendose un valor aproximado de la misma y se conoce además el valor considerado exacto de esa magnitud, obtenido por un operador muy experimentadom con un instrumento muy confiable y en las mejores condiciones operativas. Se llama error absoluto de la medición a la diferencia entre el valor aproximado y el valor exacto:
Error Absoluto = Valor aproximado - Valor exacto
E.A = Va - Ve
Esto significa que el error absoluto de la medición es la desviación de la misma respecto del valor considerado como exacto.
Es el cociente entre el error absoluto el valor exacto
Error Relativo = Error absoluto / Valor exacto
E.R = (Va - Ve) / Ve
Da el error que se comete por cada unidad que se mide y es más representativo de la calidad de la medición que el error absoluto.
Es el error relativo multiplicado por 100. Da el error que se comete por cada 100 unidades que se miden.
Está relacionada con la capacidad del instrumento de arrojar la misma lectura en mediciones repetidad, menteniendo constante la variable que se mide.
Es el grado de aproximación de una medida al valor considerado como exacto. De acuerdo a esto cuanto menor sea el error relativo de una medición mayor será la exactitud de la misma.
Calibrar un instrumento es determinar el error que arrojan sus lecturas (calibrar también se usa en el sentido de graduar un instrumento, es decir, determinar en él las marcas y divisiones para poder utilizarlo como adelanto de medición). La calibración puede hacerce con unos instrumentos más exactos que mida el mismo parámetro, o con instrumentos que lean otros parámetros y en función de ellos puede calcularse el del instrumento a calibrar, con mayor exactitud. Por ejemplo, un instrumento que mida volumen (como una probeta) se puede calibrar pesando el agua que contiene (a temperatura y densidad controladas), y dividiendo por la densidad se calcula el volumen.
No hay comentarios:
Publicar un comentario