¿Quiénes calculan el error relativo y absoluto de una medición?

Estudiando instrumentos de medidas, tuve que leer sobre el error absoluto y relativo, me preguntaba si se debe calcular cada vez que se hace una medición, o si son solamente las personas que deben calibrar el instrumento quienes deben cacularlo.

2 Respuestas

Respuesta
1

Los que calibran los aparatos deben hacerlo, comparandolo con las medidas de otro considerado patrón, de mayor precisión. Lo puedes hacer tú si te lo piden o si quieres hacerlo, pero tienes que saber la clase de precisión del aparato con el que mides, que lo indica el fabricante. Esto te serviría para saber el margen de error que puede cometer tu aparato. Pero en la práctica esto no se hace, porque nos basta con la lecturas de nuestro aparato, en la mayoría de los casos.

Te lo ha explicado Albertx con más detalle, (o con más precisión).

Respuesta

No. Al hacer mediciones de cualquier tipo debes saber calcular el error de tal determinación. El error de calibración del instrumento va por cuenta de proveedor y debe conocerse siempre antes de efectuar la medición.

Error relativo y absoluto son conceptos específicos del calculo de errores.

Si has efectuado una medición de tensión de 10 volts y sabes que el error absoluto del aparato es de +/- 0.5 volts en esa escala, serán:

Error absoluto  0.5 volts....................Error relativo 0.5 / 10 = 0.05= 5%.

Si no tenes referencia del error absoluto del aparato podes estimarlo siempre como media unidad del menor valor que puedas leer. Por, ejemplo: Si trabajas con un amperimetro de rango 0-10 A y el aparato te permite apreciar hasta 0.1 A podes tomar como error absoluto de tu medida 0.05 A.

A ver... esa ultima parte no me quedo claro:

Si trabajas con un amperímetro de rango 0-10 A y el aparato te permite apreciar hasta 0.1 A podes tomar como error absoluto de tu medida 0.05 A.

Cuando dices que el instrumento trabaja con un rango de 0-10 A...

¿Te refieres a que su escala mide hasta 10 A?

Cuando dices que el aparato te permite apreciar hasta 0.1 A

¿Qué quieres decir con eso? ...

¿Te refieres a que el margen de error es de una décima de amper? ¿Pero eso debe estar indicado en el dorso o en la placa del instrumento?

Si es un instrumento de aguja el margen de error seria la apreciación mínima que vos podes hacer. Si cada división indica 0.1 A... tu margen de error ( de apreciación) seria 0.1/2 = 0.05 A... En los de display seria la cifra de menor significación. O sea si te indica 220.2 el error que podes asumir para tu determinacion seria directamente 0.2.

El rango de medición es efectivamente la escala. O sea el máximo valor que poder medir allí.

Añade tu respuesta

Haz clic para o
El autor de la pregunta ya no la sigue por lo que es posible que no reciba tu respuesta.

Más respuestas relacionadas