Unidad 1: Introducción

¿Qué es la Instrumentación Electrónica?

La Instrumentación electrónica es la parte de la electrónica, principalmente analógica, que se encarga del diseño y manejo de los aparatos electrónicos y eléctricos, sobre todo para su uso en mediciones.
La instrumentación electrónica se aplica en el sensado y procesamiento de la información proveniente de variables físicas y químicas, a partir de las cuales realiza el monitoreo y control de procesos, empleando dispositivos y tecnologías electrónicas.

Ejemplos de dichos instrumentos de medición, tenemos los osciloscopios,voltimetros, ohmetros, amperimetros, multimetros, termometros electronicos, velocimetros, etc.


¿Por qué es importante la instrumentación electrónica?

Es importante porque facilita las tareas de control de procesos, y además hace que se obtenga una mejor calidad en la medida , exactitud y precisión del proceso que se supervisa.

¿Qué son los instrumentos de medición?

Un instrumento de medición es un aparato que se usa para comparar magnitudes físicas mediante un proceso de medición.Como unidades de medida se utilizan objetos y sucesos previamente establecidos como estándares o patrones y de la medición resulta un número que es la relación entre el objeto de estudio y la unidad de referencia. Los instrumentos de medición son el medio por el que se hace esta conversión.
Los instrumentos de medición hacen posible las observación de los fenómenos y su cuantificación, sin embargo estos instrumentos no son ideales sino reales, y por lo tanto tiene una serie de limitaciones que debemos tomar en cuenta para poder juzgar si afectan de alguna manera las medidas que estamos realizando , y así mismo determinar la veracidad de las anteriores.

Características básicas de un sistema de medidas:

Antes de entrar a fondo en el tema se retomaran las siguientes definiciones para una mejor comprensión de los temas posteriores: 


Sistema: Conjunto que cumple una función especifica de la entrada y genera una salida.

Medir: Es comparar cierta magnitud con otra magnitud que se ha escogido como unidad de medida también conocida como patrón de medida.


Medida: Cuando queremos conocer el valor de una variable,para controlarla, monitorearla, saber su estado , etc.


Instrumento: Equipo que permite  capturar la variable.
Usualmente, cuando se presentan condiciones en las que intervienen variables que el seer humano no esta en la capacidad de medir y observar por si mismo, se utilizan los instrumentos.


Un sistema de medición posee dos tipos de características importantes:


  1. Características de tipo estático.
  2. Características de tipo dinámico.

Unidad 1: Características Estáticas

Características Estáticas: 


Las características estáticas describen el comportamiento de un sensor o sistema de medida cuando la magnitud a medir permanece constante en el tiempo o varía tan lentamente que se puede considerar constante.



Curva de calibración: 

La curva de calibración es la relación entre la entrada al sensor y su correspondiente salida, es decir que la curva de calibración de un sensor o de un sistema de medida en general es la línea que une los puntos obtenidos aplicando sucesivos valores de la magnitud de entrada con sus respectivos valores de salida.

Permiten obtener una relación directa punto a punto de la señal de salida en función de la entrada y viceversa.





Para definir la curva de calibración adecuadamente se necesita como mínimo indicar su forma y sus límites. Estos últimos se especifican con algunos de los siguientes parámetros:


  • Campo o margen de medida (range): Es el conjunto de valores comprendidos entre los límites superior e inferior entre los cuales de puede efectuar la medida.





         Por ejemplo, si se dispone de un termómetro diseñado para medir entre -20°C y 600°C el campo de medida será 
         -20°C/60°C.


  • Alcance o fondo de escala (span, input full scale), FS: Es la diferencia entre los límites superior e inferior de medida.
          Para el ejemplo del termómetro Alcance 80°C.

  • Salida a fondo de escala (full scale output, FSO): Es la diferencia entre las salidas para los extremos del campo de medida.


Margen de medida-Alcance

Sensibilidad (sensitivity): 


La sensibilidad es la pendiente de la curva de calibración. Si esta es una recta la sensibilidad es constante y se dice que es el sistema o sensor es lineal.

No linealidad (nonlinearity): Es la máxima desviación de la curva de calibración con respecto a la línea recta por la que se ha aproximado. Habitualmente se suele expresar en forma de % con respecto al alcance. También se conoce como linealidad o error de linealidad. 

La linealidad expresa hasta que punto es constante la sensibilidad del sensor.








Zona muerta (dead zone): Es el campo de valores de la variable que no hace variar la indicación, también se define como la región de la curva de calibración que presenta una sensibilidad nula.






Hisresis (hysteresis)Es la diferencia en la medida dependiendo del sentido en el que se ha alcanzado. Un mismo valor de la magnitud de entrada puede provocar salidas diferentes dependiendo del sentido en el que se haya modificado la entrada (creciente o decreciente) hasta alcanzar dicho valor.








Deriva (drift): Es la variación de algún aspecto de la curva de calibración con respecto a algún parámetro ambiental (Temperatura, Humedad) siempre que el parámetro no sea el objeto de la medida.




Saturación (Saturation): Nivel de entrada a partir del cual la sensibilidad disminuye de forma significativa.





Resolución (Resolution): La resolución en un dispositivo es el incremento mínimo en la variable de entrada que ofrece un cambio medible en la salida.Un valor en porcentaje sobre el fondo de escala.



Errores: 

Diferencia entre el resultado real obtenido y la previsión que se había hecho o que se tiene como cierta. 
Medir una magnitud con el menor número de errores posibles. Siempre existe un grado de incertidumbre


  • Error absoluto:  Diferencia entre el valor medido y el valor exacto en valor absoluto. 
  • Error   relativo: Error absoluto dividido entre el valor exacto.







CUANTIFICACIÓN DEL ERROR (UNE82009-[1-6]) :

  • Veracidad (trueness): grado de concordancia entre el valor medio obtenido de una gran serie de resultados y el valor aceptado como referencia. Se suele expresar en términos de sesgo o desviación (bias).
  • Precisión (precision): grado de concordancia entre los resultados. Término utilizado para definir la variabilidad entre los resultados. Se cuantifica a partir de los términos de repetitividad (repeatability) y reproducibilidad (reproducibility).
  • Exactitud ( accuracy): se refiere conjuntamente a la veracidad y a la exactitud Expresión en términos estadísticos o en porcentaje sobre fondo de escala.


PRECISIÓN -EXACTITUD


EXACTITUD-PRECISIÓN 




Para definir la variabilidad entre mediciones se tiene la precisión. Diversos factores contribuyen a la variabilidad de un método de medición, entre ellos: 


  1. El operador que realiza la medición. 
  2. Los equipos.
  3. La calibración de los equipos.
  4. El ambiente (T°, humedad, etc).
  5. El intervalo temporal entre mediciones.



La precisión se cuantifica a partir de dos términos denominados repetibilidad y reproducibilidad.
Los términos repetibilidad y reproducibilidad tienen un significado muy parecido, aunque se aplican en diferentes contextos.
  • Repetibilidad: Es el grado de concordancia entre los resultados de mediciones sucesivas del mismo mesurando, realizadas bajo las mismas condiciones de medida. 

  • Reproducibilidad: Es el grado de concordancia entre los resultados de mediciones sucesivas del mismo mesurando, realizadas bajo diferentes condiciones de medida. Las medidas pueden realizarse a largo plazo, por personas distintas, con aparatos distintos o en distintos laboratorios. 

CALIBRACIÓN:

Establecer, con la mayor exactitud posible, la correspondencia entre las indicaciones de un instrumento de medida y los valores de la magnitud que se mide.

Las tolerancias de los componentes y las no idealidades de los circuitos electrónicos conducen a que dos sensores o dos instrumentos de medida aparentemente idénticos  no presenten nunca curvas idénticas de calibración.

La curva de calibración de los instrumentos varía a lo largo del tiempo y del grado de utilización de los mismos.


Calibración a punto: 

Actuar sobre el sistema de medida de forma que para un punto concreto la salida sea lo más exacta posible. Ejemplo:

Las básculas analógicas incorporan un mando para ajustar el cero.
Las básculas digitales lo hacen automáticamente.

La calibración a un punto suele efectuarse sobre el valor cero de la variable de entrada porque suele ser uno de los puntos para los que más fácilmente suele ser conocido el valor verdadero.

Básculas, velocímetros, acelerómetros, medida de desplazamiento.


Calibración del cero y de la sensibilidad:

Para ajustar perfectamente una curva de calibración lineal se necesitarían ajustar dos puntos o un punto y la pendiente (sensibilidad).

Algunos instrumentos incorporan esta posibilidad pero sin acceso al usuario, pero sí para el fabricante.

A continuación se muestra los pasos a seguir para un correcto ajuste:


GAMA Y ESCALA:

La gama de un instrumento se define como la diferencia entre la indicación mayor y la menor que puede ofrecer el instrumento. La gama puede estar dividida en varias escalas o constar de una sola. Por ejemplo, el amperímetro de la Fig. a tiene una gama de 0 a 5 mA, y una sola escala, mientras que el de la Fig. b tiene una gama de 0 a 500 mA, dividida en 5 escalas, las cuales van respectivamente de 0 a 0.05 mA; de 0 a 0.5 mA; de 0 a 5 mA; de 0 a 50 mA y de 0 a 500 mA.




EFICIENCIA:

La eficiencia de un instrumento se define como la indicación del instrumento dividida por la potencia que absorbe del circuito para poder realizar la medición. 

Unidad 1: Características Dinámicas

CARACTERÍSTICAS DINÁMICAS


Las características dinámicas de un sistema de medida describen su comportamiento ante una entrada variable. Este comportamiento es distinto al que presentan los sistemas cuando las señales de entrada son constantes debido a la presencia de inercias (masas, inductancias), capacidades (eléctricas, térmicas) y en general elementos que almacenan energía.

El tipo de entrada puede ser transitoria (impulso, escalón, rampa), periódica (senoidal) o aleatoria (ruido). La elección de una u otra depende del tipo de sensor.

El comportamiento dinámico de un sensor viene descrito por su función de transferencia. En ocasiones el fabricante no proporciona todas las especificaciones dinámicas ya que la respuesta dinámica del sensor no depende solo de él sino de la forma en que está siendo utilizado.


Error momentáneo: No inmediatez en la respuesta del sistema, lo que ocasiona una diferencia entre el valor esperado en cada momento y el que realmente se produce (no hay cambios en la señal de entrada).




En sistemas cuya entrada varía constantemente, la salida lo hará también pero con un retraso.



Cuando la salida pasa de un valor a otro en un momento dado, se logrará alcanzar el valor final, pero pasado un tiempo.





EVALUACIÓN DE LA RESPUESTA DINÁMICA

Es importante en el ámbito de la Instrumentación la respuesta de un sistema o equipo ante un cambio brusco de la variable de entrada (señal escalón) porque estos incorporan los efectos dinámicos propios del sistema.

Caso ideal…….línea punteada

Respuesta de un sistema ante una entrada escalón


Los sistemas pueden tener muchos tipos de respuestas al escalón, eso depende del orden del numerador y el denominador de su Función de Transferencia.

La mayoría de los casos, la respuesta es similar a la que presentaría un sistema de primer orden o de segundo orden (en el denominador).

Características Dinámicas:


SISTEMAS DE ORDEN CERO:


En un sistema de orden cero se tiene que en la ecuación diferencial no hay derivadas, su respuesta temporal y frecuencial no experimentará cambios.


Ejemplo: Potenciómetro lineal como sensor de posición

Suponiendo que el potenciómetro es ideal la tensión de salida cambia de manera instantánea cuando se desplaza el cursor a lo largo del recorrido del potenciómetro. Debido a las imperfecciones del potenciómetro no se podrá utilizar para la medida de movimientos rápidos.


SISTEMAS DE PRIMER ORDEN:


Los sistemas de primer orden se representan por una ecuación diferencial de primer orden. Contienen un elemento que almacena energía y otro que la disipa.




El término k = 1/a0 es la denominada sensibilidad estática y τ = a1/a0 se conoce como constante de tiempo del sistema.

El parámetro dinámico que representa un sistema de primer orden es su constante de tiempo aunque se pueden definir otros parámetros que también pueden caracterizar lo rápido que resulta un sistema de primer orden como son tr y ts.





Ejemplo: Un termómetro de mercurio o una red RC.




El parámetro dinámico que define un sistema de primer orden es la constante de tiempo, aunque se pueden definir otros parámetros que también permiten caracterizar lo rápido que resulta un sistema de primer orden.





SISTEMA DE SEGUNDO ORDEN:

Un sistema es de segundo orden cuando tiene dos elementos de almacenamiento de energía y otros dos que la disipan, como es el caso de sistemas masa - resorte empleados para la medida de desplazamientos, velocidades y aceleraciones.

La relación entre la entrada X(t) y la salida Y(t) está dada por una ecuación diferencial lineal de segundo orden de la forma:



La respuesta de un sistema de segundo orden a una entrada escalón se obtiene resolviendo la ecuación diferencial de segundo orden o bien, como se ha hecho con los sistemas de primer orden, obteniendo la anti - transformada de Laplace.


En los sistemas de segundo orden, la respuesta ante una entrada escalón no tiene un aspecto único, sino que pueden presentarse tres casos diferentes según la inercia y la amortiguación que presente el sistema, así:



     a) Sistemas sobreamortiguados: Sistemas lentos.

     b) Sistemas subamortiguados: Sistemas rápidos con oscilaciones.

     c) Sistemas con amortiguamiento crítico: Más rápidos que los sobreamortiguados.









Con respecto a la medición y los errores:


  • El desarrollo de la tecnología demanda la elaboración de mejores instrumentos y más exactos.
  • Nuevos diseños.
  • Nuevas aplicaciones.
  • Entender sus principios de operación para optimizar su uso
  • Ninguna medición se puede realizar con una exactitud perfecta.
  • Es importante saber cuál es la exactitud real y cómo se generan los diferentes errores en las mediciones.
  • Un estudio de los errores es el primer paso al buscar los modos de reducirlos.
  • Los errores pueden provenir de diferentes fuentes.
  • Si el proceso está en condiciones de régimen permanente existe el llamado error estático.
  • En condiciones dinámicas, el error varía considerablemente debido a que los instrumentos tienen características comunes a los sistemas físicos:
         -Absorben energía del proceso.
         -Esta transferencia requiere cierto tiempo para ser transmitida.
         -Retardos en la lectura.
         -Este es el llamado error dinámico.
  • El error dinámico depende del tipo de fluido, de su velocidad, del elemento primario (termopar, bulbo, etc), de los medios de protección.


Tipos de error:

Los errores se pueden clasificar en tres categorías:
  • Errores graves
  • Errores sistemáticos
  • Errores aleatorios

Errores Graves:

  • Son en gran parte de origen humano, como mala lectura de los instrumentos, ajuste incorrecto y aplicación inapropiada.
  • Mal registro y cálculo de los resultados de las mediciones.
  • Se cometen inevitablemente algunos errores, sin embargo se debe intentar anticiparlos y corregirlos.
  • Algunos se detectan con facilidad, pero otros son muy evasivos.
  • Principiantes (uso inadecuado de los instrumentos).

Errores Sistemáticos:

Se dividen en dos categorías


  1. Errores Instrumentales
  2. Errores Ambientales


Aunque en este grupo podrían incluirse los errores estático y dinámico.


1. Errores Instrumentales:


  • Referentes a los defectos de los instrumentos.
  • Por ejemplo aquellos que realizan medición según su estructura mecánica.
  • No ajustar el dispositivo a cero antes de tomar la lectura.
  • El usuario debe tomar precauciones antes de usar el instrumento.
  • Las fallas de los instrumentos se pueden verificar con la estabilidad y la reproducibilidad.
  • Comparar con otro de las mismas características.


Estos errores se pueden evitar:

  1. Seleccionando el instrumento adecuado para la medición particular.
  2. Aplicando los factores de corrección.
  3. Calibran el instrumento con un patrón

2. Errores Ambientales:

  • Se deben a las condiciones externas que afectan la operación del dispositivo.
  • Efectos del cambio de temperatura, humedad, campos magnéticos.
  • Por ejemplo los cambios de temperatura pueden alterar las propiedades elásticas del resorte de un mecanismo y afecta la lectura del instrumento.
  • Se pueden corregir evitando esas variables adversas.


Errores Aleatorios:


Se deben a causas desconocidas y ocurren incluso cuando todos los errores sisteticos se han considerado.

Unidad 2: Metrología

¿Que es la metrología?

La metrología (del griego μετρoν, medida y λoγoς, tratado) es la materia matemática y técnica que estudia las mediciones de las magnitudes garantizando su normalización mediante la trazabilidad. Acota la incertidumbre en las medidas mediante un campo de tolerancia. Incluye el estudio, mantenimiento y aplicación del sistema de pesos y medidas. Actúa tanto en los ámbitos científico, industrial y legal, como en cualquier otro demandado por la sociedad. Su objetivo fundamental es la obtención y expresión del valor de las magnitudes empleando para ello instrumentos, métodos y medios apropiados, con la exactitud requerida en cada caso.

La metrología tiene dos características muy importantes; el resultado de la medición y la incertidumbre de medida.



Tipos de Metrología:


1. Metrología Científica: Estudio de los métodos de medida o el perfeccionamiento de los mismos.Conservación y diseminación de los patrones.

2. Metrología Industrial: Conformidad con el diseño, asegurando la adecuación de algún producto con respecto a su uso previo.

3. Metrología Legal: Su campo de acción concierne a las exigencias técnicas y jurídicas reglamentadas que tienen como fin asegurar la garantía y proteger al consumidor desde el punto de vista de la seguridad y de la precisión de las medidas.



Importancia de la Metrología:


  • Pocas pequeñas y medianas empresas (Pymesconocen la palabra metrología, pero todas necesitan de la metrología para poder desenvolverse en los mercados nacionales e internacionales.
  • El antiguo y tradicional “ojimetro” ya no funciona en el mercado moderno.

Beneficios de la Metrología:


De manera general:

  • Empresarios y consumidores necesitan saber con precisión el contenido exacto de un producto. Por eso las empresas deben contar con buenos instrumentos para obtener medidas confiables y garantizar buenos resultados.
  • Una medición adecuada incide directamente en la calidad de los productos, que es un pilar de la competitividad internacional. De hecho, si una empresa quiere certificarse bajo las normas de la seria ISO 9000 debe cumplir con los requerimientos de confirmación metrológíca.
  • La metrología es también una herramienta clave para el comercio exterior: un kilogramo o litro chileno debe ser el mismo en Japón, Italia o Estados Unidos. Tiene, entonces, una gran importancia económica, ya que permite dar certeza respecto de las transacciones.


A los comerciantes:

  • La garantía de que los instrumentos de medición que adquieren y utilizan, así como los de su competencia, cumplen con los reglamentos técnicos vigentes y están funcionando correctamente.

A los industriales:

  • La verificación del correcto funcionamiento de sus instrumentos de medición, con trazabilidad a patrones primarios, principio básico en la implementación de cualquier Sistema de Calidad y respaldo del sistema de comercialización.

A la sociedad en conjunto:

  • El desarrollo de técnicas que permitan medir el impacto de distintos agentes que participan en el mercado con el objeto que cumplan las normas de calidad, salud, seguridad y sobre el medio ambiente, a fin de colaborar en su preservación.

La metrología esta presente:

  • Al realizar mediciones para la investigación en universidad y laboratorios.

  • En la actividad de organismos reguladores; en la industria militar; en la producción y el comercio.
  • Su aplicación abarca campos tan diversos como la ciencia, medicina e industria farmacéutica,construcción, metalurgia, minería, la actividad pesquera y alimenticia, los sectores del cuero y textiles, el rubro del plástico y de la madera, entre muchos otros.
  • Si los instrumentos o equipos de medición no permiten mediciones confiables, es poco probable lograr buenos resultados en el proceso de fabricación de un producto.
  • Gracias a la metrología la empresa asegura:
         1. Calidad
         2. Productividad
         3. Competitividad


Medir sirve para:

  1. Reducir rechazos y reprocesos.
  2. Aprovechar mejor las materias primas.
  3. Asegurar el cumplimiento de especificaciones.

Un sistema de aseguramiento metrológico esta compuesto por:

  1. Un instrumento de medición verificado y calibrado.
  2. Personas capacitadas para usarlo.
  3. Una correcta interpretación de los resultados.
  4. Un ambiente protegido para los equipos.



Unidad 2: Sistema Internacional de unidades

¿Que es el Sistema Internacional de unidades?




El Sistema Internacional de Unidades (abreviado SI, del francés: Le Système International d'Unités), también denominado Sistema Internacional de Medidas, es el nombre que recibe el sistema de unidades que se usa en casi todos los países.

Es el heredero del antiguo Sistema Métrico Decimal y por ello también se lo conoce como «sistema métrico», especialmente por las personas de más edad y en las pocas naciones donde aún no se ha implantado para uso cotidiano.

Se instauró en 1960, en la XI Conferencia General de Pesos y Medidas, durante la cual inicialmente se reconocieron seis unidades físicas básicas. En 1971 se añadió la séptima unidad básica: el mol.

Una de las características trascendentales, que constituye la gran ventaja del Sistema Internacional, es que sus unidades se basan en fenómenos físicos fundamentales. Excepción única es la unidad de la magnitud masa, el kilogramo, definida como «la masa del prototipo internacional del kilogramo», un cilindro de platino e iridio almacenado en una caja fuerte de la Oficina Internacional de Pesos y Medidas.1

Las unidades del SI constituyen referencia internacional de las indicaciones de los instrumentos de medición, a las cuales están referidas mediante una concatenación interrumpida de calibraciones o comparaciones.

Esto permite lograr equivalencia de las medidas realizadas con instrumentos similares, utilizados y calibrados en lugares distantes y, por ende, asegurar -sin necesidad de duplicación de ensayos y mediciones- el cumplimiento de las características de los productos que son objeto de transacciones en el comercio internacional, su intercambiabilidad.

Entre los años 2006 y 2009 el SI se unificó con la norma ISO 31 para instaurar el Sistema Internacional de Magnitudes (ISO/IEC 80000, con las siglas ISQ).

Unidades básicas fundamentales:

El Sistema Internacional de Unidades consta de siete unidades básicas (fundamentales), que expresan magnitudes físicas. A partir de estas se determinan las demás (derivadas):