LAS REGLAS DE WESTGARD

Llamamos “errores” en un análisis a la diferencia entre el valor obtenido para una muestra y el valor real del analito en la misma.  Algunos de estos errores son aleatorios y, por tanto, inevitables. Son consecuencia de la dispersión aleatoria en torno a un valor medio (el valor real) y presentarán diferencias positivas y negativas con respecto al mismo representadas mediante el parámetro estadístico denominado desviación estándar. Este tipo de errores no se pueden eliminar pero si se pueden minimizar.

Otros errores son desviaciones sistemáticas causadas por nuestro proceso de medida y pueden corregirse mediante diferentes procedimientos en función de la naturaleza del error (por ejemplo, recalibrando el método). Los protocolos de calidad son las herramientas que se utilizan para determinar tanto la intensidad de un error aleatorio (y determinar en que momento se superan los límites de tolerancia fijados) como para identificar la existencia de errores sistemáticos que deberán corregirse. Es el uso de estos protocolos lo que en último término determina la fiabilidad del resultado.

La forma habitual de evaluar la calidad de una serie de medidas es la utilización de material de control; es decir, una muestra cuya composición es conocida para los parámetros que queremos controlar y que incluimos junto con otras muestras desconocidas. Si para la muestra control obtenemos el valor esperado, entonces se asume que las muestras problema están dando resultados correctos (lo que se denomina validación de la serie); en caso contrario (el control no da el valor esperado), rechazaríamos la serie ya que los resultados estarían comprometidos por un error indeterminado. Sin embargo, el concepto ‘valor esperado’ necesita alguna aclaración adicional, ya que la propia medida del control está sujeta a errores.

El primer paso es centrarse en el error aleatorio que, en las condiciones habituales de medida, viene representada por una función de distribución normal de los resultados (la llamada campana de Gauss). Esta función permite calcular la probabilidad de que un resultado esté más o menos alejado del valor real; así, a una distancia de 1 desviación estándar por arriba o por abajo, tendremos el 68,2% de los resultados; a una distancia de 2 desviaciones estándar, el 95,4% y a una distancia de 3 desviaciones estándar, el 99,7%. Por tanto, el primer elemento a determinar para poder saber si nuestro resultado de control es aceptable o no es conocer la desviación estándar asociada a nuestro método mediante medidas realizadas específicamente con ese propósito (por ejemplo, n replicados del material de control) o simplemente fijarla en base al error máximo tolerable que queremos para esa determinación (siendo el valor máximo de error que no cambia las decisiones a tomar en base a la medida realizada). En el primer caso pondremos el punto de mira en las características específicas del método de medida, mientras que en el segundo en las necesidades generales del proceso.

Mediante este procedimiento no tenemos ninguna información sobre el error sistemático, ya que la información que tenemos es estrictamente puntual en el tiempo. Además, estando la propia medida sujeta a error, siempre tendremos un riesgo no nulo tanto de no detectar un posible error como de aceptar un falso rechazo. Al mirar el conjunto de datos obtenidos a lo largo del tiempo obtenemos información adicional que nos permite establecer algoritmos para estimar la existencia de errores no aleatorios (y por tanto repetidos en el tiempo si no se corrigen) así como minimizar la probabilidad de falsos rechazos o de aceptar errores fuera de tolerancia. El más utilizado de todos son las llamadas Reglas de Westgard en las que se combinan algunas de las reglas de control más frecuentes:

  • 12s : Si el valor obtenido está fuera de  ±2 desviaciones estándar, pasamos a comprobar
  • 13s : si está fuera de ±3 desviaciones estándar, lo rechazamos; si no, comprobamos
  • 22s : si tenemos dos resultados seguidos fuera de ±2 desviaciones estándar, rechazamos; si no,
  • R4s : si entre los dos resultados hay más de 4 desviaciones estándar, rechazamos; si no,
  • 41s : si tenemos 4 resultados seguidos fuera de 1 desviación estándar con el mismo signo, rechazamos; si no,
  • 10: si tenemos 10 resultados al mismo lado del valor esperado, rechazamos; en caso contrario aceptamos la serie.

Cada una de estas reglas apunta a un mecanismo de detección de errores diferentes. Así, utilizando únicamente una regla 12s, nos encontraríamos que el 4.6% de las series serían equivocadamente rechazadas (ya que estadísticamente corresponde a la probabilidad de las colas que quedan fuera de 2s), mientras que una regla 13s posiblemente sería demasiado permisiva y podríamos acabar aceptando algún error intolerable (por ejemplo, un error sistemático que llevara los resultados más allá de 3 desviaciones estándar, todavía daría un 50% de resultados “aceptables” y 50% “no aceptables”). Combinándolas reforzamos la capacidad de detección tanto de aumentos en la imprecisión (error aleatorio) como en la aparición de errores sistemáticos. Al introducir varios datos consecutivos, como en 22s y R4s se refuerza la capacidad de detectar desviaciones relevantes del valor esperado o de la imprecisión

No todas las reglas deben aplicarse de forma sistemática, sino que es el laboratorio el que decide qué reglas aplicar teniendo en cuenta el número de controles disponibles, el coste del procedimiento de análisis, la frecuencia con que se realiza el mismo, el riesgo de falso rechazo o la probabilidad de detectar errores no tolerables. Es frecuente considerar el incumplimiento de la regla 12s como una advertencia (no genera rechazo de la serie) e ir incorporando reglas adicionales como 22s y R4s hasta alcanzar el nivel adecuado de detección de errores y de limitación de falsos rechazos.

El uso de controles durante el proceso de medida y su correcta interpretación en el contexto de trabajo del laboratorio es una de las herramientas más potentes de las que dispone el responsable de laboratorio para evaluar la calidad de los resultados proporcionados. Sinatech dispone de material de control multiparamétrico para ayudar en esta tarea y ayudar al laboratorio enológico a proporcionar resultados fiables y precisos y su sistema Dionysos incorpora herramientas para la aplicación automática de diferentes reglas de control y grafismos que sirven de apoyo para su correcta interpretación.

Imagen de una gráfica de Westgard

Referencias:

https://www.westgard.com/  (Página web official).

Desde hace más de 10 años, el compromiso de Sinatech con el enólogo ha sido el trabajar codo con codo para proporcionarle las soluciones analíticas más adecuadas al control y seguimiento del proceso de vinificación. Métodos automatizados fácilmente adaptables a cualquier rutina de trabajo, con un equipo de asesoría personalizada para ayudarle a una implementación rápida y sin problemas.

Sinatech: trabajo en equipo.