Acta Chimica

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 10

RESUMEN

Se proveen guías prácticas para reportar los resultados de la calibración


analítica. Los temas generales, como el número de cifras significativas
reportadas y la optimización de los procedimientos analíticos, afectan a
todos los escenarios de calibración. En el caso específico de la
calibración monocomponente o univariable, los temas relevantes discutidos
en el presente Tutorial incluyen: (1) cómo se puede evaluar la
linealidad, (2) cómo estimar correctamente los límites de detección y
cuantificación, (2) cuándo y Cómo se debe emplear la adición estándar,
(3) cómo aplicar los estudios de recuperación para evaluar la exactitud y
precisión, y (4) cómo se pueden comparar los errores de predicción
promedio para diferentes metodologías de análisis

Para los procedimientos de calibración multicomponentes basados en datos


multivariados, los temas pertinentes aquí incluidos son la elección de
algoritmos, la estimación de las cifras analíticas de mérito (capacidad
de detección, sensibilidad, selectividad), el uso de modelos no lineales,
la consideración del modelo Coeficientes de regresión para la selección
de variables y la aplicación de ciertos procedimientos matemáticos de
preprocesamiento tales como el suavizado.

1. Introducción
La calibración univariada es sinónimo de calibración de un solo
componente y es bien conocida como la piedra angular de muchos
procedimientos de química analítica. El último protocolo de calibración
se puede emplear con seguridad cuando la señal instrumental es lo
suficientemente selectiva o los interferentes se han separado del analito
en la muestra de ensayo.
La separación puede ser física (por ejemplo, cromatografía) o química
(por ejemplo, complejación para enmascarar una especie) [1]. Cuando esto
no es el caso, las alternativas se basan en procedimientos de calibración
multivariante, que ahora están firmemente establecidos. Pueden compensar
la presencia de interferentes incluyendolos en la fase de calibración,
como cuando se miden los datos de primer orden (por ejemplo, espectros)
[2], o simplemente por medios puramente matemáticos, como cuando se
consigue la ventaja de segundo orden de multi - datos de vía [3].
En este contexto, es bastante paradójico que los químicos analíticos
apliquen regularmente las normas oficiales en cuanto a los protocolos
analíticos, pero no siguen las mismas recomendaciones
Al informar sus resultados. Después de muchos años revisando manuscritos
para revistas analíticas de corriente, incluyendo Analytica Chimica Acta,
se ha compilado una lista de errores comunes e ideas erróneas que deben
evitarse al procesar e informar los datos de calibración.
Esto se aplica tanto a los datos uni y multivariantes, en este último
caso con especial atención a los datos de primer orden, y específicamente
utilizando el modelo de regresión de mínimos cuadrados parciales (PLS)
más popular [2].
El presente informe pretende proporcionar una guía práctica para mejorar
la presentación de los resultados de la calibración. Se ha dividido, por
razones de claridad, en tres secciones principales: la primera contiene
recomendaciones generales, aplicables a todas las formas de
procedimientos de calibración, la segunda se aplica específicamente a la
calibración univariada y la calibración multivariable final de uno a
primer orden. Aunque este último es con mucho la forma más popular de
calibración con múltiples datos por muestra, algunos consejos se
dirigirán ocasionalmente a la calibración multidireccional. Las secciones
dedicadas a los aspectos generales ya la calibración univariada son
quizás más elaboradas que la de calibración multivariante, en parte
porque los escenarios anteriores son más populares y también para
mantener una duración razonable del tutorial.

2. General
2.1. Personajes importantes
Un documento de orientación analítica debe prestar la debida atención a
las cifras significativas empleadas en la presentación de informes de
resultados, es decir, un número excesivamente grande de cifras
significativas deben evitarse [4]. Esto no es puramente cosmético; Los
autores deben prestar atención a este importante hecho, de lo contrario,
una impresión equivocada se producen en los lectores. También es la
acción recomendada por la convención internacional, y debe ser honrada
por todos los químicos por igual.
En general, todos los resultados deben informarse con un número de cifras
significativas compatibles con el error estándar asociado al resultado.
Las incertidumbres se deben reportar con una o como máximo dos cifras
significativas. Una buena regla es usar dos cifras significativas cuando
la primera es 1, o cuando la primera es 2 y la segunda es menor que 5; En
los casos restantes una sola una cifra significativa. Por ejemplo, una
concentración prevista no debe notificarse como 13,89 mg L-1 con una
desviación estándar de 2,85 mg L-1, pero si como 14 mg L-1 con un error
estándar de 3 mg L-1. Un valor de concentración de 13,89 mg L-1 daría al
lector la impresión errónea de que la incertidumbre en la predicción de
esta concentración es del orden de 0,01 mg L-1, mientras que en realidad
es dos órdenes de magnitud mayor! Incluso si no se proporciona el error
estándar, la notificación de la concentración como 14 mg L-1 transmite el
mensaje implícito de que la incertidumbre en tal determinación está en el
orden de mg L-1, lo cual es correcto. Un valor de concentración de 13,89
mg L-1 daría al lector la impresión errónea de que la incertidumbre en la
predicción de esta concentración es del orden de 0,01 mg L-1, mientras
que en realidad es dos órdenes de magnitud mayor! Incluso si no se
proporciona el error estándar, la notificación de la concentración como
14 mg L-1 transmite el mensaje implícito de que la incertidumbre en tal
determinación está en el orden de mg L-1, lo cual es correcto. Del mismo
modo, si la pendiente de un gráfico de calibración es 2158,2 AU L mg-1
(AU = unidades de señal arbitrarias), con un error estándar de 32 AU L
mg-1, la sensibilidad para la determinación del analito, que es igual a
la pendiente, No debe ser reportado como 2158,2 AU L mg-1. El informe
correcto debe ser 2,16 × 10 3 AU L mg-1, porque la incertidumbre afecta
al tercer dígito significativo.
Los parámetros adicionales derivados de las incertidumbres deben ser
reportados con una o como máximo dos cifras significativas. Por ejemplo,
un límite de detección (una cifra de mérito que depende de las
incertidumbres en las señales y concentraciones, véase más adelante) no
debe ser reportado como 0.1187 mg L-1, sino como 0.12 mg L-1.
Supongamos que la sensibilidad de un método ha sido de 6.48 × 10 2 AU L
mg-1, y el nivel de ruido instrumental es de 1.5 AU. A continuación, la
sensibilidad analítica, que es la relación de la sensibilidad al ruido
[5], debe comunicarse como 4,3 × 10 2 L mg-1, y no como 432 L mg-1. Esto
se debe a que el número de cifras significativas para el ruido (dos en
este caso) controla el número de cifras significativas de la sensibilidad
analítica.
Otras cifras de mérito a reportar con como máximo dos cifras
significativas son el límite de decisión (LD), el límite de
cuantificación (LOQ), el error de predicción medio o el error cuadrático
medio (RMSE) y el error relativo de predicción ( REPS). Los dos últimos
parámetros se pueden estimar de acuerdo con:

Donde cnom, n y cpred, n son las concentraciones nominales y previstas


para la muestra de ensayo n, N es el número de muestras de ensayo, y cal
c es la concentración media de calibración.
Por último, las recuperaciones expresadas en% deben contarse con un
número de cifras significativas compatibles con las correspondientes a
las concentraciones de analitos indicadas.

2.2. Optimización de métodos analíticos


Por lo general, la optimización de los métodos analíticos se realiza
cambiando una variable a la vez. Este no es el procedimiento recomendado
de optimización en química analítica y otros campos de química, ya que:
(1) requiere considerablemente más puntos experimentales que otros
procedimientos racionales de optimización de respuesta superficial (SRO),
(2) sólo proporciona optima local, en comparación con globales (3) no
toma en consideración las posibles interacciones entre los factores que
afectan y, quizás lo más importante, (4) conduce a resultados subóptimos
y, por lo tanto, el resultado final puede no ser el mejor para la
Propósito que persiguen los autores [6].
Vale la pena repetir el siguiente fragmento bastante triste de la
conclusión de un tutorial sobre el diseño multivariante y la optimización
de experimentos [7]: "... Al examinar los artículos publicados en
Analytica Chimica Acta en 2009 (del volumen 631 al volumen 645, más el
Documentos publicados en la sección "Artículos en Prensa" el 3 de junio
de 2009), encontré 165 de ellos con el título general o un título de
sección que contenía las palabras "optimización" o "desarrollo", o
"mejora" o "efecto de "Sólo en 11 artículos (es decir, uno de cada
15 ...) se ha seguido un enfoque multivariado, mientras que en la gran
mayoría de ellos la" optimización "se realizó una variable a la vez, a
veces con los títulos de las subsecciones ("Efecto del pH", "Efecto de la
temperatura", "Efecto del flujo", etc.) ... "Una inspección de la
literatura analítica de 2009 a la fecha revela que el enfoque de Cambiar
una variable a la vez para intentar La optimización ting aún está en uso.
Se anima a los autores a seguir los procedimientos bien establecidos y
confiables de optimización multivariable descritos en las refs. [6, 7] y
sus referencias. Como un ejemplo apropiado, considere un procedimiento
típico de optimización empleado en la determinación de las propiedades
antialérgicas
Epinastina en suero humano por electroforesis capilar [8]. Es evidente
que dos parámetros analíticos importantes (el tiempo de análisis y la
resolución entre los picos de la
Analito y un estándar interno) dependía de varios factores
experimentales. El objetivo era minimizar el tiempo y alcanzar un valor
objetivo de 2 para la resolución. Los factores fueron la concentración y
pH del tampón, el tiempo de inyección, la tensión de inyección y la
tensión de separación. Cuando el número de factores a optimizar es
bastante grande, tal como en el presente ejemplo, es aconsejable realizar
primero una fase de selección de experimentos. Las respuestas analíticas
se miden para un pequeño número de pruebas, diseñadas para explorar la
importancia relativa de los diversos factores. Esto requiere un diseño
experimental de muchos factores en un pequeño número de niveles, como el
diseño de Plackett-Burman [6, 7], que sólo requiere doce experimentos.
Como resultado del análisis estadístico de las respuestas para los
experimentos de cribado, se encontraron cuatro factores importantes: la
concentración y el pH del tampón, la tensión de inyección y la tensión de
separación [8]. En la siguiente fase de optimización, se empleó un diseño
con más niveles por factor, con el fin de poder explorar la respuesta
superficial (posiblemente no lineal). En este caso se utilizó un diseño
compuesto central [6,7] (30 experimentos con 5 niveles por factor). Las
respuestas se modelaron como una función de los factores que utilizan
polinomios cúbicos. Cuando dos respuestas se estudian simultáneamente, la
optimización total no es generalmente posible, pero los resultados
deseables pueden ser obtenidos mediante la combinación de las respuestas
en una función deseable para ser optimizado [9]. El enfoque permitió
estimar las respuestas analíticas deseables y los correspondientes
valores de los factores [8]. Esto ilustra el proceso completo de
selección y optimización que es aconsejable al diseñar experimentos
analíticos complejos, en lugar de modificar las variables una a la vez.

3. Calibración de un solo componente


3.1. Determinación del analito
El conjunto de concentraciones diseñado para la calibración debe incluir
el blanco. La muestra con concentración de analito cero permite obtener
una mejor visión de la región de las concentraciones de analito baja y
capacidades de detección [1].
La expresión matemática empleada para ajustar los datos a un modelo
lineal debe incluir una intercepción. Este último representa la señal en
blanco, incluso si se sospecha que la señal en blanco es cero.
De hecho nunca es exactamente cero, ya sea por la existencia de una
pequeña señal en blanco, o por la presencia universal de ruido
instrumental.
Las concentraciones de analito en el conjunto de calibración deben
incluirse como muestras replicadas, y no como muestras individuales. Esto
permite obtener resultados de regresión más robustos y evaluar la
linealidad del gráfico de calibración (véase más adelante), así como
otros parámetros estadísticos [1].
3.2. Linealidad
El coeficiente de correlación (R) de un gráfico de calibración se emplea
generalmente para evaluar su linealidad, regularmente por inspección
visual de su cercanía a 1. Sin embargo, la Unión Internacional de Química
Pura y Aplicada (IUPAC) desalienta el coeficiente de correlación como un
indicador de linealidad En la relación entre concentración y señal. Esto
se expresa literalmente en la ref. [1]: "... el coeficiente de
correlación, que es una medida de relación de dos variables aleatorias,
no tiene ningún significado en la calibración ...". Se ofrece una vista
menos estricta en la ref. [10], donde se dice que el coeficiente de
correlación proporciona una medida del grado de asociación lineal entre
la concentración y la señal. Sin embargo, se sugiere que la linealidad se
verifique usando la prueba que se discutirá más adelante.
Para probar la linealidad, los autores deben informar el valor F
experimental correspondiente a la razón de la varianza residual al error
cuadrado puro, y el F crítico tabulado para la comparación.
Específicamente, la razón F experimental se da por:

Donde sy / x es la desviación estándar residual y sy es el llamado error


puro (una medida del ruido instrumental). Estos parámetros se pueden
estimar a partir de los datos de calibración como:

En las últimas expresiones, yi e iy son los valores de respuesta


experimentales y estimados para la muestra i, ylq es la respuesta de
calibración para la réplica q en el nivel l, ly es la respuesta media en
el nivel l, e I, L y Q son el total Número de muestras de calibración,
niveles y repeticiones en cada nivel, respectivamente.
, I-2, I-L) (I es el número de muestras de calibración y L el número de
niveles de concentración). Esta prueba es el mejor indicador de
linealidad, tal como lo recomienda IUPAC [1], y supone verificar
estadísticamente si la varianza residual es mayor que el error cuadrado
puro derivado del estudio de muestras replicadas., F ( si Fexp excede
el valor crítico en el nivel . Las hipótesis estadísticas son H0 (los
datos son lineales) y la alternativa Ha (los datos no son lineales), y la
hipótesis nula sería rechazada a nivel de significación.
Se puede observar que una evaluación alternativa de la linealidad también
se ha discutido resistiendo al análisis de varianza (ANOVA) de los datos
de calibración [10]. En esta última metodología, se hace una comparación
de la llamada varianza de falta de ajuste con el error cuadrado puro
mediante una prueba de F. Mientras que el error puro se define como en la
ecuación (5) anterior, la falta de ajuste difiere de sy / x y conduce a
diferentes valores experimentales y críticos de F [10].
Sería aconsejable leer los excelentes informes breves del Comité de
Métodos Analíticos de la Royal Society of Chemistry [11]. ¿Puede
ajustarse un conjunto de datos de calibración a un análisis de regresión
lineal, dando un coeficiente de correlación cercano a la unidad y aún no
lineal? La Tabla 1 proporciona un ejemplo, en el que es fácil comprender
los riesgos de emplear coeficientes de correlación para evaluar la
linealidad.

3.3. Límite de detección


El límite de detección univariante (LODu) se suele estimar utilizando la
definición antigua, ahora abandonada por IUPAC, basada en la
concentración de analito que da una señal de al menos tres
Veces mayor que la desviación estándar de la señal en blanco. Este valor
LODu es generalmente una subestimación [12, 13].
de declarar 'analito ausente' mientras que de hecho está presente. Este
es el significado de falsa detección o falso positivo. El límite de
detección es-errores o errores de Tipo I). Como se ilustra en la Fig. 1,
el área sombreada en verde representa una porción de la distribución
Gaussiana de los valores de concentración con una probabilidad La
recomendación moderna de IUPAC requiere primero definir un nivel para la
decisión de detección (LD), con un cierto riesgo de detecciones falsas
(también llamadas falsos positivos, esto corresponde al área sombreada en
rojo en la Fig. 1,-errores o errores de Tipo II) tiene una probabilidad
Entonces definido como un nivel de concentración para el cual el riesgo
de falso no detecta (falsos negativos, normalmente se asignan valores
razonablemente pequeños, dependiendo de la aplicación analítica
específica. Figura 1 y Donde el analito puede ser declarado presente
mientras que de hecho está ausente. Ambos
Permite entender la expresión para el LODu univariado:

c, LOD, nivel de confianza del 95%c, 0 = c, LOD son los errores
estándar de concentración para los niveles blanco y LODu, A es la
pendiente del gráfico de calibración univariante, I es el número de
muestras de calibración y sy / x es la desviación estándar residual.
Suponiendo c, 0 y  probabilidades respectivamente,  y  grados de
libertad y ) son coeficientes estudiantiles con ) y t (Donde t (
= 0.05) y un gran número de grados de libertad, se obtiene el lado
derecho de la ecuación (6), donde h0 es el apalancamiento de la muestra
en blanco

Donde cal es la concentración media de calibración y ci es cada uno de


los valores de concentración de calibración. Conceptos similares se
aplican al límite de cuantificación (LOQu):

Donde el factor 10 asegura una incertidumbre de predicción relativa


máxima del 10%.
La Tabla 2 muestra los resultados típicos para un gráfico de calibración
construido con cuatro niveles de concentración duplicados. En este
ejemplo particular, el LODu calculado con la vieja definición IUPAC es
casi la mitad del valor estimado con el enfoque moderno. Por lo general,
la definición antigua subestima significativamente el límite de
detección.
Un software libremente descargable escrito en MATLAB [14] está disponible
en www.iquirconicet.gov.ar/descargas/univar.rar, que realiza la
calibración univariante, aplica la prueba de linealidad F y proporciona
varias figuras analíticas de mérito de acuerdo con los criterios
comentados anteriormente .
es análoga a la LODu anterior. Esto puede interpretarse como la
concentración mínima de analito que puede ser discriminada desde el
blanco, controlando los riesgos de falsos positivos y falsos negativos.
La definición de CC), que es la concentración más pequeña de la
sustancia que puede detectarse, identificarse y / o cuantificarse en una
muestra con un error Probabilidad de Cabe señalar que la Comisión
Europea ha adoptado recomendaciones similares [15], incluida la capacidad
de detección (CC
3.4. Adición estándar
Cuando se emplee la adición estándar para el análisis de las muestras,
debe proporcionarse una justificación apropiada. No basta con decir que
las muestras son complejas, o que provienen de un origen biológico,
porque esto no significa, per se, que la adición estándar es necesaria
para la cuantificación del analito [16].
La adición estándar univariante debe emplearse sólo cuando: (1) la
pendiente de la relación respuesta-concentración difiere del analito puro
al analito incrustado en un cierto fondo, y (2) el fondo no responde.
Esto puede comprobarse comparando estadísticamente las pendientes con
cierto nivel de confianza y número de grados de libertad [10,17], y no
mediante comparación visual. Entonces, sólo en el caso de que las
pendientes se diferencien significativamente (ver ref. [10, 17]), se debe
emplear la adición estándar, ya que este último modo analítico es muy
costoso en comparación con la calibración clásica.
La comparación de dos pendientes A1 y A2 se basa en las hipótesis H0 (A1
= A2) y la alternativa Ha (A1 ≠ A2), rechazando la hipótesis nula en el
nivel de significación α si texp excede el valor crítico en el nivel α, t
(α, N1 + N2-4) (N1 y N2 son el número de valores de concentración
utilizados para estimar cada pendiente). El valor t experimental se
estima como [10,17]:

Donde cada método es evaluado usando N1 y N2 valores de concentración cn1


y cn2, cuyos promedios son 1 c y 2 c, respectivamente, y 2ps es la
varianza agrupada:

Donde s2 y / x1 y s2 y / x2 s son las desviaciones residuales de cada gráfico


de calibración. Cabe señalar que la ecuación (10) sólo es válida cuando
las varianzas de cada línea de regresión son comparables, hecho que puede
comprobarse con una prueba F adecuada [10, 17].
Un ejemplo es proporcionado por el análisis de la ciprofloxacina
antibiótico en agua y suero humano, utilizando seis diferentes
concentraciones en el rango de 0,00-0,50 mg L-1 [18]. La Tabla 3 muestra
las señales replicadas, las pendientes y los parámetros estadísticos para
la comparación. Dado que texp es mayor que el valor tabulado, la
conclusión es que las pendientes son diferentes a un nivel de confianza
del 95%, lo que justifica el uso de la adición estándar
3.5. Comparación de dos métodos analíticos
El error cuadrático medio (RMSE) suele emplearse como indicador de si una
determinada metodología analítica proporciona una mejor capacidad
predictiva. Sin embargo, la comparación de los valores RMSE no debe
basarse en la inspección visual. Se debe aplicar una prueba estadística
adecuada para evaluar si dos valores RMSE son estadísticamente
diferentes, como la prueba de aleatorización descrita en la ref. [19].
Por consiguiente, no se deben sacar conclusiones sobre la base de valores
de RMSE mayores o menores, hasta que se haya aplicado una prueba
adecuada. Un código MATLAB corto para aplicar la prueba de aleatorización
se proporciona en la referencia. [19], y una versión adaptada se da ahora
en la Tabla 4.
Para ilustrar la filosofía de la prueba de aleatorización, un ejemplo
simple se proporciona en la Tabla 5 (arriba). Para un grupo de cinco
muestras de ensayo, las concentraciones se estiman con tres métodos
diferentes, dando lugar a tres valores RMSE: RMSE1 = 1,0, RMSE2 = 2,0 y
RMSE3 = 1,2. Ambos RMSE2 y RMSE3 son más grandes que RMSE1, pero la
pregunta es si esto es estadísticamente relevante. En el medio de la
Tabla 5, la operación de la prueba de aleatorización se muestra para la
comparación de RMSE2 con RMSE1. Primero se calcula la diferencia entre
los errores al cuadrado, así como la diferencia de media, igual a 3
unidades en la Tabla 5. A continuación, el signo de cada diferencia se
invierte aleatoriamente, como se ve en las columnas subsiguientes como
tres ejemplos pertinentes de la operación de aleatorización. La media de
cada nueva columna de diferencias se compara con la media original y se
registra una estadística del número relativo de veces que estas nuevas
diferencias son mayores que la original. Este es el valor p asociado a la
prueba. Como se ve en la Tabla 5 (medio), en los tres ejemplos de casos
las nuevas diferencias son más pequeñas que las originales. De hecho,
repetir el proceso de aleatorización un gran número de veces conduce a la
conclusión de que el valor de p es << 0,05, lo que indica que RMSE2 es
significativamente mayor que RMSE1. Aquí las hipótesis son H0 (RMSE2 =
RMSE1) y Ha (RMSE2> RMSE1), y la prueba proporciona directamente la
probabilidad p asociada a H0, lo que sugiere el rechazo de la hipótesis
nula.
En la parte inferior de la Tabla 5 se hace una comparación análoga entre
RMSE3 y RMSE1. En este caso, los medios de las nuevas diferencias (que
surgen después de invertir aleatoriamente los signos de la diferencia
original) son a veces más pequeños y algunas veces mayores que el valor
original de 0,4. La aplicación de la prueba un gran número de veces
conduce a la conclusión de que p = 0,5, lo que indica que RMSE3 y RMSE1
no son estadísticamente diferentes, es decir, la hipótesis nula H0 se
acepta. La Tabla 6 muestra un segundo ejemplo que implica los resultados
de la prueba de aleatorización de las predicciones de dos métodos
analíticos en un conjunto de muestras de ensayo. Los errores aleatorios
afectan igualmente las concentraciones previstas, con una desviación
estándar de 1 unidad. Se supone que el método 1 es imparcial, mientras
que el método 2 está cada vez más sesgado. Cuando el sesgo en el método 2
es cero, el número relativo de casos para los cuales se encuentran
diferencias en ambos métodos es pequeño, independientemente del número de
muestras de prueba (Tabla 6). Sin embargo, como el sesgo en el método 2
aumenta, el RMSE2 aumenta, y el número de casos para los que se
encuentran diferencias significativas también aumenta.
Sin embargo, observe en la Tabla 6 que para un sesgo de 1,5 unidades,
cuando el número de probetas es pequeño (10), todavía hay un 50% de
probabilidad de no encontrar diferencias significativas entre ambos
métodos, incluso cuando RMSE2 es casi dos veces RMSE1.
Estos resultados ponen de relieve la necesidad de emplear pruebas
adecuadas para probar que un determinado RMSE es menor (o mayor) que el
proporcionado por un método analítico alternativo. Comprobar visualmente
que RMSE2> RMSE1 no garantiza que la diferencia observada sea
estadísticamente significativa.

3.6. Estudios de recuperación


Al discutir los resultados de la recuperación, se suele afirmar que son
satisfactorios, sólo mediante inspección visual de los valores previstos
o la cercanía de las recuperaciones al 100%. Sin embargo, las pruebas
estadísticas deben aplicarse para evaluar si una recuperación no es
estadísticamente diferente de 100% [20], informando tanto experimental y
crítica t valores [20]. Debe observarse, sin embargo, que estas pruebas
asumen ciertas condiciones que los datos deben cumplir, tales como
varianza constante
[21].
, N-1) (N es el número de muestras de prueba). El valor texp experimental
se estima a partir de:, t ( si texp supera el valor crítico a nivel La
Tabla 7 muestra un problema típico de evaluar las recuperaciones de un
analito de un grupo de muestras farmacéuticas de composición similar,
cuyas concentraciones se puede suponer que tienen una varianza similar.
Por lo general, las tablas como la Tabla 7 se dejan sin procesar,
recurriendo sólo a la inspección visual de las recuperaciones para
justificar buenas predicciones analíticas. Un análisis estadístico
adecuado implica una prueba de hipótesis de si la recuperación media es
significativamente diferente del 100% o no. Las hipótesis son H0 (exp R =
100%) y la alternativa Ha (exp R ≠ 100%); La hipótesis nula se rechaza a
nivel de significación

Donde exp R es la recuperación experimental media y sR la desviación


estándar de las recuperaciones.
La comparación se hace usualmente a un nivel de confianza del 95%, como
se detalla en la Tabla 7. De acuerdo con los resultados citados en la
última tabla, el método es preciso, puesto que texp <t (0,025, N-1).
Cuando el rango de concentración de analito en las muestras de ensayo es
bastante ancho y no se puede suponer una varianza constante, la regresión
lineal de las concentraciones de analito predicha vs. nominal es
Donde exp R es la recuperación experimental media y sR la desviación
estándar de las recuperaciones.
La comparación se hace usualmente a un nivel de confianza del 95%, como
se detalla en la Tabla 7. De acuerdo con los resultados citados en la
última tabla, el método es preciso, puesto que texp <t (0,025, N-1).
Cuando el rango de concentración de analito en las muestras de ensayo es
bastante amplia y constante no se puede asumir la varianza, se recomienda
una regresión lineal de las concentraciones predichas versus las
concentraciones nominales de analito [22]. El análisis de estos
resultados no debe basarse en el estudio de si los valores ideales de
pendiente unitaria y intersección cero se incluyen individualmente dentro
de sus rangos de confianza alrededor de las medias. La prueba recomendada
es la llamada prueba de la región de confianza de la articulación
elíptica (EJCR), que implica dibujar la EJCR para la pendiente y la
intersección de la trama lineal anterior, y comprobar si se incluye el
punto ideal (pendiente = 1, intercepto = 0) En la elipse [22]. Debe
observarse que para la varianza de predicción no constante, se debe
emplear una técnica de regresión que explique el hecho de que hay errores
no constantes, tales como leastsquares ponderados (WLS) o mínimos
cuadrados bilineares (BLS), y no los mínimos ordinarios -squares (OLS),
como se suele hacer [23, 24]. De lo contrario, podrían obtenerse
conclusiones dramáticamente diferentes [24]. La expresión específica que
describe el EJCR es:

Donde A y B son la pendiente estimada y la intersección para la regresión


de las concentraciones de analito predichas vs. nominal, N es el número
de muestras de ensayo, cxn la concentración de la enésima muestra
utilizada como referencia y colocada en el eje x del análisis de
regresión, Sy / x es la desviación estándar residual de esta regresión
lineal específica (no debe confundirse con la correspondiente al gráfico
de calibración), y F (0,05,2, N-2) es el valor crítico del parámetro F
con 2 y N - 2 grados de libertad y un nivel de confianza del 95%.
Un ejemplo apropiado se ilustra en la Tabla 8, que recoge datos para un
número de muestras, incluyendo la concentración de referencia en
patrones, la media de análisis de muestras triplicadas por un método bajo
escrutinio y las correspondientes desviaciones estándar. La regresión
usando WLS, que toma en cuenta la varianza en cada concentración,
proporciona la región elíptica mostrada en la Fig. 2 (línea roja),
indicando que el método no es exacto. Sin embargo, OLS regresión puntos
de lo contrario (línea azul en la Fig. 2). Por cierto, la consideración
de los intervalos de confianza individuales para la pendiente de MCO y la
intersección (rectángulo negro en la Fig. 2) conduce a la misma
conclusión
Como la región elíptica OLS (Tabla 8). La prueba EJCR se puede
implementar usando el MATLAB
Código proporcionado en www.iquir-conicet.gov.ar/descargas/ejcr.rar.

También podría gustarte