La migración 🚀 de Hugo Themes a Quarto estará completamente lista en enero de 2025. Actualmente, el sitio web 🖥️ está en construcción 🛠️🚧
Control Estadístico de Calidad
El Control Estadístico de Calidad es una metodología que aplica técnicas estadísticas para supervisar y mejorar la calidad de procesos y productos. Su objetivo es detectar y eliminar las causas de variación en los procesos, asegurando que los productos finales cumplan consistentemente con las especificaciones y expectativas.
Exercises Introduction to Statistical Quality Control Montgomery
5.6
El peso neto (en onzas) de un producto de blanqueador seco debe ser monitoreado mediante las cartas de control \(\overline{X}\) y \(R\) utilizando un tamaño de muestra de \(n = 5\). Los datos de \(20\) muestras preliminares son los siguientes.
a). Realice las cartas de control \(\overline{X}\) y \(R\) usando estos datos. ¿El proceso exhibe control estadístico?
De acuerdo con las cartas de control \(R\) y \(\overline{X}\) (Figure 1) podemos afirmar que el proceso está bajo control estadístico.
b). Estime la media y la desviación estándar del proceso.
Jarque Bera Test
data: soloNumeros
X-squared = 1.433, df = 2, p-value = 0.4885
En este caso como el tamaño de muestra no es muy grande (\(n = 100\)) no se recomienda usar la prueba de Kolmogorov-Smirnov, usaremos entonces las que se ajusten mejor a nuestro caso. Tanto el test de Shapiro-Wilk como el de Jarque-Bera nos indican que los datos provienen de una distribución normal, ya que el p-valor\({\color{green} >} \;\alpha\) por lo tanto no se rechaza \(H_0 :=\) Los datos siguen una distribución normal. Finalmente, podemos afirmar que, con un nivel de confianza del \(90\%\), el peso de relleno sigue una distribución normal y gráficamente pareciera ser así.
d). Si las especificaciones están en \(16.2 \pm 0.5\), ¿qué conclusiones sacaría sobre la capacidad del proceso?
De acuerdo con lo anterior (Figure 2), \(\approx 3\) de cada \(1000\) envases producidos por el proceso está por debajo del límite inferior de especificación.
5.10
Se toman muestras de \(n = 8\) artículos de un proceso de fabricación a intervalos regulares. Se mide una característica de calidad y se calculan los valores \(\overline{x}\) y \(R\;\) para cada muestra. Después de 50 muestras, tenemos,
c). Si los límites de la especificación son \(41 \pm 5.0\), ¿cuáles son sus conclusiones con respecto a la capacidad del proceso para producir artículos dentro de estas especificaciones?
Se considera que un valor mayor o igual a \(1\) es señal de una buena capacidad.
d). Suponiendo que, si un artículo excede el límite superior de la especificación, se puede volver a trabajar, y si está por debajo del límite inferior de la especificación, se debe desechar, ¿qué porcentaje de rechazo y retrabajo está produciendo el proceso?
Por lo tanto, el \(0.032\%\) de los artículos se pueden volver a trabajar (rehacer) y el \(1.138\%\) de los artículos se deben desechar.
e). Haga sugerencias sobre cómo se podría mejorar el rendimiento del proceso.
Una recomendación para mejorar el desempeño del proceso sería revisar éste para ver si es posible disminuir la variabilidad, aumentar la media del proceso puede que no sea correcto, ya que es posible que por especificaciones de ingeniería no deba aumentar la media.
5.13
Las piezas fabricadas mediante un proceso de moldeo por inyección se someten a una prueba de resistencia a la compresión. Se recogen veinte muestras de cinco partes cada una, y las resistencias a la compresión (en psi) se muestran en la siguiente tabla.
a). Establezca gráficos de control \(\overline{X}\) y \(R\;\) para la resistencia a la compresión utilizando estos datos. ¿Está el proceso en control estadístico?
Figure 3
Antes que nada, cabe resaltar que hay un error de digitación en la muestra\(\#9\) (el valor de \(x_4\) no es \(64.1\) sino \(84.1\)). Dicho cambio se realiza ya que para el apartado siguiente (y no podemos eliminar dicho punto ya que no contamos con una causa asignable para él). Sabemos que dicho cambio se debe hacer para que cuadre el valor de \(\overline{x}\) de la muestra \(\#9\), escrito en la tabla.
Finalmente, podemos decir que el proceso está bajo control estadístico (Figure 3).
b). Después de establecer los cuadros de control en la parte a)., se recogieron \(15\) nuevos subgrupos y las resistencias a la compresión se muestran a continuación. Trace los valores \(\overline{X}\) y \(R\;\) contra las unidades de control de la parte a). y saque conclusiones.
Figure 4
Primero que todo, cabe resaltar que nos encontramos ahora en Fase II (ya que el proceso anterior estaba bajo control). Con esto, podemos observar (Figure 4) que varios subgrupos exceden el límite superior de control en la carta \(R\).
5.19
Se utiliza una carta \(\overline{X}\) para controlar la media de una característica de calidad distribuida normal. Se sabe que \(\sigma = 6.0\) y \(n = 4\). El \(\text{LC} = 200\), \(\text{LCS} = 209\) y \(\text{LCI} = 191\). Si la media del proceso cambia a \(188\), encuentre la probabilidad de que este cambio se detecte en la primera muestra posterior.
Donde \(\beta\) es la probabilidad de no detectar dicho cambio. La probabilidad de que se detecte dicho cambio en la primera muestra posterior es \(1-\beta = 1-0.1587 = 0.8413\). Por lo tanto, existe un \(84.13\%\) de posibilidades de que el cambio se detecte en la primera muestra posterior al proceso.
5.26
Las tablas de control en \(\overline{X}\) y \(R\;\) para muestras de tamaño \(n=5\) deben mantenerse sobre la resistencia a la tracción en libras de un hilo. Para comenzar las cartas, se seleccionaron \(30\) muestras y se calculó la media y el rango de cada uno. Esto produce,
b). Suponga que ambas cartas exhiben control. Hay un límite de especificación inferior único de 16 lb. Si la resistencia se distribuye normal, ¿qué fracción de hilo no cumpliría con las especificaciones?
De acuerdo con lo anterior, \(\approx 20\) de cada \(1000\) hilos no cumpliría con las especificaciones (debajo del límite inferior de especificación).
5.48
La viscosidad de un polímero se mide por hora. Las mediciones de las últimas 20 horas se muestran a continuación.
a). ¿La viscosidad sigue una distribución normal?
Data <-read.delim("data/Exercise 6-63.txt")soloNumeros <-c(Data$Viscosity)shapiro.test(soloNumeros) # Prueba de Shapiro-Wilk
Shapiro-Wilk normality test
data: soloNumeros
W = 0.96211, p-value = 0.5869
Jarque Bera Test
data: soloNumeros
X-squared = 1.0734, df = 2, p-value = 0.5847
En este caso como el tamaño de muestra no es muy grande (\(n = 20\)) no se recomienda usar la prueba de Kolmogorov-Smirnov, usaremos entonces las que se ajusten mejor a nuestro caso. Tanto el test de Shapiro-Wilk como el de Jarque-Bera nos indican que los datos provienen de una distribución normal, ya que el p-valor\({\color{green} >} \;\alpha\) por lo tanto no se rechaza \(H_0 :=\) Los datos siguen una distribución normal. Finalmente, podemos afirmar que, con un nivel de confianza del \(95\%\), las mediciones de viscosidad parecen seguir una distribución normal y gráficamente pareciese ser así.
b). Configure una tabla de control de viscosidad y una tabla de rango móvil. ¿El proceso exhibe control estadístico?
Table 1: Tabla de Control de Rango Móvil
Viscosidad
Rango Móvil
2838
NA
2785
53
3058
273
3064
6
2996
68
2882
114
2878
4
2920
42
3050
130
2870
180
3174
304
3102
72
2762
340
2975
213
2719
256
2861
142
2797
64
3078
281
2964
114
2805
159
Figure 5
El proceso parece estar bajo control estadístico, ya que no hay observaciones fuera de control en la tabla de control de individuos (Table 1) ni en el gráfico de individuos (Figure 5).
c). Estime la media y la desviación estándar del proceso.
Genere números aleatorios de una \(\mathcal{N}(\mu = 0,\; \sigma^2 = 1)\) hasta formar 10 subgrupos de tamaño \(n = 4\). A partir del subgrupo \(10\) genere las observaciones de una \(\mathcal{N}(\mu_1,\; 1)\) hasta que la carta \(\overline{X}\) produzca una señal, donde,
A continuación, se expone el código para dicha simulación, tomando como valor de ejemplo \(\delta = 1.0\).
set.seed(963852)NumSample <-10; TamSample <-4mu0 <-0; sigma <-1; A <-3/sqrt(TamSample)Muestras <-matrix(data =rnorm(NumSample*TamSample, mu0, sigma), nrow = NumSample, ncol = TamSample)delta <-3.0# Luego con 1.25,2.0,2.5 y 3.0mu1 <- mu0 + delta*(sigma/sqrt(TamSample))CartaXbar <-qcc( Muestras, type ="xbar", center = mu0,limits =c(mu0-A*sigma,mu0+A*sigma), plot =FALSE)Prueba <-sum(CartaXbar$violations$beyond.limits)while (Prueba==0) { x <-rnorm(n = TamSample, mean = mu1, sd =1) Muestras <-rbind(Muestras, x)rownames(Muestras) <-1:nrow(Muestras) CartaXbar <-qcc( Muestras, type ="xbar", center = mu0,limits =c(mu0-A*sigma,mu0+A*sigma), plot =FALSE ) Prueba <-sum(CartaXbar$violations$beyond.limits)}New_CartaXbar <-qcc( Muestras, type ="xbar", center = mu0,limits =c(mu0-A*sigma,mu0+A*sigma), plot =FALSE)T <- New_CartaXbar$violations$beyond.limitsEstimador <-NULLfor (i in0:(T-1)) {if (i==T-1) { xbarbar <-mean(Muestras[1:(T-i), ]) }else { xbarbar <-mean(rowMeans(Muestras[1:(T-i), ])) } Estimador[i] <- (T-i)*((xbarbar-mu0)^2)}Estimador_tau <-c(1:(T-1))[Estimador==max(Estimador)]c("Delta"= delta, "Estimador_tau"= Estimador_tau)
Finalmente, para todos los valores de \(\delta\) obtenemos el estimador del punto de cambio para la media \(\widehat{\tau}_{MLE}\), obteniendo como resultado,
Table 2
\(\delta\)
1.0
1.25
2.0
2.5
3.0
\(\widehat{\tau}_{MLE}\)
30
26
8
8
6
Podemos observar (Table 2) que para \(\delta = 1.0\) se necesitaron 35 subgrupos más para que la carta \(\overline{X}\) diera una señal, mientras que para \(\delta = 3.0\) solo se necesita un subgrupo más para que la carta diera una señal. El estimador del punto de cambio para el primer caso fue 30, es decir, que en el subgrupo 30 se dio un cambio en la media. Finalmente, para \(\delta\geq 3.0\) el estimador del punto de cambio tiende a mantenerse constante indicando que fue en el subgrupo 6 donde se dio dicho cambio.
Cabe resaltar que los límites de control, en la simulación, no deben cambiar porque conocemos los parámetros poblacionales.
2). Capacidad de procesos
Genere \(100\) números aleatorios de una \(\mathcal{N}(\mu = 10, \sigma^2 = 9)\). Asuma que \(\text{LEI} = 2\) y \(\text{LES} = 18\). Estime \(\mu\) y \(\sigma\) y calcule \(\widehat{C}_p\), \(\widehat{C}_{pk}\) y \(\widehat{C}_{pm}\). Construya un \(\text{I.C}_{(1-\alpha)\%}\) para \(C_p\).
set.seed(666666)LEI <-2; LES <-18; n <-100# Cuando se dan los límites de especificación se asume que el valor objetivo T es el promedio.T <- (LEI+LES)/2Xi <-rnorm(n, mean =10, sd =3)xBarra <-mean(Xi); SigmaEst <-sd(Xi)C_p <- (LES-LEI)/(6*SigmaEst)d <- (LES-LEI)/2; M <- (LES+LEI)/2C_pk <- C_p*(1-(abs(xBarra-M)/d))C_pm <- (LES-LEI)/(6*sqrt( sum((Xi-T)^2)/(n-1) ))
Figure 6
Table 3
Proceso
mu
sigma
Cp
Cpk
Cpm
A
9.4962
3.0306
0.8799
0.8245
0.8679
El proceso anterior revela que (Figure 6) la media del proceso está centrada aproximadamente en el punto medio del intervalo de especificaciones con una desviación estándar muestral de \(3.03\). Los 3 índices no coinciden (Table 3), siendo el mayor el \(\widehat{C}_p\), aunque este no tiene en cuenta desvíos de \(\mu\) respecto de \(T\). Por último, observamos que ninguno de ellos es \(\geq 1\), qué es lo que se busca en un proceso productivo.
Finalmente, un intervalo de confianza del \(95\%\) de confianza para \(C_p\) es, \[\text{I.C}_{95\%}(C_p) = ({\color{cyan} 0.873}, \; {\color{red} 0.881})\]
SOLUCIÓN TALLER #2
Exercises Introduction to Statistical Quality Control Montgomery
6.1
Los siguientes datos dan el número de conjuntos de rodamientos y sellos no conformes en muestras de tamaño \(100\). Construya una carta de control de fracción no conforme para estos datos. Si alguno de los puntos está fuera de control, suponga que se pueden encontrar causas asignables y determine los límites de control revisados.
La carta de control para la fracción no conforme de rodamientos y sellos (Figure 7), la cual no se encuentra bajo control estadístico, queda definida por los límites, \(LCS = 0.1289 \hspace{0.25cm}|\hspace{0.25cm} \overline{P} = 0.0585 \hspace{0.25cm}|\hspace{0.25cm} LCI = 0\).
Ahora eliminando la muestra \(\#12\), ya que suponemos que se encontró una causa asignable para éste, tenemos que,
Finalmente, eliminando la muestra número 12, ya que suponemos que se encontraron causas asignables para dicha muestra, la nueva carta (Figure 8), la cual se encuentra ahora bajo control estadístico, queda definida mediante, \(LCS = 0.1213 \hspace{0.25cm}|\hspace{0.25cm} \overline{P} = 0.0537 \hspace{0.25cm}|\hspace{0.25cm} LCI = 0\).
6.4
Un proceso que produce piezas forjadas de titanio para las ruedas de turbocompresor de automóviles se controlará mediante el uso de una carta de fracción no conforme. Inicialmente, se toma una muestra de tamaño \(150\) cada día durante 20 días, y se observan los resultados que se muestran aquí.
a). Establezca una carta de control para monitorear la producción futura.
b). ¿Cuál es el tamaño de muestra más pequeño que podría usarse para este proceso y aún así dar un límite de control inferior positivo en la carta?
Asumiendo que \(L = 3\) sigma, como es lo usual, el tamaño de muestra mínimo para lograr un límite de control inferior positivo es,
Por lo tanto, \(n = 530\) es el tamaño de muestra más pequeño para que la carta de control tenga un \(LCI\) positivo.
6.6
Según los siguientes datos, si se va a establecer una carta \(np\), ¿cuál recomendaría como la línea central y los límites de control? Suponga que \(n = 500\).
Recalculando los límites de control (Figure 9) sin la muestra \(\#6\), ya que suponemos que se encontraron causas asignables para dicha muestra, la nueva carta (Figure 10), la cual se encuentra ahora bajo control estadístico, queda definida mediante, \(LCS = 8.39 \hspace{0.25cm}|\hspace{0.25cm} n\overline{p} = 3.11 \hspace{0.25cm}|\hspace{0.25cm} LCI = 0\), los cuales son la línea central y los límites de control recomendados.
Figure 10
6.36
Los defectos superficiales se han contado en \(25\) placas de acero rectangulares, y los datos se muestran aquí (Table 4). Configure una carta de control para las no conformidades utilizando estos datos. ¿El proceso que produce las placas parece estar bajo control estadístico?
De acuerdo con la carta de control c (Figure 11) podemos observar que el proceso de placas de acero rectangulares no parece estar bajo control estadístico, pues la muestra \(\#13\) supera el \(LCS\). Por lo que se debería detener el proceso y buscar alguna causa asignable a dicho dato.
6.37
Una fábrica de papel utiliza un cuadro de control para controlar la imperfección en los rollos de papel terminados. La producción se inspecciona durante \(20\) días y los datos resultantes se muestran aquí (Table 5). Use estos datos para configurar una carta de control de no conformidades por rollo de papel. ¿El proceso parece estar en control estadístico? ¿Qué línea central y límites de control recomendaría para controlar la producción actual?
De acuerdo con la carta de control u (Figure 12) el proceso parece estar bajo control estadístico. Recomendaría tomar, tanto el \(LCI\) como el \(LCS\), usados cuando \(n = 21\) (para así obtener límites constantes), dado que es el valor promedio de los \(n\) (\(\overline{n} = 20.55 \approx 21\)) y representa mejor la distribución de los datos. Por lo tanto, la carta queda definida mediante, \(LCS = 1.249 \hspace{0.25cm}|\hspace{0.25cm} LC = 0.701 \hspace{0.25cm}|\hspace{0.25cm} LCI = 0.153\).
8.1
Los siguientes datos representan observaciones individuales sobre el peso molecular tomado por hora de un proceso químico (Table 6). El valor objetivo del peso molecular es \(1050\) y se cree que la desviación estándar del proceso es aproximadamente \(\sigma = 25\).
Table 6
No. Observación
\(x\)
No. Observación
\(x\)
1
1045
11
1139
2
1055
12
1169
3
1037
13
1151
4
1064
14
1128
5
1095
15
1238
6
1008
16
1125
7
1050
17
1163
8
1087
18
1188
9
1125
19
1146
10
1146
20
1167
a). Configure un CUSUM tabular para la media de este proceso. Diseñe la carta CUSUM para detectar rápidamente un cambio de aproximadamente \(1.0\sigma\) en la media del proceso.
Los cálculos realizados (Figure 13) muestran que el CUSUM superior en el período \(10\) es \(C_{10}^{+} = 170.5\). Como este es el primer período en el que \(C_{i}^{+}>H = 125\), concluyendo que el proceso está fuera de control en ese punto. El CUSUM tabular también indica cuándo probablemente ocurrió el cambio. El contador \(N^{+}\) registra el número de períodos consecutivos desde que el CUSUM \(C_{i}^{+}\) del lado superior se elevó por encima del valor de cero. Como \(N^{+}=3\) en el período \(10\), concluiríamos que el proceso tuvo el último control en el período \(10-3 = 7\), por lo que el cambio en la media del proceso probablemente ocurrió después de la observación número \(7\), entre los períodos \(7\) y \(8\).
En resumen, el proceso está fuera de control en la parte superior después de la observación \(7\).
b). ¿Es razonable la estimación de \(\sigma\) utilizada en el apartado a). de este problema?
Data <-c(1045,1055,1037,1064,1095,1008,1050,1087,1125,1146,1139,1169,1151,1128,1238,1125,1163,1188,1146,1167) |>as.data.frame()Rangos <-NULL; x <- Datafor (i in1:(nrow(Data)-1)) { Rangos[i+1] <-abs(x[i,1] - x[i+1,1])}# --------------------- TABLA DE CONTROL DE RANGO MÓVIL ---------------------- #TCRM <-as.data.frame(cbind(x, "MR"= Rangos)) # MR: Moving Rangesum(TCRM$MR, na.rm =TRUE)# [1] 738d2_n1 <-1.128( MR_bar <-mean(TCRM$MR, na.rm =TRUE) )# [1] 38.84211( sigmaEst <- MR_bar/d2_n1 )# [1] 34.43449
No parece razonable usar la estimación de \(\sigma\) (\(\widehat{\sigma} = 25\)), dada en el apartado a)., para este problema ya que la estimación utilizada para \(\sigma\) es mucho menor que la varianza estimada por rangos móviles para dichas observaciones individuales, cuyo valor es igual a \(\widehat{\sigma} = 34.43\).
8.8
Las concentraciones de baño se miden cada hora en un proceso químico. Los datos (en ppm) de las últimas 32 horas se muestran aquí (Table 7) [leer hacia abajo desde la izquierda]. El objetivo del proceso es \(\mu_0 = 175\) ppm.
Table 7
160
186
190
206
158
195
189
210
150
179
185
216
151
184
182
212
153
175
181
211
154
192
180
202
158
186
183
205
162
197
186
197
a). Estime la desviación estándar del proceso.
Data <-c(160,158,150,151,153,154,158,162,186,195,179,184,175,192,186,197,190,189,185,182,181,180,183,186,206,210,216,212,211,202,205,197) |>as.data.frame()Rangos <-NULL; x <- Datafor (i in1:(nrow(Data)-1)) { Rangos[i+1] <-abs(x[i,1] - x[i+1,1])}# --------------------- TABLA DE CONTROL DE RANGO MÓVIL ---------------------- #TCRM <-as.data.frame(cbind(x, "MR"= Rangos)) # MR: Moving Rangesum(TCRM$MR, na.rm = T)# [1] 197d2_n1 <-1.128( MR_bar <-mean(TCRM$MR, na.rm = T) )# [1] 6.354839( sigmaEst <- MR_bar/d2_n1 )# [1] 5.633722
La estimación de la desviación estándar de un proceso con observaciones individuales se hace a partir del promedio de los rangos móviles de los datos. El vector \(MR\) es,
Procederemos a calcular el promedio de este vector (\(\widehat{MR}\)), y ya teniendo esta información presente el estimador de sigma se define como \(\frac{\overline{MR}}{d_2}\), donde \(d_2 = 1.128\), con lo cual obtenemos que,
b). Construya un CUSUM tabular para este proceso utilizando valores estandarizados de \(h = 5\) y \(k = \frac{1}{2}\).
Figure 14
Figure 15
Se puede observar con claridad que el proceso está fuera de control desde la segunda observación de éste (Figure 14). Para ser más precisos se puede observar que en la primera parte del proceso la media disminuye de manera significativa hasta la octava observación (Figure 15). A partir de este punto y hasta el final del proceso la media aumenta constantemente y se mantiene fuera de control.
En resumen, el proceso señala que se salió de control por debajo del \(LCI\) en la muestra número 3 y arriba del del \(LCS\) en la muestra número 12. Las causas asignables ocurrieron después del inicio (muestra \(3-3=0\)) y después de la muestra 8 (\(12-4\)).
8.15
Vuelva a realizar el ejercicio 8.1 utilizando un gráfico de control EWMA con \(\lambda = 0.1\) y \(L = 2.7\). Compare sus resultados con los obtenidos con la CUSUM.
El gráfico de control de EWMA (Figure 16) señala que en la observación número \(10\) el proceso excede el límite de control superior (igual que la carta CUSUM). Esto muestra que la media incrementa significativamente durante el proceso (Figure 17). Ambas cartas tienen resultados muy similares al advertir sobre el incremento de la media desde la misma observación, y esto se debe en gran medida a que \(\lambda\) tiene un valor cercano a \(0\).
8.21
Reconsidere los datos en el ejercicio 8.8. Configure y aplique un gráfico de control EWMA a estos datos usando \(\lambda = 0.05\) y \(L = 2.6\).
Se puede observar que la carta EWMA muestra un proceso fuera de control (Figure 18, Figure 19). De hecho, esta carta entrega unos resultados muy similares a los de la carta CUSUM en términos de la falta de control. Esto se debe a que \(\lambda\) tiene un valor muy cercano a \(0\), por lo cual se les da poco peso a las observaciones recientes. Sin embargo, a diferencia de la carta CUSUM, en la carta EWMA no hay cambios drásticos entre dos observaciones consecutivas, sino cambios moderados también por este valor de \(\lambda\).
Ejercicios Propuestos por el Docente
1). Simulación de una carta CRL (ó CCC)
Construya una carta CRL (ó CCC) para \(p = 0.02\) y \(\alpha = 0.05\). Simule varios puntos y grafique la carta.
A continuación, simularemos la carta CRL para unidades producidas entre unidades defectuosas (Figure 20). Su utilidad radica cuando los defectos o defectos son raros y los subgrupos son pequeños, los gráficos C, U y P se vuelven inútiles, ya que la mayoría de los subgrupos no tendrán defectos. La distribución geométrica modela el número de unidades entre defectos.
set.seed(122333)p <-0.02alpha <-0.05# Probabilidad de que la carta señale una falsa alarmaL <- (log(1-alpha))/(log(1-p))mu <-1/pCRLs <-rgeom(n =50, prob = p); n <-1:length(CRLs)plot( n, CRLs, type ="l", las =1, main ="CARTA CRL/CCC",sub ="# de artículos hasta obtener uno no conforme")
Figure 20
2). Comparación de las cartas Shewhart, CUSUM y EWMA para monitorear la media de un proceso
Genere 10 observaciones de una \(\mathcal{N}(\mu = 0, \sigma^2 = 1)\). A partir de la observación \(11\) genere observaciones de una \(\mathcal{N}(\mu_1, 1)\) hasta que la carta produzca una señal.
Construir las tres cartas para, \[
\mu_1 = \mu_0 + \delta\sigma_0
\]
Donde \(\mu_0=0\) y \(\delta = 0.5, 1.0, 1.5, 2.0\) y \(2.5\)
Repita este proceso \(n\) veces (\(n = 1.000\) o \(n = 5.000\)) y calcule la \(ARL_1\). Obtenga conclusiones.
ARL_SHEWHART <-NULL ;ARL_CUSUM <-NULL; ARL_EWMA <-NULLfor (i in1:10000) { NumSample <-10 mu0 <-0; sigma <-1 Muestras <-matrix(data =rnorm(NumSample, mu0, sigma), nrow = NumSample, ncol =1)# PARÁMETROS CARTA SHEWHART L =3# PARÁMETROS CARTA CUSUM (valores de k y h que dan ARL0 = 370) K =0.25; H =8.01# PARÁMETROS CARTA EWMA (valores de Lambda y L que dan ARL0 = 370) Lambda =0.2; L_EWMA =2.8593# CARTAS Carta_SHEWHART <-qcc(Muestras, type ="xbar.one", center = mu0, limits =c(mu0-L*sigma,mu0+L*sigma), plot =FALSE) Carta_CUSUM <-cusum(Muestras, center = mu0, std.dev = sigma, decision.interval = H, se.shift = K, plot =FALSE) Carta_EWMA <-ewma(Muestras, center = mu0, std.dev = sigma, lambda = Lambda, nsigmas = L_EWMA, plot =FALSE)# CAMBIO DE mu0 delta <-0.0# luego con c(0.0, 0.5, 1.0, 1.5, 2.0, 2.5, 3.0) mu1 <- mu0 + (delta*sigma) Muestras_SHEWHART = Muestras; Muestras_CUSUM = Muestras; Muestras_EWMA = Muestras# ============================= CARTA SHEWHART =============================== # Prueba_SHEWHART <-sum(Carta_SHEWHART$violations$beyond.limits)while (Prueba_SHEWHART==0) { x <-rnorm(n =1, mean = mu1, sd = sigma) Muestras_SHEWHART <-rbind(Muestras_SHEWHART, x)rownames(Muestras_SHEWHART) <-1:nrow(Muestras_SHEWHART) Carta_SHEWHART <-qcc( Muestras_SHEWHART, type ="xbar.one", center = mu0,limits =c(mu0-L*sigma,mu0+L*sigma), plot =FALSE ) Prueba_SHEWHART <-sum(Carta_SHEWHART$violations$beyond.limits) } ARL_SHEWHART[i] <-nrow(Muestras_SHEWHART)# =============================== CARTA CUSUM ================================ # Prueba_CUSUM <-sum(Carta_CUSUM$violations$upper)+sum(Carta_CUSUM$violations$lower)while (Prueba_CUSUM==0) { x <-rnorm(n =1, mean = mu1, sd = sigma) Muestras_CUSUM <-rbind(Muestras_CUSUM, x)rownames(Muestras_CUSUM) <-1:nrow(Muestras_CUSUM) Carta_CUSUM <-cusum( Muestras_CUSUM, center = mu0, std.dev = sigma,decision.interval = H, se.shift = K, plot =FALSE ) Prueba_CUSUM <-sum(Carta_CUSUM$violations$upper)+sum(Carta_CUSUM$violations$lower) } ARL_CUSUM[i] <-nrow(Muestras_CUSUM)# =============================== CARTA EWMA ================================= # Prueba_EWMA <-sum(Carta_EWMA$violations)while (Prueba_EWMA==0) { x <-rnorm(n =1, mean = mu1, sd = sigma) Muestras_EWMA <-rbind(Muestras_EWMA, x)rownames(Muestras_EWMA) <-1:nrow(Muestras_EWMA) Carta_EWMA <-ewma( Muestras_EWMA, center = mu0, std.dev = sigma,lambda = Lambda, nsigmas = L_EWMA, plot =FALSE ) Prueba_EWMA <-sum(Carta_EWMA$violations) } ARL_EWMA[i] <-nrow(Muestras_EWMA)}( ARL1_SHEWHART <-mean(ARL_SHEWHART) )( ARL1_CUSUM <-mean(ARL_CUSUM) )( ARL1_EWMA <-mean(ARL_EWMA) )
En la Table 8 se recogen algunos valores que permiten comparar la sensibilidad de las cartas Shewhart, CUSUM y EWMA. Primero fijamos el \(ARL_0\) de las tres cartas en \(370\) (eligiendo para ello los parámetros correspondientes que den dicho resultado, expuestos en la Figura al final del documento) para que así las cartas sean comparables, ya que un gráfico de control del tipo Shewhart con límites \(3\sigma\) viene a tener un \(ARL_0\) (bajo control) de 370 unidades.
Table 8
No. Observación
\(x\)
No. Observación
\(x\)
1
1045
11
1139
2
1055
12
1169
3
1037
13
1151
4
1064
14
1128
5
1095
15
1238
6
1008
16
1125
7
1050
17
1163
8
1087
18
1188
9
1125
19
1146
10
1146
20
1167
En dicha tabla también podemos ver que el \(ARL_1\) para una carta Shewhart cuando la media se ha desplazado del promedio bajo control para \(\delta\leq 2.0\) es mucho mayor que en las cartas CUSUM y EWMA. Por lo tanto, se necesitarán menos muestras, en promedio, para detectar un cambio en la media con un punto fuera de los límites de control cuando se usan las cartas CUSUM y EWMA. Lo cual es precisamente la razón y utilidad de ellas.
Además, las cartas CUSUM y EWMA son mucho más sensibles que la carta Shewhart para detectar variaciones pequeñas en la media. Para las variaciones grandes (\(\delta> 2.0\)) ambas cartas son similares e incluso peores a la de Shewhart. Finalmente, la eficiencia de estos gráficos también puede incrementarse mediante el cambio de sus parámetros, obteniendo que tanto la carta CUSUM como la EWMA sean capaces de detectar cambios “muy pequeños” en la media del proceso. Cabe resaltar que la carta de control EWMA es muy flexible y puede detectar tanto cambios grandes y pequeños en la media.
SOLUCIÓN TALLER #3
Exercises Introduction to Statistical Quality Control Montgomery
10.2
Un producto tiene tres características de calidad. Los valores nominales de estas características de calidad y su matriz de covarianza de muestra se han determinado a partir del análisis de \(30\) muestras preliminares de tamaño \(n=10\) de la siguiente manera:
A continuación, se muestran las medias de muestra para cada característica de calidad para \(15\) muestras adicionales de tamaño \(n=10\) (Table 9). ¿Está el proceso en control estadístico?
Table 9
N
\(\overline{x}_1\)
\(\overline{x}_2\)
\(\overline{x}_3\)
1
3.10
3.70
3.00
2
3.30
3.90
3.10
3
2.60
3.00
2.40
4
2.80
3.00
2.50
5
3.00
3.30
2.80
6
4.00
4.60
3.50
7
3.80
4.20
3.00
8
3.00
3.30
2.70
9
2.40
3.00
2.20
10
2.00
2.60
1.80
11
3.20
3.90
3.00
12
3.70
4.00
3.00
13
4.10
4.70
3.20
14
3.80
4.00
2.90
15
3.20
3.60
2.80
Data <-read.delim("data/Exercise 11-2.txt")mu <-matrix(c(3.0, 3.5, 2.8), ncol =1)Sigma <-matrix(c(1.40, 1.02, 1.05,1.02, 1.35, 0.98,1.05, 0.98, 1.20 ), nrow =3)par(col.axis ="#800080", col.lab ="#FF0065", col.main ="#FFA700", fg ="#3A0856", mar =c(5, 4, 2, 1))Resultados <-T_Hotelling_ObsAgrup(Data, alpha =0.001, Xbarbar = mu, S = Sigma, m =30, n =10)
Los límites de control en Fase II, para la carta \(T^2\), con \(m=30\) muestras preliminares, \(n=10\) como tamaño de muestra, \(p=3\) características y con un \(\alpha=0.001\), es,
De acuerdo con lo anterior, el proceso se encuentra fuera de control, debido a la muestra \(\#13\).
10.3
Reconsidere la situación en el ejercicio 10.1. Suponga que el vector de media muestral y la matriz de covarianza muestral provistos fueron los parámetros de la población real. ¿Qué límite de control sería apropiado para la Fase II para la tabla de control? Aplique este límite a los datos y discuta cualquier diferencia en los resultados que encuentre en comparación con la elección original del límite de control.
Data <-read.delim("data/Exercise 11-3.txt")mu <-matrix(c(55,30), ncol =1)Sigma <-matrix(c(200, 130, 130, 120), nrow =2)par(col.axis ="#800080", col.lab ="#FF0065", col.main ="#FFA700", fg ="#3A0856", mar =c(5, 4, 2, 1))Resultados <-T_Hotelling_ObsAgrup(Data, alpha =0.001, Xbarbar = mu, S = Sigma, ParametrosPobla =TRUE, n =25)
# SQC::mult.chart(Data, type = "chi", Xmv = mu, S = Sigma, alpha = 0.001) # Solo los límites están bien.
De acuerdo con lo anterior, el proceso está fuera de control en las muestras \(\#7\) y \(\#14\). Finalmente, podemos observar que se llegó a los mismos resultados del punto 10.1, en los que se usó los parámetros estimados a partir de las muestras (\(\overline{\overline{\textbf{x}}} \text{ y }\textbf{S}\)), y se obtuvo como \(LCS_{\text{Fase II}}=14.168\), el cual es mayor al que obtuvimos con la distribución \(\chi^2\).
Por lo que se puede decir que la suposición de que el vector de medias muestral y la matriz de covarianzas son realmente los parámetros poblacionales es parcialmente correcta ya que el resultado es el mismo.
10.5
Considere una carta de control \(T^2\) para monitorear \(p=6\) características de calidad. Suponga que el tamaño del subgrupo es \(n=3\) y que hay \(30\) muestras preliminares disponibles para estimar la matriz de covarianza de la muestra.
a). Encuentre los límites de control de la Fase II suponiendo que \(\alpha = 0.005\).
alpha <-0.005p <-6; m <-30; n <-3Quantil <-qf(alpha, p, m*(n-1)-p+1, lower.tail =FALSE)LCS_FaseII <- ((p*(m+1)*(n-1)) / (m*(n-1)-p+1)) * Quantil# [1] 23.88201
b). Compare los límites de control de la parte a). con el límite de control de chi-cuadrado. ¿Cuál es la magnitud de la diferencia en los dos límites de control?
Podemos observar que el \(LCS_{\text{Fase II}}\) es \(\approx 30\%\) (\(\frac{23.882}{18.5476} \cdot100\% = 128.76\%\)) más grande que el \(LCS_{\text{chi-cuadrado}}\).
c). ¿Cuántas muestras preliminares tendrían que tomarse para asegurar que el límite de control exacto de la Fase II esté dentro del \(1\%\) del límite de control de chi-cuadrado?
Meta <-1.01*LCS_chim <-seq(30, 800, by =1)Num <-NULL; Denom <-NULL; F <-NULL; LCS <-NULLfor (i in1:length(m)) { Num[i] <- p*(m[i]+1)*(n-1) Denom[i] <- m[i]*(n-1)-p+1 F[i] <-qf(alpha, p, m[i]*(n-1)-p+1, lower.tail =FALSE) LCS[i] <- (Num[i]/Denom[i])*F[i]}Matriz <-cbind(m, Num, Denom, F, LCS)Matriz[Meta-Matriz[,5]>0, ][1:2,]
m Num Denom F LCS
[1,] 719 8640 1433 3.106998 18.73305
[2,] 720 8652 1435 3.106976 18.73279
Deben tomarse \(m = 719\) muestras preliminares para garantizar que el límite exacto de la Fase II esté dentro del \(1\%\) del límite de chi-cuadrado.
10.7
Considere una tabla de control \(T^2\) para monitorear \(p=10\) características de calidad. Suponga que el tamaño del subgrupo es \(n=3\) y que hay \(25\) muestras preliminares disponibles para estimar la matriz de covarianza de la muestra.
a). Encuentre los límites de control de la Fase II suponiendo que \(\alpha=0.005\).
alpha <-0.005p <-10; m <-25; n <-3Quantil <-qf(alpha, p, m*(n-1)-p+1, lower.tail =FALSE)LCS_FaseII <- ((p*(m+1)*(n-1)) / (m*(n-1)-p+1)) * Quantil# [1] 39.32609
b). Compare los límites de control de la parte a). con el límite de control de chi-cuadrado. ¿Cuál es la magnitud de la diferencia en los dos límites de control?
Podemos observar que el \(LCS_{\text{Fase II}}\) es \(\approx 56\%\) (\(\frac{39.32609}{25.18818} \cdot100\% = 156.13%)\)) más grande que el \(LCS_{\text{chi-cuadrado}}\).
c). ¿Cuántas muestras preliminares tendrían que tomarse para garantizar que el límite de control de chi-cuadrado esté dentro del \(1\%\) del límite de control exacto de la Fase II?
Meta <-1.01*LCS_chim <-seq(25, 1000, by =1)Num <-NULL; Denom <-NULL; F <-NULL; LCS <-NULLfor (i in1:length(m)) { Num[i] <- p*(m[i]+1)*(n-1) Denom[i] <- m[i]*(n-1)-p+1 F[i] <-qf(alpha, p, m[i]*(n-1)-p+1, lower.tail =FALSE) LCS[i] <- (Num[i]/Denom[i])*F[i]}Matriz <-cbind(m, Num, Denom, F, LCS)Matriz[Meta-Matriz[,5]>0, ][1:2,]
m Num Denom F LCS
[1,] 988 19780 1967 2.529845 25.43992
[2,] 989 19800 1969 2.529834 25.43967
Deben tomarse \(m = 988\) muestras preliminares para garantizar que el límite exacto de la Fase II esté dentro del \(1\%\) del límite de chi-cuadrado.
10.11
Supongamos que tenemos características de calidad \(p = 3\), y en forma de correlación las tres variables tienen unidad de varianza y todos los coeficientes de correlación por pares son \(0.8\). El valor bajo control del vector medio del proceso es \(\vec{\boldsymbol{\mu}}' = [0, 0, 0]\).
a). Escriba la matriz de covarianza \(\boldsymbol{\Sigma}\).
alpha <-0.05; p <-3LCS <-qchisq(alpha, p, lower.tail =FALSE)# [1] 7.814728
c). Suponga que una muestra de observaciones da como resultado el vector de observación estandarizado \(\vec{\textbf{y}}' = [1, 2, 0]\). Calcule el valor de la estadística \(T^2\). ¿Se genera una señal fuera de control?
De acuerdo con lo anterior, obtenemos que la estadística \(T^2 = 11.154\). Con lo cual, sí se genera una señal fuera de control, debido a que \(T^2 = 11.154 \;{\color{green} >}\; LCS_{\text{chi-cuadrado}} = 7.8147\).
d). Calcule las cantidades de diagnóstico \(d_i\), \(i = 1,2,3\). ¿Ayuda esta información a identificar qué variables del proceso han cambiado?
\[
d_i = T^2-T_{(i)}^2
\]
Donde \(T_{(i)}\) es el valor de la estadística \(T^2\) para todas las observaciones del proceso exceptuando la i-ésima.
Para las variables \(\#2\) y \(\#3\) se observa que \(d_i \;{\color{green} >}\; \chi^2_{(\alpha=0.05, \;\;1)} = 3.841\), por lo tanto, dichas variables contribuyen significativamente a la señal fuera de control y se deben investigar.
e). Suponga que una muestra de observaciones da como resultado el vector de observación estandarizado \(\vec{\textbf{y}}' = [2, 2, 1]\). Calcule el valor de la estadística \(T^2\). ¿Se genera una señal fuera de control?
y <-matrix(c(2, 2, 1), ncol =1)T2 <-t(y)%*%solve(Sigma)%*%y# [1,] 6.538462
De acuerdo con lo anterior, obtenemos que la estadística \(T^2 = 6.538\). Con lo cual, no se genera una señal fuera de control, debido a que \(T^2 = 6.538 \ngtr LCS_{\text{chi-cuadrado}} = 7.8147\).
f). Para el caso en e)., calcule las cantidades de diagnóstico \(d_i\), \(i = 1,2,3\). ¿Ayuda esta información a identificar qué variables del proceso han cambiado?
Como no se generó una señal fuera de control en e)., no es necesario calcular las cantidades de diagnóstico (\(d_i\)). Sin embargo, al realizarlas se confirma lo dicho anteriormente ya que ninguno de los \(d_i\) supera el límite de control, \(\chi^2_{(\alpha=0.05, \;\;1)} = 3.841\).
Ejercicios Propuestos por el Docente
1). Considere los datos del problema 10.2
a). Construya una carta MCUSUM
Figure 21
b). Construya una carta MEWMA
Figure 22
Después de realizar ambas cartas (Figure 21, Figure 22) se puede observar un comportamiento similar entre ellas y que en ambas el proceso está fuera de control, al igual que cuando se realizó la carta \(T^2\) de Hotelling en el punto 10.2. Dicho resultado era de esperar, ya que las cartas MCUSUM y MEWMA son más sensibles a cambios en el vector de medias.
2). Comparación de las cartas \(T^2\) de Hotelling, MCUSUM y MEWMA para monitorear el vector de medias de un proceso multivariado
Asuma que el proceso bajo control sigue una distribución normal multivariada con \(\vec{\boldsymbol{\mu}}' = (0 \;\;0 \;\;0)'\) y
Genere observaciones de una \(\mathcal{N}_3(\vec{\boldsymbol{\mu}}_1, \boldsymbol{\Sigma})\) y calcule el \(ARL_1\) para las tres cartas para varios valores de \(\vec{\boldsymbol{\mu}}_1\). Obtenga conclusiones.
Para el siguiente ejercicio de simulación vamos a considerar los siguientes valores de \(\delta\), con los que obtenemos un respetivo cambio para \(\vec{\boldsymbol{\mu}}_1\).
\(\delta\)
0
0.5
1
1.5
2
2.5
3
\(\vec{\boldsymbol{\mu}}_1'\)
\((0\;0\;0)'\)
\((0.5\;0.5\;0.5)'\)
\((1\;1\;1)'\)
\((1.5\;1.5\;1.5)'\)
\((2\;2\;2)'\)
\((2.5\;2.5\;2.5)'\)
\((3\;3\;3)'\)
ARL_T2Hotelling <-NULL ;ARL_MCUSUM <-NULL; ARL_MEWMA <-NULLfor (i in1:10000) { mu0 <-matrix(c(0,0,0), ncol =1) Sigma <-diag(3) Muestras <-rmvnorm(n =20, mean = mu0, sigma = Sigma)# PARÁMETROS CARTA T2 HOTELLING Alpha =0.001# PARÁMETROS CARTA MCUSUM (valores de k y h que dan ARL0 = 200) K =0.5; h =30.5# PARÁMETROS CARTA MEWMA (valores de Lambda y H que dan ARL0 = 200) Lambda =0.5; p =3# delta <- sqrt( t(mu)%*%solve(Sigma)%*%mu ) H <-round(mewma.crit(l = Lambda, L0 =200, p = p), 3)# CARTAS Carta_T2Hotelling <-mqcs.t2(Muestras, Xmv = mu0, S = Sigma, alpha = Alpha, phase =2, plot = F) Carta_MCUSUM <-mqcs.mcusum(Muestras, Xmv = mu0, S = Sigma, k = K, h = h, phase =2, plot = F) Carta_MEWMA <-mqcs.mewma(Muestras, limits =c(0,H), Xmv = mu0, S = Sigma, phase =2, plot = F)# CAMBIO DE mu0 delta <-0.0# Luego para 0.5, 1, 1.5, 2, 2.5 y 3 mu1 <- mu0 + delta Muestras_T2Hotelling = Muestras; Muestras_MCUSUM = Muestras; Muestras_MEWMA = Muestras# ========================== CARTA T2 DE HOTELLING =========================== # Prueba_T2Hotelling <-sum(Carta_T2Hotelling$violations)while (Prueba_T2Hotelling==0) { x <-rmvnorm(n =1, mean = mu1, sigma = Sigma) Muestras_T2Hotelling <-rbind(Muestras_T2Hotelling, x)rownames(Muestras_T2Hotelling) <-1:nrow(Muestras_T2Hotelling) Carta_T2Hotelling <-mqcs.t2(Muestras_T2Hotelling, Xmv = mu0, S = Sigma, alpha = Alpha, phase =2, plot = F) Prueba_T2Hotelling <-sum(Carta_T2Hotelling$violations) } ARL_T2Hotelling[i] <-nrow(Muestras_T2Hotelling)# =============================== CARTA MCUSUM =============================== # Prueba_MCUSUM <-sum(Carta_MCUSUM$violations)while (Prueba_MCUSUM==0) { x <-rmvnorm(n =1, mean = mu1, sigma = Sigma) Muestras_MCUSUM <-rbind(Muestras_MCUSUM, x)rownames(Muestras_MCUSUM) <-1:nrow(Muestras_MCUSUM) Carta_MCUSUM <-mqcs.mcusum(Muestras_MCUSUM, Xmv = mu0, S = Sigma, k = K, h = h, phase =2, plot = F) (Prueba_MCUSUM <-sum(Carta_MCUSUM$violations)) } ARL_MCUSUM[i] <-nrow(Muestras_MCUSUM)# =============================== CARTA MEWMA ================================ # Prueba_MEWMA <-sum(Carta_MEWMA$violations)while (Prueba_MEWMA==0) { x <-rmvnorm(n =1, mean = mu1, sigma = Sigma) Muestras_MEWMA <-rbind(Muestras_MEWMA, x)rownames(Muestras_MEWMA) <-1:nrow(Muestras_MEWMA) Carta_MEWMA <-mqcs.mewma(Muestras_MEWMA, limits =c(0,H), Xmv = mu0, S = Sigma, phase =2, plot = F) Prueba_MEWMA <-sum(Carta_MEWMA$violations) } ARL_MEWMA[i] <-nrow(Muestras_MEWMA)}( ARL1_T2Hotelling <-mean(ARL_T2Hotelling) )( ARL1_MCUSUM <-mean(ARL_MCUSUM) )( ARL1_MEWMA <-mean(ARL_MEWMA) )
La carta \(T^2\) de Hotelling, aunque es extremadamente eficaz, no es la única herramienta disponible para el análisis multivariante de procesos industriales. En algunos casos, otros tipos de gráficos de control multivariados pueden complementar o reemplazar este gráfico con mejores resultados.
Table 10
\(\delta\)
\(\textrm{ARL}_1T^2\)
\(\textrm{ARL}_1\textit{MCUSUM}\)
\(\textrm{ARL}_1\textit{MEWMA}\)
0.0
200.8
199.5
199.2
0.5
130.02
32.7
31.8
1.0
52.64
11.3
11.1
1.5
20.48
6.69
6.47
2.0
8.82
4.86
4.7
2.5
4.34
3.83
3.79
3.0
2.55
3.2
3.17
Los gráficos MCUSUM y MEWMA son alternativas a la carta \(T^2\) de Hotelling en situaciones en las que es importante detectar pequeños cambios en los parámetros de un proceso. En tales situaciones, estos gráficos tienen un mejor rendimiento en términos de ARL y, por lo tanto, son más sensibles que la carta \(T^2\) de Hotelling para detectar un pequeño cambio en el vector de medias del proceso que permite una acción más rápida.
Cómo se puede ver en la Table 10, al igual que en el caso univariado, la carta \(T^2\) de Hotelling es más sensible a cambios mayores en el vector de medias del proceso. Por otro lado, para pequeños cambios, los gráficos MCUSUM y MEWMA son más sensibles (cartas más potentes). Finalmente, podemos concluir que la diferencia existente entre el rendimiento de estas dos cartas {\(T^2\) de Hotelling vs.MCUSUM (Suma acumulativa multivariada) y MEWMA (Promedio móvil ponderado exponencial multivariante)} para esta situación (cuando \(p = 3\) variables) se considera significativa.