Tuesday 24 October 2017

Moving Average Partial Autocorrelation


Propósito: Comprobar la aleatoriedad Las gráficas de autocorrelación (Box y Jenkins, págs. 28-32) son una herramienta comúnmente usada para verificar la aleatoriedad en un conjunto de datos. Esta aleatoriedad se determina mediante el cálculo de autocorrelaciones para los valores de datos en diferentes intervalos de tiempo. Si son aleatorias, tales autocorrelaciones deben estar cerca de cero para todas las separaciones de tiempo-retraso. Si no es aleatorio, entonces una o más de las autocorrelaciones serán significativamente no-cero. Además, las parcelas de autocorrelación se utilizan en la fase de identificación del modelo para los modelos autorregresivos y móviles de serie temporal de Box-Jenkins. La autocorrelación es solo una medida de aleatoriedad Tenga en cuenta que no correlacionado no significa necesariamente aleatorio. Los datos que tienen una autocorrelación significativa no son aleatorios. Sin embargo, los datos que no muestran una autocorrelación significativa todavía pueden mostrar no aleatoriedad de otras maneras. La autocorrelación es sólo una medida de aleatoriedad. En el contexto de la validación del modelo (que es el tipo primario de aleatoriedad que describimos en el Manual), la comprobación de la autocorrelación suele ser una prueba suficiente de aleatoriedad, ya que los residuos de un modelo de ajuste inadecuado tienden a mostrar aleatoriedad no sutil. Sin embargo, algunas aplicaciones requieren una determinación más rigurosa de la aleatoriedad. En estos casos, una batería de pruebas, que pueden incluir la comprobación de la autocorrelación, se aplican ya que los datos pueden ser no aleatorios de muchas maneras diferentes ya menudo sutiles. Un ejemplo de dónde se necesita un control más riguroso de la aleatoriedad sería probar generadores de números aleatorios. Trazado de muestra: Las autocorrelaciones deben ser cercanas a cero para aleatoriedad. Este no es el caso en este ejemplo y por lo tanto la suposición de aleatoriedad falla. Este gráfico de autocorrelación muestra muestra que la serie temporal no es aleatoria, sino que tiene un alto grado de autocorrelación entre observaciones adyacentes y casi adyacentes. Coeficiente de autocorrelación donde C h es la función de autocovariancia y C 0 es la función de varianza. Obsérvese que R h está entre -1 y 1. Tenga en cuenta que algunas fuentes pueden usar la función Fórmula siguiente para la función de autocovariancia Aunque esta definición tiene menos sesgo, la formulación (1 / N) tiene algunas propiedades estadísticas deseables y es la forma más comúnmente utilizada en la bibliografía estadística. Vea las páginas 20 y 49-50 en Chatfield para más detalles. Eje horizontal: Retardo de tiempo h (h 1, 2, 3.) La línea anterior también contiene varias líneas de referencia horizontales. La línea media está en cero. Las otras cuatro líneas son 95 y 99 bandas de confianza. Observe que hay dos fórmulas distintas para generar las bandas de confianza. Si se utiliza el gráfico de autocorrelación para probar la aleatoriedad (es decir, no hay dependencia temporal en los datos), se recomienda la siguiente fórmula: donde N es el tamaño de la muestra, z es la función de distribución acumulativa de la distribución normal estándar y ) Es el nivel de significación. En este caso, las bandas de confianza tienen un ancho fijo que depende del tamaño de la muestra. Esta es la fórmula que se utilizó para generar las bandas de confianza en la gráfica anterior. Las gráficas de autocorrelación también se usan en la etapa de identificación del modelo para el ajuste de modelos ARIMA. En este caso, se supone un modelo de media móvil para los datos y se deben generar las siguientes bandas de confianza: donde k es el retraso, N es el tamaño de la muestra, z es la función de distribución acumulativa de la distribución normal estándar y (alfa) es El nivel de significación. En este caso, las bandas de confianza aumentan a medida que aumenta el desfase. La gráfica de autocorrelación puede proporcionar respuestas a las siguientes preguntas: ¿Los datos son aleatorios? ¿Es una observación relacionada con una observación adyacente? ¿Es una observación relacionada con una observación extraída dos veces? ¿Es la serie de tiempo observada el ruido blanco? La serie temporal observada es sinusoidal ¿Es el modelo válido y suficiente? Es la fórmula ss / sqrt válida Importancia: Garantizar la validez de las conclusiones de la ingeniería Aleatoriedad (junto con el modelo fijo, la variación fija y la distribución fija) Es uno de los cuatro supuestos que típicamente subyacen a todos los procesos de medición. El supuesto de aleatoriedad es de importancia crítica por las tres razones siguientes: La mayoría de las pruebas estadísticas estándar dependen de la aleatoriedad. La validez de las conclusiones de la prueba está directamente relacionada con la validez del supuesto de aleatoriedad. Muchas de las fórmulas estadísticas utilizadas comúnmente dependen del supuesto de aleatoriedad, siendo la fórmula más común la fórmula para determinar la desviación estándar de la media de la muestra: donde s es la desviación estándar de los datos. Aunque muy utilizados, los resultados de usar esta fórmula no tienen ningún valor a menos que la suposición de aleatoriedad se mantenga. Para datos univariados, el modelo predeterminado es Si los datos no son aleatorios, este modelo es incorrecto y no válido, y las estimaciones de los parámetros (como la constante) se vuelven sin sentido e inválidas. En resumen, si el analista no comprueba la aleatoriedad, entonces la validez de muchas de las conclusiones estadísticas se vuelve sospechosa. La autocorrelación parcial y la autocorrelación inversa mientras se modela una serie ARIMA La correlación automática se refiere a la correlación de una serie temporal con sus propios valores pasados ​​y futuros, la correlación automática También se denomina a veces correlación retardada o correlación en serie, que se refiere a la correlación entre miembros de una serie de números dispuestos en el tiempo. La autocorrelación positiva puede considerarse una forma específica de persistencia, una tendencia para que un sistema permanezca en el mismo estado de una observación a la siguiente. Por ejemplo, la probabilidad de que el mañana sea lluvioso es mayor si hoy es lluvioso que si hoy está seco. Las series de tiempo geofísicas frecuentemente se correlacionan automáticamente debido a los procesos de inercia o de remanencia en el sistema físico. La correlación automática complica la aplicación de las pruebas estadísticas mediante la reducción del número de observaciones independientes, también complican la identificación de co varianza significativa o correlación entre series de tiempo, es predecible, probabilísticamente, porque los valores futuros dependen de los valores actuales y pasados. Tres herramientas para evaluar la correlación automática de un tiempo (1) el diagrama de series de tiempo (2) el amplificador de diagrama de dispersión retrasado (3) la función de correlación automática. Un patrón más claro para un modelo de MA está en el ACF. El ACF tendrá autocorrelaciones no nulas sólo en los retrasos involucrados en el modelo. PACF toma en consideración la correlación entre una serie cronológica y cada uno de sus valores intermedios retardados. La identificación de un modelo de MA a menudo se hace mejor con el ACF en lugar del PACF. Para un modelo de MA, el PACF teórico no se apaga, sino que disminuye hacia 0 de alguna manera. Esto es útil para detectar la ORDEN de un modelo auto regresivo. Es decir, el PACF para una serie temporal con retardo 1 tendrá valor no nulo hasta 1, la función de autocorrelación parcial (PACF) da la correlación parcial de una serie cronológica con sus propios valores rezagados, controlando los valores de La serie de tiempo en todos los rezagos más cortos. Esto contrasta con la función de autocorrelación, que no controla otros desfases. La identificación de un modelo AR a menudo se hace mejor con el PACF. Para un modelo AR, el PACF teórico se cierra fuera del orden del modelo. La frase se cierra significa que en teoría, las autocorrelaciones parciales son iguales a 0, más allá de ese punto . Dicho de otra manera, el número de autocorrelaciones parciales distintas de cero da el orden del modelo AR. Por el orden del modelo nos referimos al retraso más extremo de x que se utiliza como predictor. Esta función fue introducida por Cleveland en 1972 para series temporales estacionarias discretas. Hay 2 Métodos para estimar IACF. 1) Estimación del espectro de datos mediante suavizado del periodograma, tomando el recíproco de la estimación y luego calcular la transformación de Fourier. 2) Aproximación del modelo mediante un proceso AR adecuado, estimando los parámetros de este modelo usando las Ecuaciones de Yule-Walker. Las autocorrelaciones inversas de una serie temporal se definen como las autocorrelaciones asociadas con la inversa de la densidad espectral de la serie. Pueden calcularse calculando las autocorrelaciones asociadas con la inversa de una estimación de densidad espectral. Dos métodos diferentes de estimar las autocorrelaciones inversas surgen de dos métodos diferentes de estimar la densidad espectralauto-regresivo y el suavizado periodograma. Las estimaciones de las autocorrelaciones inversas se utilizan para ayudar a identificar un parsimonioso, media móvil, modelo auto-regresivo para la serie y para proporcionar estimaciones iniciales aproximadas de los parámetros para una búsqueda iterativa para el máximo de la función de verosimilitud. Las técnicas discutidas se aplican a las lecturas de la concentración del proceso químico, a las mediciones de la velocidad del viento ya los datos sísmicos lunares. 47 Vistas middot Ver Upvotes middot Respuesta solicitada8.5 Modelos no estacionales de ARIMA Si combinamos la diferenciación con autorregresión y un modelo de media móvil, obtenemos un modelo ARIMA no estacional. ARIMA es un acrónimo para AutoRegressive Integrated Moving Average (la integración en este contexto es el reverso de la diferenciación). El modelo completo se puede escribir como donde y es la serie diferenciada (puede haber sido diferenciada más de una vez). Los predictores en el lado derecho incluyen tanto los valores rezagados de yt como los errores rezagados. Llamamos a esto un modelo de ARIMA (p, d, q). Donde p orden de la parte autorregresiva d grado de primera diferencia implicaba q orden de la parte media móvil. Las mismas condiciones de estacionariedad e invertibilidad que se usan para los modelos de media autorregresiva y móvil se aplican a este modelo ARIMA. Una vez que comencemos a combinar componentes de esta manera para formar modelos más complicados, es mucho más fácil trabajar con la notación de cambio de marcha atrás. Entonces la ecuación (ref) se puede escribir como begin (1-phi1B-cdots-phip Bp) amp (1-B) dy amp ampc (1 theta1 B cdots thetaq Bq) y uparrow amp uparrow amp ampuparrow Los valores apropiados para p, dyq pueden ser difíciles. La función auto. arima () en R lo hará automáticamente. Más adelante en este capítulo, aprenderemos cómo funciona la función, y algunos métodos para elegir estos valores usted mismo. Muchos de los modelos que ya hemos discutido son casos especiales del modelo ARIMA como se muestra en la siguiente tabla. Descripción de los modelos ARIMA La función auto. arima () es muy útil, pero cualquier cosa automatizada puede ser un poco peligrosa, y vale la pena entender algo del comportamiento de los modelos incluso cuando Usted confía en un procedimiento automático para elegir el modelo para usted. La constante c tiene un efecto importante en los pronósticos a largo plazo obtenidos de estos modelos. Si c0 y d0, las previsiones a largo plazo pasarán a cero. Si c0 y d1, los pronósticos a largo plazo pasarán a una constante distinta de cero. Si c0 y d2, las previsiones a largo plazo seguirán una línea recta. Si cne0 y d0, los pronósticos a largo plazo irán a la media de los datos. Si cne0 y d1, las previsiones a largo plazo seguirán una línea recta. Si cne0 y d2, los pronósticos a largo plazo seguirán una tendencia cuadrática. El valor de d también tiene un efecto en los intervalos de predicción cuanto mayor es el valor de d, más rápidamente los intervalos de predicción aumentan de tamaño. Para d0, la desviación estándar pronosticada a largo plazo irá a la desviación estándar de los datos históricos, por lo que los intervalos de predicción serán todos esencialmente iguales. Este comportamiento se observa en la figura 8.8 donde d0 y cne 0. En esta figura, los intervalos de predicción son los mismos para los últimos horizontes de pronóstico, y los pronósticos de puntos son iguales a la media de los datos. El valor de p es importante si los datos muestran ciclos. Para obtener pronósticos cíclicos, es necesario tener pge2 junto con algunas condiciones adicionales sobre los parámetros. Para un modelo AR (2), el comportamiento cíclico ocurre si phi124phi2t0. En ese caso, el período promedio de los ciclos es 1 frac (-phi1 (1-phi2) / (4phi2)). Parcelas ACF y PACF Normalmente no es posible decir, simplemente a partir de un gráfico de tiempo, qué valores de p y q son apropiados para los datos. Sin embargo, a veces es posible usar la gráfica ACF, y el diagrama de PACF estrechamente relacionado, para determinar valores apropiados para p y q. Recuerde que un gráfico ACF muestra las autocorrelaciones que miden la relación entre yt yy para diferentes valores de k. Ahora si yt yy están correlacionados, entonces yyy también deben estar correlacionados. Pero entonces yt yy podrían estar correlacionados, simplemente porque ambos están conectados a y, en lugar de debido a cualquier nueva información contenida en y que pudiera usarse en pronosticar yt. Para superar este problema, podemos usar autocorrelaciones parciales. Estos miden entre yyy después de eliminar los efectos de otros retrasos de tiempo - 1, 2, 3, puntos, k - 1. Así, la primera autocorrelación parcial es idéntica a la primera autocorrelación, porque no hay nada entre ellos para eliminar. Las autocorrelaciones parciales para los retardos 2, 3 y mayores se calculan de la siguiente manera: Variando el número de términos en el lado derecho de este modelo de autorregresión se dan alfak para diferentes valores de k. (En la práctica, hay algoritmos más eficientes para calcular alphak que encajar todas estas autorregresiones, pero dan los mismos resultados.) La Figura 8.9 muestra las gráficas ACF y PACF para los datos de consumo de los Estados Unidos mostrados en la Figura 8.7. Las autocorrelaciones parciales tienen los mismos valores críticos de pm 1,96 / sqrt que para autocorrelaciones ordinarias, y éstas se muestran típicamente en la gráfica como en la Figura 8.9. Gráfico 8.9: ACF y PACF de cambio porcentual trimestral en el consumo estadounidense. Una manera conveniente de producir un diagrama de tiempo, trazado ACF y trazado PACF en un comando es utilizar la función tsdisplay en R. par 40 mfrow c 40 1. 2 41 41 Acf 40 usconsumption 91. 1 93, main quotquot 41 Pacf 40 usconsumption Si los datos proceden de un modelo ARIMA (p, d, 0) o ARIMA (0, d, q), los gráficos ACF y PACF pueden ser útiles para determinar el valor de p o q . Si p y q son positivos, entonces las gráficas no ayudan a encontrar valores adecuados de p y q. Los datos pueden seguir un modelo ARIMA (p, d, 0) si las gráficas ACF y PACF de los datos diferenciados muestran los siguientes patrones: el ACF está en descomposición exponencial o sinusoidal hay un pico significativo al retardo p en PACF, pero ninguno más allá Retraso Los datos pueden seguir un modelo ARIMA (0, d, q) si las gráficas ACF y PACF de los datos diferenciados muestran los siguientes patrones: el PACF está en descomposición exponencial o sinusoidal hay un pico significativo al retraso q en ACF, pero ninguno más allá Lag q. En la Figura 8.9, vemos que hay tres picos en la ACF y luego no hay picos significativos a partir de entonces (aparte de uno justo fuera de los límites en el retardo 14). En el PACF, hay tres picos que disminuyen con el retraso, y después ningún pico significativo a partir de entonces (aparte de uno apenas fuera de los límites en el retraso 8). Podemos ignorar un pico significativo en cada parcela si está justo fuera de los límites, y no en los primeros rezagos. Después de todo, la probabilidad de que un pico sea significativo por casualidad es aproximadamente uno de cada veinte, y estamos trazando 21 picos en cada parcela. El patrón en los primeros tres picos es lo que cabría esperar de un ARIMA (0,0,3) ya que el PACF tiende a decaer exponencialmente. Así que en este caso, el ACF y el PACF nos llevan al mismo modelo que se obtuvo usando el procedimiento automático. Arco cos es la función coseno inversa. Deberías poder encontrarlo en tu calculadora. Puede identificarse como acos o cos .1608617Identificación de los números de AR o MA términos en un ARIMA modelo ACF y PACF parcelas: Después de una serie de tiempo ha sido estacionada por diferenciación, el siguiente paso en la adaptación de un modelo ARIMA es determinar si AR o MA Los términos son necesarios para corregir cualquier autocorrelación que permanezca en la serie diferenciada. Por supuesto, con el software como Statgraphics, podría probar algunas combinaciones diferentes de términos y ver qué funciona mejor. Pero hay una manera más sistemática de hacer esto. Observando las gráficas de la función de autocorrelación (ACF) y de la autocorrelación parcial (PACF) de las series diferenciadas, se puede identificar tentativamente el número de términos AR y / o MA que se necesitan. Usted ya está familiarizado con la trama ACF: es simplemente un gráfico de barras de los coeficientes de correlación entre una serie de tiempo y rezagos de sí mismo. La gráfica PACF es una gráfica de los coeficientes de correlación parcial entre las series y los retardos de sí mismo. En general, la correlación quotparcial entre dos variables es la cantidad de correlación entre ellas que no se explica por sus correlaciones mutuas con un conjunto especificado de otras variables. Por ejemplo, si se regresa una variable Y sobre otras variables X1, X2 y X3, la correlación parcial entre Y y X3 es la cantidad de correlación entre Y y X3 que no se explica por sus correlaciones comunes con X1 y X2. Esta correlación parcial se puede calcular como la raíz cuadrada de la reducción en la varianza que se logra mediante la adición de X3 a la regresión de Y en X1 y X2. Una autocorrelación parcial es la cantidad de correlación entre una variable y un retraso de sí mismo que no se explica por las correlaciones en todas las lengüetas de orden inferior. La autocorrelación de una serie temporal Y en el intervalo 1 es el coeficiente de correlación entre Y t e Y t - 1. Que es presumiblemente también la correlación entre Y t -1 y Y t -2. Pero si Y t está correlacionada con Y t -1. Y Y t -1 está igualmente correlacionada con Y t -2. Entonces también deberíamos esperar encontrar correlación entre Y t e Y t-2. De hecho, la cantidad de correlación que deberíamos esperar en el retraso 2 es precisamente el cuadrado de la correlación lag-1. Por lo tanto, la correlación en el retraso 1 quotpropagatesquot a lag 2 y presumiblemente a los desfases de orden superior. La autocorrelación parcial en el retraso 2 es, por lo tanto, la diferencia entre la correlación real en el retraso 2 y la correlación esperada debido a la propagación de la correlación en el retardo 1. Aquí está la función de autocorrelación (ACF) de la serie UNITS, antes de realizar cualquier diferenciación: Las autocorrelaciones son significativas para un gran número de rezagos - pero quizás las autocorrelaciones en los retrasos 2 y superiores son meramente debidas a la propagación de la autocorrelación en el retraso 1. Esto es confirmado por la gráfica PACF: Obsérvese que la parcela PACF tiene una significación Pico sólo en el retraso 1, lo que significa que todas las autocorrelaciones de orden superior se explican efectivamente por la autocorrelación lag-1. Las autocorrelaciones parciales en todos los retrasos se pueden calcular ajustando una sucesión de modelos autorregresivos con un número creciente de retrasos. En particular, la autocorrelación parcial con retraso k es igual al coeficiente de AR (k) estimado en un modelo autorregresivo con k términos, es decir. Un modelo de regresión múltiple en el que Y se regula en GAL (Y, 1), GAL (Y, 2), etc., hasta GAL (Y, k). Por lo tanto, mediante la simple inspección del PACF puede determinar cuántos términos de AR necesita utilizar para explicar el patrón de autocorrelación en una serie temporal: si la autocorrelación parcial es significativa a la laguna k y no significativa en ningún desfase de orden superior, es decir. Si el PACF quotcuts offquot a lag k - entonces esto sugiere que usted debe tratar de encajar un modelo autorregresivo de orden k El PACF de la serie UNITS proporciona un ejemplo extremo del fenómeno de corte: tiene un pico muy grande en el retraso 1 Y no hay otros picos significativos, lo que indica que en ausencia de diferencias un AR (1) modelo debe ser utilizado. Sin embargo, el término AR (1) en este modelo resultará ser equivalente a una primera diferencia, porque el coeficiente estimado de AR (1) (que es la altura del pico de PACF en el retardo 1) será casi exactamente igual a 1 La ecuación de predicción para un modelo AR (1) para una serie Y sin órdenes de diferenciación es: Si el coeficiente de AR (1) 981 1 en esta ecuación es igual a 1, es equivalente a predecir que la primera diferencia De Y es constante - ie Es equivalente a la ecuación del modelo de caminata aleatoria con crecimiento: El PACF de la serie UNITS nos está diciendo que, si no lo diferenciamos, entonces deberíamos ajustar un modelo AR (1) que resultará ser equivalente a tomar Una primera diferencia. En otras palabras, nos está diciendo que UNITS realmente necesita un orden de diferenciación para ser estacionalizado. AR y MA firmas: Si el PACF muestra un corte brusco mientras la ACF decae más lentamente (es decir, tiene picos significativos a mayores rezagos), decimos que la serie estacionaria muestra una firma quotAR, quot lo que significa que el patrón de autocorrelación se puede explicar más fácilmente Mediante la adición de términos AR que mediante la adición de términos MA. Probablemente encontrará que una firma de AR está comúnmente asociada con autocorrelación positiva en el intervalo 1 - es decir. Tiende a surgir en series que están ligeramente diferentes. La razón de esto es que un término AR puede actuar como una diferencia cuaternaria en la ecuación de predicción. Por ejemplo, en un modelo AR (1), el término AR actúa como una primera diferencia si el coeficiente autorregresivo es igual a 1, no hace nada si el coeficiente autorregresivo es cero y actúa como una diferencia parcial si el coeficiente está entre 0 y 1. Por lo tanto, si la serie es ligeramente infradiferenciada - es decir Si el patrón no estacionario de autocorrelación positiva no se ha eliminado por completo, se asignará una diferencia parcial mostrando una firma AR. Por lo tanto, tenemos la siguiente regla general para determinar cuándo agregar términos AR: Regla 6: Si el PACF de la serie diferenciada muestra un corte brusco y / o la autocorrelación lag-1 es positiva - i. e. Si la serie aparece ligeramente quotunderdifferencedquot - entonces considere agregar un término AR al modelo. El desfase en el que se corta el PACF es el número indicado de términos AR. En principio, cualquier patrón de autocorrelación puede ser eliminado de una serie estacionalizada añadiendo suficientes términos autorregresivos (retardos de la serie estacionalizada) a la ecuación de predicción, y el PACF le indica cuántos términos son probablemente necesarios. Sin embargo, esto no siempre es la forma más sencilla de explicar un patrón dado de autocorrelación: a veces es más eficiente agregar términos MA (retardos de los errores de pronóstico) en su lugar. La función de autocorrelación (ACF) juega el mismo rol para los términos de MA que el PACF juega para los términos AR - es decir, el ACF le indica cuántos términos MA es probable que sean necesarios para eliminar la autocorrelación restante de la serie diferenciada. Si la autocorrelación es significativa a la laguna k, pero no a intervalos mayores, es decir. Si el ACF quotcuts offquot a lag k - esto indica que exactamente k MA términos deben ser utilizados en la ecuación de pronóstico. En este último caso, decimos que la serie estacionalizada muestra una firma quotMA, lo que significa que el patrón de autocorrelación puede explicarse más fácilmente añadiendo términos MA que agregando términos AR. Una firma MA está comúnmente asociada con la autocorrelación negativa en el retardo 1 - es decir. Tiende a surgir en series que están ligeramente sobre diferenciadas. La razón de esto es que un término MA puede cancelar parcialmente una orden de diferenciación en la ecuación de pronóstico. Para ver esto, recuerde que un modelo ARIMA (0,1,1) sin constante es equivalente a un modelo Simple Exponential Smoothing. La ecuación de predicción para este modelo es donde el coeficiente de MA (1) 952 1 corresponde a la cantidad 1 - 945 en el modelo SES. Si 952 1 es igual a 1, esto corresponde a un modelo SES con 945 0, que es sólo un modelo CONSTANTE porque la predicción nunca se actualiza. Esto significa que cuando 952 1 es igual a 1, en realidad está cancelando la operación de diferenciación que normalmente permite que el pronóstico SES se vuelva a anclar en la última observación. Por otro lado, si el coeficiente de media móvil es igual a 0, este modelo se reduce a un modelo de caminata aleatoria, es decir, Deja la operación de diferenciación solo. Por lo tanto, si 952 1 es algo mayor que 0, es como si estuviéramos cancelando parcialmente un orden de diferenciación. Si la serie ya está ligeramente sobre diferenciada - es decir. Si se ha introducido una autocorrelación negativa, entonces se establecerá una cuota para que una diferencia se cancele parcialmente al mostrar una firma de MA. (Una gran cantidad de agitar el brazo se está llevando a cabo aquí Una explicación más rigurosa de este efecto se encuentra en el folleto Estructura Matemática de los Modelos ARIMA.) De ahí la siguiente regla de pulgar adicional: Regla 7: Si la ACF de la serie diferenciada muestra una El corte brusco y / o la autocorrelación lag-1 es negativo --o Si la serie aparece ligeramente quotoverdifferencedquot - entonces considerar la adición de un término MA para el modelo. El retraso en que la ACF corta es el número indicado de términos de MA. Un modelo para la serie UNITS - ARIMA (2,1,0): Anteriormente se determinó que la serie UNITS necesitaba (al menos) un orden de diferenciación no estacional para ser estacionalizado. Después de tomar una diferencia no estacional - es decir. (A) la correlación en el desfase 1 es significativa y positiva, y (b) el PACF muestra un quotcutoff más nítido que El ACF. En particular, el PACF sólo tiene dos picos significativos, mientras que el ACF tiene cuatro. Así, de acuerdo con la Regla 7 anterior, la serie diferenciada muestra una firma AR (2). Si, por lo tanto, fijamos el orden del término AR en 2 - es decir. Se ajusta un modelo ARIMA (2,1,0) - se obtienen las siguientes gráficas ACF y PACF para los residuos: Se ha eliminado la autocorrelación en los desfases cruciales - a saber, los retornos 1 y 2 - y no existe un patrón discernible En desfases de orden superior. Sin embargo, el informe de resumen de análisis muestra que el modelo, sin embargo, funciona bastante bien en el período de validación, ambos coeficientes de AR son significativamente diferentes de cero, y el estándar La desviación de los residuos se ha reducido de 1,54371 a 1,4215 (casi 10) mediante la adición de los términos AR. Por otra parte, no hay signo de una raíz quotunit porque la suma de los coeficientes AR (0.2522540.195572) no es cercana a 1. (Las raíces unitarias se discuten en más detalle a continuación.) En general, este parece ser un buen modelo . Los pronósticos (no transformados) para el modelo muestran una tendencia al alza lineal proyectada hacia el futuro: La tendencia en los pronósticos a largo plazo se debe a que el modelo incluye una diferencia no estacional y un término constante: este modelo es básicamente un paseo aleatorio con Crecimiento ajustado por la adición de dos términos autorregresivos, es decir, Dos rezagos de la serie diferenciada. La pendiente de las previsiones a largo plazo (es decir, el aumento promedio de un período a otro) es igual al término medio en el resumen del modelo (0,467566). La ecuación de pronóstico es: donde 956 es el término constante en el resumen del modelo (0.258178), 981 1 es el coeficiente AR (1) (0.25224) y 981 2 es el coeficiente AR (2) (0.195572). Media versus constante: En general, el término quotmeanquot en la salida de un modelo ARIMA se refiere a la media de las series diferenciadas (es decir, la tendencia media si el orden de diferenciación es igual a 1), mientras que el quotconstante es el término constante que aparece En el lado derecho de la ecuación de pronóstico. Los términos medios y constantes están relacionados por la ecuación: CONSTANTE MEDIO (1 menos la suma de los coeficientes AR). En este caso, tenemos 0.258178 0.467566 (1 - 0.25224 - 0.195572) Modelo alternativo para la serie UNITS - ARIMA (0,2,1): Recuerde que cuando comenzamos a analizar la serie UNITS, no estábamos totalmente seguros de la Orden correcto de diferenciación a utilizar. Un orden de diferenciación no estacional dio la menor desviación estándar (y un patrón de autocorrelación positiva moderada), mientras que dos órdenes de diferenciación no estacional dieron un diagrama de series temporales más estacionario (pero con una autocorrelación negativa bastante fuerte). Aquí están tanto el ACF como el PACF de la serie con dos diferencias no estacionales: El único pico negativo al retraso 1 en el ACF es una firma MA (1), de acuerdo con la Regla 8 anterior. Por lo tanto, si tuviéramos que usar 2 diferencias no estacionales, también querríamos incluir un término MA (1), dando un modelo ARIMA (0,2,1). De acuerdo con la Regla 5, también queremos suprimir el término constante. Observemos que la desviación estándar del ruido blanco estimado (RMSE) es sólo muy ligeramente más alta para este modelo que la anterior (1,46301 aquí frente a 1,45215 previamente). La ecuación de predicción para este modelo es: donde theta-1 es el coeficiente MA (1). Recuérdese que esto es similar a un modelo Linear Exponential Smoothing, con el coeficiente MA (1) correspondiente a la cantidad 2 (1-alfa) en el modelo LES. El coeficiente MA (1) de 0,76 en este modelo sugiere que un modelo LES con alfa en la vecindad de 0,72 encajaría aproximadamente igual. En realidad, cuando un modelo LES se ajusta a los mismos datos, el valor óptimo de alpha resulta ser alrededor de 0,61, que no está demasiado lejos. A continuación se muestra un modelo de informe de comparación que muestra los resultados del ajuste del modelo ARIMA (2,1,0) con constante, el modelo ARIMA (0,2,1) sin constante y el modelo LES: Los tres modelos tienen un rendimiento casi idéntico en El período de estimación, y el modelo ARIMA (2,1,0) con constante aparece ligeramente mejor que los otros dos en el período de validación. Basándose únicamente en estos resultados estadísticos, sería difícil elegir entre los tres modelos. Sin embargo, si trazamos los pronósticos a largo plazo del modelo ARIMA (0,2,1) sin constante (que son esencialmente los mismos que los del modelo LES), vemos una diferencia significativa con los del modelo anterior: Los pronósticos tienen una tendencia al alza ligeramente inferior a la del modelo anterior, ya que la tendencia local cerca del final de la serie es ligeramente inferior a la tendencia media en toda la serie, pero los intervalos de confianza se amplían mucho más rápidamente. El modelo con dos órdenes de diferenciación asume que la tendencia en la serie varía en el tiempo, por lo que considera que el futuro lejano es mucho más incierto que el modelo con un solo orden de diferenciación. ¿Qué modelo debemos elegir? Eso depende de las suposiciones que nos resultan cómodas con respecto a la constancia de la tendencia en los datos. El modelo con un solo orden de diferenciación asume una tendencia media constante - es esencialmente un modelo de caminata aleatorio con crecimiento fino - y por lo tanto hace proyecciones de tendencia relativamente conservadoras. También es bastante optimista sobre la exactitud con la que puede pronosticar más de un período por delante. El modelo con dos órdenes de diferenciación asume una tendencia local variable en el tiempo - esencialmente un modelo de suavizado exponencial lineal - y sus proyecciones de tendencia son algo más inconstantes. Como regla general en este tipo de situación, yo recomendaría elegir el modelo con el orden inferior de la diferenciación, otras cosas que son casi iguales. In practice, random-walk or simple-exponential-smoothing models often seem to work better than linear exponential smoothing models. Mixed models: In most cases, the best model turns out a model that uses either only AR terms or only MA terms, although in some cases a quotmixedquot model with both AR and MA terms may provide the best fit to the data. However, care must be exercised when fitting mixed models. It is possible for an AR term and an MA term to cancel each others effects . even though both may appear significant in the model (as judged by the t-statistics of their coefficients). Thus, for example, suppose that the quotcorrectquot model for a time series is an ARIMA(0,1,1) model, but instead you fit an ARIMA(1,1,2) model--i. e. you include one additional AR term and one additional MA term. Then the additional terms may end up appearing significant in the model, but internally they may be merely working against each other. The resulting parameter estimates may be ambiguous, and the parameter estimation process may take very many (e. g. more than 10) iterations to converge. Hence: Rule 8: It is possible for an AR term and an MA term to cancel each others effects, so if a mixed AR-MA model seems to fit the data, also try a model with one fewer AR term and one fewer MA term--particularly if the parameter estimates in the original model require more than 10 iterations to converge. For this reason, ARIMA models cannot be identified by quotbackward stepwisequot approach that includes both AR and MA terms. In other words, you cannot begin by including several terms of each kind and then throwing out the ones whose estimated coefficients are not significant. Instead, you normally follow a quotforward stepwisequot approach, adding terms of one kind or the other as indicated by the appearance of the ACF and PACF plots. Unit roots: If a series is grossly under - or overdifferenced--i. e. if a whole order of differencing needs to be added or cancelled, this is often signalled by a quotunit rootquot in the estimated AR or MA coefficients of the model. An AR(1) model is said to have a unit root if the estimated AR(1) coefficient is almost exactly equal to 1. (By quotexactly equal quot I really mean not significantly different from . in terms of the coefficients own standard error . ) When this happens, it means that the AR(1) term is precisely mimicking a first difference, in which case you should remove the AR(1) term and add an order of differencing instead. (This is exactly what would happen if you fitted an AR(1) model to the undifferenced UNITS series, as noted earlier.) In a higher-order AR model, a unit root exists in the AR part of the model if the sum of the AR coefficients is exactly equal to 1. In this case you should reduce the order of the AR term by 1 and add an order of differencing. A time series with a unit root in the AR coefficients is nonstationary --i. e. it needs a higher order of differencing. Rule 9: If there is a unit root in the AR part of the model--i. e. if the sum of the AR coefficients is almost exactly 1--you should reduce the number of AR terms by one and increase the order of differencing by one. Similarly, an MA(1) model is said to have a unit root if the estimated MA(1) coefficient is exactly equal to 1. When this happens, it means that the MA(1) term is exactly cancelling a first difference, in which case, you should remove the MA(1) term and also reduce the order of differencing by one. In a higher-order MA model, a unit root exists if the sum of the MA coefficients is exactly equal to 1. Rule 10: If there is a unit root in the MA part of the model--i. e. if the sum of the MA coefficients is almost exactly 1--you should reduce the number of MA terms by one and reduce the order of differencing by one. For example, if you fit a linear exponential smoothing model (an ARIMA(0,2,2) model) when a simple exponential smoothing model (an ARIMA(0,1,1) model) would have been sufficient, you may find that the sum of the two MA coefficients is very nearly equal to 1. By reducing the MA order and the order of differencing by one each, you obtain the more appropriate SES model. A forecasting model with a unit root in the estimated MA coefficients is said to be noninvertible . meaning that the residuals of the model cannot be considered as estimates of the quottruequot random noise that generated the time series. Another symptom of a unit root is that the forecasts of the model may quotblow upquot or otherwise behave bizarrely. If the time series plot of the longer-term forecasts of the model looks strange, you should check the estimated coefficients of your model for the presence of a unit root. Rule 11: If the long-term forecasts appear erratic or unstable, there may be a unit root in the AR or MA coefficients. None of these problems arose with the two models fitted here, because we were careful to start with plausible orders of differencing and appropriate numbers of AR and MA coefficients by studying the ACF and PACF models. More detailed discussions of unit roots and cancellation effects between AR and MA terms can be found in the Mathematical Structure of ARIMA Models handout.2.1 Moving Average Models (MA models) Time series models known as ARIMA models may include autoregressive terms and/or moving average terms. En la semana 1, aprendimos un término autorregresivo en un modelo de series de tiempo para la variable x t es un valor retrasado de x t. Por ejemplo, un término autorregresivo de retardo 1 es x t-1 (multiplicado por un coeficiente). Esta lección define los términos del promedio móvil. Un término medio móvil en un modelo de serie temporal es un error pasado (multiplicado por un coeficiente). Dejamos (wt desbordamiento N (0, sigma2w)), lo que significa que los w t son idéntica, independientemente distribuidos, cada uno con una distribución normal que tiene la media 0 y la misma varianza. El modelo de media móvil de primer orden, denotado por MA (1) es (xt mu wt theta1w) El modelo de media móvil de segundo orden, denotado por MA (2) es (xt mu wt theta1w theta2w) , Denotado por MA (q) es (xt mu wt theta1w theta2w puntos thetaqw) Nota. Muchos libros de texto y programas de software definen el modelo con signos negativos antes de los términos. Esto no cambia las propiedades teóricas generales del modelo, aunque sí cambia los signos algebraicos de los valores estimados de los coeficientes y los términos (no cuadrados) en las fórmulas para las ACF y las varianzas. Usted necesita comprobar su software para verificar si los signos negativos o positivos se han utilizado con el fin de escribir correctamente el modelo estimado. R utiliza signos positivos en su modelo subyacente, como lo hacemos aquí. Propiedades teóricas de una serie temporal con un modelo MA (1) Tenga en cuenta que el único valor distinto de cero en el ACF teórico es para el retardo 1. Todas las demás autocorrelaciones son 0. Por lo tanto, una ACF de muestra con una autocorrelación significativa sólo con el retardo 1 es un indicador de un posible modelo MA (1). Para los estudiantes interesados, las pruebas de estas propiedades son un apéndice a este folleto. Ejemplo 1 Supongamos que un modelo MA (1) es x t 10 w t .7 w t-1. Donde (wt overset N (0,1)). Así, el coeficiente 1 0,7. El ACF teórico se da por un diagrama de esta ACF sigue. La gráfica que se muestra es la ACF teórica para una MA (1) con 1 0,7. En la práctica, una muestra no suele proporcionar un patrón tan claro. Utilizando R, simulamos n 100 valores de muestra utilizando el modelo x t 10 w t .7 w t-1 donde w t iid N (0,1). Para esta simulación, sigue un diagrama de series de tiempo de los datos de la muestra. No podemos decir mucho de esta trama. A continuación se muestra el ACF de muestra para los datos simulados. Observamos un pico en el retraso 1 seguido por valores generalmente no significativos para los retrasos de 1. Obsérvese que la muestra ACF no coincide con el patrón teórico del MA subyacente (1), que es que todas las autocorrelaciones para los retrasos de 1 serán 0.Una muestra diferente tendría una ACF de muestra ligeramente diferente mostrada abajo, pero probablemente tendría las mismas características amplias. Propiedades Terapéuticas de una Serie de Tiempo con un Modelo MA (2) Para el modelo MA (2), las propiedades teóricas son las siguientes: Obsérvese que los únicos valores distintos de cero en la ACF teórica son para los retornos 1 y 2. Las autocorrelaciones para retardos mayores son 0 . Por lo tanto, una muestra de ACF con autocorrelaciones significativas en los intervalos 1 y 2, pero autocorrelaciones no significativas para retardos mayores, indica un posible modelo MA (2). Iid N (0,1). Los coeficientes son 1 0,5 y 2 0,3. Dado que se trata de una MA (2), la ACF teórica tendrá valores distintos de cero sólo en los retornos 1 y 2. Los valores de las dos autocorrelaciones distintas de cero son: Un gráfico del ACF teórico sigue. Como casi siempre es el caso, los datos de la muestra no se comportarán tan perfectamente como la teoría. Se simularon 150 valores de muestra para el modelo x t 10 w t .5 w t-1 .3 w t-2. Donde w t iid N (0,1). A continuación se muestra el gráfico de la serie de tiempo de los datos. Al igual que con el gráfico de la serie de tiempo para los datos de la muestra MA (1), no se puede decir mucho de ella. A continuación se muestra el ACF de muestra para los datos simulados. El patrón es típico para situaciones donde un modelo MA (2) puede ser útil. Hay dos picos estadísticamente significativos en los intervalos 1 y 2, seguidos de valores no significativos para otros desfases. Tenga en cuenta que debido al error de muestreo, la muestra ACF no coincide exactamente con el patrón teórico. ACF para modelos MA (q) Una propiedad de los modelos MA (q) en general es que hay autocorrelaciones no nulas para los primeros q retrasos y autocorrelaciones 0 para todos los retrasos gt q. No unicidad de la conexión entre los valores de 1 y (rho1) en MA (1) Modelo. En el modelo MA (1), para cualquier valor de 1. El 1/1 recíproco da el mismo valor para. Por ejemplo, use 0.5 para 1. Y luego utilice 1 / (0,5) 2 para 1. Youll get (rho1) 0.4 en ambos casos. Para satisfacer una restricción teórica llamada invertibilidad. Limitamos los modelos MA (1) a tener valores con valor absoluto menor que 1. En el ejemplo dado, 1 0,5 será un valor de parámetro permisible, mientras que 1 1 / 0,5 2 no. Invertibilidad de los modelos MA Se dice que un modelo MA es invertible si es algebraicamente equivalente a un modelo de orden infinito convergente. Al converger, queremos decir que los coeficientes de AR disminuyen a 0 a medida que retrocedemos en el tiempo. Invertibilidad es una restricción programada en el software de la serie de tiempo usado para estimar los coeficientes de modelos con términos de MA. No es algo que buscamos en el análisis de datos. En el apéndice se proporciona información adicional sobre la restricción de la invertibilidad para los modelos MA (1). Nota de Teoría Avanzada. Para un modelo MA (q) con un ACF especificado, sólo hay un modelo invertible. La condición necesaria para la invertibilidad es que los coeficientes tienen valores tales que la ecuación 1- 1 y-. - q y q 0 tiene soluciones para y que caen fuera del círculo unitario. Código R para los Ejemplos En el Ejemplo 1, se representó la ACF teórica del modelo x $ _ {t} $ w $ _ {t} $. 7w t - 1. Y luego se simularon 150 valores de este modelo y se representaron las series de tiempo de muestra y la muestra ACF para los datos simulados. Los comandos R usados ​​para trazar el ACF teórico fueron: acfma1ARMAacf (mac (0.7), lag. max10) 10 retardos de ACF para MA (1) con theta1 0.7 lags0: 10 crea una variable llamada lags que va de 0 a 10. plot Abline (h0) añade un eje horizontal al diagrama El primer comando determina el ACF y lo almacena en un objeto (a0) Llamado acfma1 (nuestra elección de nombre). El comando plot (el 3er comando) traza retrasos en comparación con los valores ACF para los retornos 1 a 10. El parámetro ylab etiqueta el eje y y el parámetro principal pone un título en la gráfica. Para ver los valores numéricos de la ACF simplemente utilice el comando acfma1. La simulación y las parcelas se realizaron con los siguientes comandos. Xcarzim. sim (n150, lista (mac (0.7))) Simula n 150 valores de MA (1) xxc10 agrega 10 para hacer la media 10. La simulación predeterminada significa 0. plot (x, typeb, mainSimulated MA (1) data) (X, xlimc (1,10), mainACF para datos de muestra simulados) En el Ejemplo 2, se representó el ACF teórico del modelo xt 10 wt. 5 w t-1 .3 w t-2. Y luego se simularon 150 valores de este modelo y se representaron las series de tiempo de muestra y la muestra ACF para los datos simulados. Los comandos R utilizados fueron acfma2ARMAacf (mac (0.5.0.3), lag. max10) acfma2 lags0: 10 trama (lags, acfma2, xlimc (1,10), ylabr, typeh, ACF principal para MA (2) con theta1 0,5, (X, typeb, principal serie MA simulado) acf (x, xlimc (1,10), x2) (1) Para los estudiantes interesados, aquí hay pruebas de las propiedades teóricas del modelo MA (1). Cuando x 1, la expresión anterior 1 w 2. Para cualquier h 2, la expresión anterior 0 (x) La razón es que, por definición de independencia del peso. E (w k w j) 0 para cualquier k j. Además, debido a que w t tiene una media 0, E (w j w j) E (w j 2) w 2. Para una serie de tiempo, aplique este resultado para obtener la ACF indicada anteriormente. Un modelo inversible MA es uno que puede ser escrito como un modelo de orden infinito AR que converge para que los coeficientes AR convergen a 0 a medida que avanzamos infinitamente en el tiempo. Bien demostrar invertibilidad para el modelo MA (1). A continuación, sustituimos la relación (2) por wt-1 en la ecuación (1) (3) (zt wt theta1 (z-theta1w) wt theta1z - theta2w) En el momento t-2. La ecuación (2) es entonces sustituimos la relación (4) por w t-2 en la ecuación (3) (zt wt theta1 z - theta21w wt theta1z - theta21 (z - theta1w) wt theta1z - theta12z theta31w) Si continuáramos Sin embargo, si 1 1, los coeficientes que multiplican los retrasos de z aumentarán (infinitamente) en tamaño a medida que retrocedemos hacia atrás hora. Para evitar esto, necesitamos 1 lt1. Esta es la condición para un modelo de MA (1) invertible. Infinite Order MA model En la semana 3, veamos bien que un modelo AR (1) puede convertirse en un modelo de orden infinito MA: (xt - mu wt phi1w phi21w puntos phik1 w dots sum phij1w) Esta suma de términos de ruido blanco pasado es conocida Como la representación causal de un AR (1). En otras palabras, x t es un tipo especial de MA con un número infinito de términos remontándose en el tiempo. Esto se llama un orden infinito MA o MA (). Una orden finita MA es un orden infinito AR y cualquier orden finito AR es un orden infinito MA. Recordemos en la semana 1, observamos que un requisito para un AR estacionario (1) es que 1 lt1. Vamos a calcular el Var (x t) utilizando la representación causal. Este último paso utiliza un hecho básico sobre series geométricas que requiere (phi1lt1) de lo contrario la serie diverge. Navegación

No comments:

Post a Comment