Wednesday 7 June 2017

Autoregressive Moving Average Ppt


Modelos de média móvel integrada autorregrada (ARIMA) 1. Apresentação no tema: modelos de média móvel integrada autorregrada (ARIMA) 1. Transcrição de apresentação: 2 2 - Técnicas de previsão baseadas em suavização exponencial - Suposição geral para os modelos acima: os dados da série de tempos são representados como A soma de dois componentes distintos (deterministc random) - Ruído aleatório: gerado através de choques independentes no processo - Na prática: observações sucessivas mostram dependência serial 3 - Os modelos ARIMA também são conhecidos como metodologia Box-Jenkins, muito popular. Adequado para quase todas as séries temporais, muitas vezes gerar previsões mais precisas do que outros métodos. - limitações: se não houver dados suficientes, eles podem não ser melhores na previsão do que a decomposição ou técnicas de suavização exponencial. Número requerido de observações, pelo menos, é necessária uma estacionabilidade fraca - Igual espaço entre intervalos 3 Modelos ARIMA 7 7 Filtro linear - É um processo que converte a entrada xt, na saída yt. A conversão envolve valores passados, atuais e futuros da entrada em A forma de uma soma com diferentes pesos - O invariante do tempo não depende do tempo - Fácilmente realizável: a saída é uma função linear dos valores atuais e passados ​​da entrada - Stable se In filtros lineares: a estacionaridade das séries temporais de entrada também é Refletido na saída 9 Uma série de tempo que cumpre essas condições tende a retornar à sua média e flutuar em torno desta média com variação constante. Nota: A estacionança estrita requer, além das condições da estacionança fraca, que as séries temporais devem cumprir outras condições sobre sua distribuição, incluindo a astenção, a curtose, etc. 9 - Tire snaphots do processo em diferentes pontos de tempo, observe seu comportamento: se similar Ao longo do tempo, as séries temporais estacionárias - Uma ACF forte e magra lentamente sugere desvios da estacionança Determine a estacionaridade 12 Infinite Moving Average Input xt estacionário LÍNEA, o processo linear com série de tempo de ruído branco t É estacionário 12 Saída yt Estacionário, com t choques aleatórios independentes, com E (t) 0 14 14 A média móvel infinita serve como uma classe geral de modelos para qualquer série temporária estacionária THEOREM (World 1938): Qualquer série de tempo não estabilidade determinista e estacional pode ser representada como onde as séries temporais estacionárias INTERPRETAÇÃO A podem ser vistas Como a soma ponderada dos distúrbios presentes e passados ​​15 15 Infinita média móvel: - Impractical para estimar o infinitamente nós Übers - Useless na prática com exceção de casos especiais: i. Modelos de média móvel de ordem finita (MA). Pesos definidos para 0, com exceção de um número finito de pesos ii. Modelos autoregressivos de ordem finita (AR): os pesos são gerados usando apenas um número finito de parâmetros iii. Uma mistura de modelos de média móvel autorregressiva de ordem finita (ARMA) 16 Processo de média móvel (MA) de ordens finitas Processo médio em movimento da ordem q (MA (q)) MA (q). Sempre estacionário independentemente dos valores dos pesos 16 17 Valor esperado de MA (q) Variação de MA (q) Autocovariância de MA (q) Autocorelação de MA (q) ruído branco de 17 t 18 18 Função ACF: ajuda a identificar o modelo MA Sua ordem apropriada como se interrompe após o atraso k Aplicações reais: r (k) nem sempre zero após o atraso q se torna muito pequeno em valor absoluto após lag q 19 Processo Médio em Movimento de Primeira Ordem MA (1) Autocovariância de MA (q) Autocorelação de MA (q) 19 q1 20 20 - Variação de média. Estável - Corridas curtas onde as observações sucessivas tendem a se seguir - Autocorrelação positiva - Observações oscilam sucessivamente - autocorrelação negativa 21 Segunda ordem Motivo móvel MA (2) Processo Autocovariância de MA (q) Autocorelação de MA (q) 21 23 Processo Autoregressivo de Ordem Finita 23 - Teorema mundial: número infinito de pesos, não útil na previsão de modelagem - Processo MA de ordem inferior: estimar um número finito de pesos, definir o outro igual a zero. O transtorno mais antigo obsoleto para a próxima observação, apenas o número finito de distúrbios contribui para a atual Valor das séries temporais - Tenha em conta todos os distúrbios do passado. Use modelos autoregressivos estimam infinitamente muitos pesos que seguem um padrão distinto com um pequeno número de parâmetros 24 Processo Autoregressivo de Primeira Ordem, AR (1) Assume. As contribuições dos distúrbios que são passados ​​no passado são pequenas em comparação com os distúrbios mais recentes que o processo experimentou. Reflita as magnitudes decrescentes das contribuições dos distúrbios do passado, através de um conjunto infinito de pesos em magnitudes descendentes, como The Pesos nos distúrbios a partir do distúrbio atual e retroceder no passado: 24 Padrão de decaimento exponencial 25 Processo auto-regressivo de primeira ordem AR (1) AR (1) estacionário se 25 em que PORQUE AUTORIZADO. 26 AR média (1) Função de autocovariância AR (1) Função de autocorrelação AR (1) 26 O ACF para um processo de AR (1) estacionário tem um formulário exponencial de decaimento 28 Processo Autoregressivo de Segunda Ordem, AR (2) 28 Este modelo pode ser representado Na forma de IM infinito fornecem as condições de estacionança para yt em termos de 1 2 PORQUÊ 1. Infinito MA Aplicar 31 31 Soluções Satisfazer a equação de diferença linear de segunda ordem A solução. Em termos de 2 raízes m1 e m2 de AR (2) estacionárias: Condição de estacionaria para conjugados complexos aib: AR (2) representação de MA infinita: 32 32 Função de autocovariância média Para k0: Para k0: equações de Yule-Walker 0: Yule - equações de Walker 0: equações de Yule-Walker 0: equações de Yule-Walker title32 Função de autocovariância média Para k0: para k0: equações de Yule-Walker 33 33 Função de autocorrelação Soluções A. Resolva as equações de Yule-Walker recursivamente B. Solução geral Obtenha-a através As raízes m 1 m 2 associadas ao polinômio 34 34 Caso I: m 1, m 2 raízes reais distintas c 1, c 2 constantes: podem ser obtidas a partir de (0), (1) estacionaridade: forma ACF: mistura de 2 exponencialmente Termos de decaimento, por exemplo Modelo AR (2) Pode ser visto como um modelo ajustado de AR (1) para o qual uma única expressão de decaimento exponencial como no AR (1) não é suficiente para descrever o padrão no ACF e, assim, é adicionada uma expressão de decaimento adicional Ao introduzir o segundo termo de atraso y t-2 35 35 Caso II: m 1, m 2 complexos conjugados na forma c 1, c 2. constantes particulares Forma ACF: fator de amortecimento sinusoide úmido R período de freqüência 37 37 Processo AR (2) : Yt 40.4yty t-2 e Raizes do polinômio: forma ACF real: mistura de 2 termos de decomposição exponencial 38 38 AR (2) processo: yt 40,8yty t-2 e Raizes do polinômio: conjugados complexos Forma ACF: sinusoide amortecida Comportamento 40 40 AR (P) estacionário Se as raízes do polinômio forem inferiores a 1 em valor absoluto AR (P) representação infinita absoluta absoluta sumável sob a condição anterior 43 43 ACF p e equações de diferença linear AR (p). - satisfaz as equações de Yule-Walker - AAC pode ser encontrada a partir das raízes p do polinômio associado, e. Raízes reais distintas. - Em geral, as raízes não serão reais ACF. Mistura de decomposição exponencial e sinusóide amortecida 44 44 Processo ACF - MA (q): ferramenta útil para identificar a ordem do processo corta após o atraso k - AR (p) processo: mistura de expressões sinusóides amortecedoras de degradação exponencial Não fornece informações sobre a ordem De AR 45 45 Função de autocorrelação parcial Considere. - três variáveis ​​aleatórias X, Y, Z - Regressão simples de X em ZY em Z Os erros são obtidos a partir de 46 46 Correlação parcial entre XY após o ajuste para Z: A correlação entre XY A correlação parcial pode ser vista como a correlação entre duas variáveis ​​após Sendo ajustado por um fator comum que os afeta 47 47 Função de autocorrelação parcial (PACF) entre yty tk A autocorrelação entre yty tk após ajuste para y t-1, y t-2, y tk Processo AR (p): PACF entre yty tk Para kp deve ser igual a zero Considere-uma série de tempo estacionária yt não necessariamente um processo de AR - Para qualquer valor fixo k, as equações de Yule-Walker para o ACF de um processo de AR (p) p devem ser iguais a zero Considere-uma série de tempo estacionária yt Não necessariamente um processo de AR - Para qualquer valor fixo k, as equações de Yule-Walker para o ACF de um processo de AR (p) 48 48 Soluções de notação de matriz Para qualquer k, k 1,2, o último coeficiente é chamado de autocorrelação parcial Coeficiente do processo em l Ag k AR (p) processo: Identificar a ordem de um processo AR usando o PACF 49 49 Cortes após 1 st lag Padrão Decay AR (2) MA (1) MA (2) Padrão de decaimento AR (1) AR (2) ) Corta após 2 ª demora 50 50 Invertibilidade de modelos de MA Processo de média móvel invertido: O processo de MA (q) é reversível se tiver uma representação de infinito infinito absoluto de AR. Pode ser mostrado: A representação de AR infinita para MA (q) 51 51 Obter Precisamos Condição de invertibilidade As raízes do polinômio associado são inferiores a 1 em valor absoluto Um processo de MA reversível (q) pode então ser escrito como um processo de AR infinito 52 52 PACF de um processo de MA (q) é uma mistura de Expressão sinusoidal úmida de degradação exponencial Na identificação do modelo, use ambas amostras Amostra ACF PACF PACF possivelmente nunca corta 53 53 Processo Mídia Autônomo Misturado Autônomo (ARMA) Modelo ARMA (p, q) Ajuste o padrão exponencial de decaimento adicionando alguns termos 54 54 Stationarity Do processo ARMA (p, q) Relacionado ao componente AR ARMA (p, q) estacionário se t As raízes do polinômio são inferiores a uma em valor absoluto ARMA (p, q) possui uma representação infinita de MA 55 55 Invertibilidade do processo ARMA (p, q) Invertibilidade do processo ARMA relacionado ao componente MA Verifique as raízes do polinômio Se As raízes inferiores a 1 em valor absoluto, em seguida, ARMA (p, q) é inversível tem uma representação infinita Coeficientes: 60 60 Processo não estacionário Nível não constante, exibe um comportamento homogêneo ao longo do tempo yt é homogêneo, não estacionário se - Não é estacionário - Sua primeira diferença, wtyt - y t-1 (1-B) yt ou diferenças de ordem superior wt (1-B) dyt produzem uma série temporal estacionária Y t média móvel integrada integrada autorregressiva p, d, q ARIMA (p, d Q) Se a diferença d, wt (1-B) dyt produz um processo ARMA (p, q) estacionário ARIMA (p, d, q) 61 61 O processo de caminhada aleatória ARIMA (0,1,0) Simplest não - Modelo estacionário O primeiro diferencial elimina a dependência serial produz um processo de ruído branco 62 62 yt 20y t-1 e Evidência de não estacionário p Rocess - Sample ACF. Demora lentamente - PACF PACF: significativo no primeiro intervalo - Valor PACF amplo no intervalo 1 perto de 1 Primeira diferença - série série série de w t. Estacionário - Sample ACF PACF: não mostre nenhum valor significativo - Use ARIMA (0,1,0) 63 63 O processo de caminhada aleatória ARIMA (0,1,1) Representação infinita de AR, derivada de: ARIMA (0,1,1) ) (IMA (1,1)): expressa como uma média móvel ponderada exponencial (EWMA) de todos os valores passados ​​64 64 ARIMA (0,1,1) - A média do processo está se movendo para cima a tempo - Amf. ACF: morre Relativamente lento - PACF: 2 valores significativos em atrasos 1 2 - A primeira diferença parece estacionária - Ampla ACF PACF: um modelo de MA (1) seria apropriado para a primeira diferença, o ACF corta após o primeiro padrão de decaimento de PACF Possível modelo : AR (2) Verifique a média de movimentação integrada de raízes (ARIMA) Popularmente conhecida como metodologia Box-Jenkins. Apresentação sobre o tema: Média de Mudança Integrada Autoregressiva (ARIMA) Popularmente conhecida como metodologia Box-Jenkins. Transcrição de apresentação: 1 Média de Mudança Integrada Autoregressiva (ARIMA) Popularmente conhecida como Metodologia Box-Jenkins 2 Metodologia ARIMA não só na construção de modelos de equação única ou equação simultânea, mas também na análise das propriedades probabilísticas ou estocásticas das séries temporais econômicas em suas Próprio conjunto de dados. Ao contrário dos modelos de regressão, em que Yi é explicado por k regressor X 1, X 2, X 3. X k os modelos de séries temporais de tipo BJ permitem que Y i seja explicado pelos valores passados ​​ou remanescentes de Y e erro estocástico Termos. Por esse motivo, os modelos ARIMA às vezes são chamados de modelo teórico porque não são derivados de nenhuma teoria econômica e as teorias econômicas são muitas vezes a base de modelos de equações simultâneas. Observe que a ênfase neste tópico é em modelos ARIMA univariados, pois isso pertence a uma única série temporal. Mas pode ser estendido para modelos ARIMA multivariados. 3 Deixe-nos trabalhar com os dados da série de tempo do PIB para os Estados Unidos, dados na Tabela. Um gráfico desta série temporal é dado nas Figuras 1 (PIB indiferenciado) e 2 (PIB do primeiro-diferenciado) em forma de nível é não estacionário, mas em (primeiro) diferenciado é estacionário. Se uma série de tempo estiver estacionada, pode caber para o modelo ARIMA de várias maneiras. Um processo autoregressivo (AR) Deixe Y t representar o PIB no tempo t. Se modelarmos Y t como (Y t -) 1 (Y t-1) ut onde é a média de Y e onde ut é um termo de erro aleatório não correlacionado com média zero e variância constante 2 (ou seja, é ruído branco), então Nós dizemos que Y t segue um processo autoregressivo de primeira ordem ou AR (l), processo estocástico 4 Aqui, o valor de Y no tempo t depende do seu valor no período de tempo anterior e um termo aleatório os valores de Y são expressos como desvios de Seu valor médio. Por outras palavras, este modelo diz que o valor de previsão de Y no tempo t é simplesmente alguma proporção (l) de seu valor no tempo (t-1) mais um choque ou distúrbio aleatório no tempo t novamente, os valores de Y são expressos em torno de seus Valores médios. Mas no modelo, (Y t -) 1 (Y t-1) 2 (Y t-2), você segue um processo autoregressivo de segunda ordem ou AR (2). O valor de Y no tempo t depende do seu valor nos dois períodos de tempo anteriores, sendo os valores Y expressos em torno de seu valor médio. Em geral, (Y t -) 1 (Y t-1) 2 (Y t-2). P (Y t-p) u t Aqui Y t é uma ordem pth autoregressiva ou AR (p), processo. 5 Um processo de média móvel (MA) Suponha que modelamos Y da seguinte maneira: Y t 0 u t 1 u t-1 onde é uma constante e u t como antes, é o termo de erro estocástico de ruído branco. Aqui, Y no tempo t é igual a uma constante mais uma média móvel dos termos de erro atuais e passados. Assim, no caso presente, Y segue uma média móvel de primeira ordem, ou um processo MA (1). Mas se Y segue a expressão Y t 0 u t 1 u t-1 2 u t-2, então é um processo de MA (2). Geralmente, Y t 0 u t 1 u t-1 2 u t-2. Q u t-q é um processo de MA (q). Em suma, um processo de média móvel é simplesmente uma combinação linear de termos de erro de ruído branco. 6 Processo Autoregressivo e Motivo em Movimento (ARMA) É bastante provável que Y tenha características de AR e MA e, portanto, é ARMA. Assim, Y t segue um processo ARMA (1, 1) se ele pode ser escrito como Y t 1 Y t-1 0 u t 1 u t-1 porque existe um termo médio auto-regressivo e um termo móvel e representa um termo constante. Em geral, em um processo ARMA (p, q), haverá p autoregressivo e q termos médios móveis. Processo de média móvel integrada autoregressiva (ARIMA) Muitas séries temporais econômicas não são estacionárias, isto é, elas estão integradas. 7 Se uma série de tempo estiver integrada na ordem 1, isto é, eu (1), suas primeiras diferenças são I (0), isto é, estacionárias. Da mesma forma, se uma série de tempo é I (2), sua segunda diferença é I (0). Em geral, se uma série de tempo é I (d), depois de diferenciar d vezes, obtemos uma série I (0). Portanto, se em uma série de tempo d vezes a diferença o torna estacionário, então o modelo ARIMA (p, d, q) é chamado de modelo de série de tempo médio móvel integrado autoregressivo. Onde p denota o número de termos autorregressivos, d o número de vezes que a série precisa ser diferenciada antes de se tornar estacionada e q o número de termos médios móveis. Uma série de tempo ARIMA (2,1,2) deve ser diferenciada uma vez (d 1) torna-se estacionária e tem dois AR e dois termos MA. 8 O ponto importante a observar é que, para usar a metodologia Box-Jenkins, devemos ter uma série de tempo estacionária ou uma série de tempo que esteja parada após uma ou mais diferenças. A razão para assumir a estacionaridade pode ser explicada da seguinte forma: O objetivo da B-J Box-Jenkins é identificar e estimar um modelo estatístico que pode ser interpretado como tendo gerado os dados da amostra. Se este modelo estimado for então utilizado para a previsão, devemos assumir que as características deste modelo são constantes ao longo do tempo, e particularmente em períodos de tempo futuros. Assim, o motivo para exigir dados estacionários é que qualquer modelo que é inferido a partir desses dados pode ser interpretado como estacionário ou estável, proporcionando, portanto, base válida para a previsão. 9 METODOLOGIA DE BOX-JENKINS (BJ) Olhando para uma série de tempo, como a série GDP do US em Figura. Como saber se ele segue um processo puramente AR (e, em caso afirmativo, qual é o valor de p) ou um processo puramente MA (e, em caso afirmativo, qual é o valor de q) ou um processo ARMA (e, em caso afirmativo, o que? São os valores de p e q) ou um processo ARIMA. Nesse caso, devemos conhecer os valores de p, d e q. A metodologia BJ que responde a essas questões. O método consiste em quatro etapas: Etapa 1. Identificação: ou seja, descubra os valores apropriados de p, d e q usando correlograma e correlograma parcial e Teste Aumentado Dickey Fuller. 11 Etapa 2. Estimativa: Após ter identificado os valores de p e q apropriados, a próxima etapa é estimar os parâmetros dos termos de média autorregressiva e móvel incluídos no modelo. Às vezes, esse cálculo pode ser feito por mínimos quadrados simples, mas às vezes devemos recorrer a métodos de estimação não-lineares (em parâmetros). Uma vez que esta tarefa agora é rotineiramente tratada por vários pacotes estatísticos, não precisamos nos preocupar com a matemática real da estimativa. Passo 3. Verificação de diagnóstico: Depois de escolher um modelo particular de ARIMA e ter estimado seus parâmetros, veremos se o modelo escolhido se adequa razoavelmente aos dados, pois é possível que outro modelo ARIMA possa fazer o trabalho também. 12 É por isso que a modelagem de Box-Jenkins ARIMA é mais uma arte do que uma ciência é necessária uma habilidade considerável para escolher o modelo ARIMA certo. Um teste simples do modelo escolhido é ver se os resíduos estimados a partir deste modelo são de ruído branco se forem, podemos aceitar o ajuste particular, se não, devemos começar de novo. Assim, a metodologia BJ é um processo iterativo. Passo 4. Previsão: um dos motivos da popularidade da modelagem ARIMA é o seu sucesso na previsão. Em muitos casos, as previsões obtidas por este método são mais confiáveis ​​do que as obtidas da modelagem econométrica tradicional, particularmente para previsões de curto prazo. Vejamos estes quatro passos com algum detalhe. Ao longo, usaremos os dados do PIB dados na Tabela. 13 IDENTIFICAÇÃO As principais ferramentas de identificação são a função de autocorrelação (ACF), a função de autocorrelação parcial (PACF) e o correlograma resultante, que são simplesmente as parcelas de ACFs e PACFs contra o tempo de atraso. O conceito de autocorrelação parcial é análogo ao conceito de coeficiente de regressão parcial. No modelo de regressão múltipla da variável k, o kth coeficiente de regressão k mede a taxa de mudança no valor médio da regressão e para uma mudança de unidade no kth regressor X k, mantendo a influência de todos os outros regressores constantes. 14 Da mesma forma, a autocorrelação parcial kk mede a correlação entre as observações (séries temporais) que são tempos de intervalo de tempo separados após o controle de correlações em intervalos intermediários (isto é, atraso inferior a k). Em outras palavras, a autocorrelação parcial é a correlação entre Y t e Y t-k após a remoção do efeito de Y intermédios. Na figura, mostramos o correlograma e o correlograma parcial da série GDP. A partir desta figura, destacam-se dois fatos: primeiro, o ACF diminui muito devagar e ACF até 23 atrasos são individualmente significativamente estatisticamente diferentes de zero, pois todos estão fora dos 95 limites de confiança. Em segundo lugar, após o primeiro atraso, o PACF cai drasticamente, e todos os PACF após o lag 1 são estatisticamente insignificantes. 16 Como as séries temporais do PIB norte-americano não são estacionárias, temos que torná-la estacionária antes de poder aplicar a metodologia Box-Jenkins. Na figura seguinte, planejamos as primeiras diferenças de PIB. Ao contrário da figura anterior, não observamos nenhuma tendência nesta série, sugerindo que as séries temporais do PIB de primeiro diferencial são estacionárias. Uma aplicação formal do teste de raiz unitária Dickey-Fuller mostra que esse é realmente o caso. Agora, temos um padrão diferente de ACF e PACE. Os ACF nos intervalos 1, 8 e 12 parecem estatisticamente diferentes de zero. Os limites de confiança aproximados de 95 para k são e, mas em todos os outros atrasos não são estatisticamente diferentes de zero. Isso também é verdade para as autocorrelações parciais. 18 Agora, como o correlograma dado na Figura nos permite encontrar o padrão ARMA da série temporal do PIB Consideraremos apenas a primeira série de PIB diferenciada, porque esta é estacionária. Uma maneira de realizar isso é considerar o ACF e o PACF e o correlograma associado de um número selecionado de processos ARMA, como AR (l), AR (2), MA (1), MA (2), ARMA (1, 1), ARIMA (2, 2), e assim por diante. Uma vez que cada um desses processos estocásticos exibe padrões típicos de ACF e PACF, se as séries temporais em estudo se adequarem a um desses padrões, podemos identificar as séries temporais com esse processo. Claro, teremos que aplicar testes de diagnóstico para descobrir se o modelo ARMA escolhido é razoavelmente exato. 19 O que planejamos fazer é dar diretrizes gerais (ver Tabela), as referências podem fornecer os detalhes dos vários processos estocásticos. Os ACFs e os PACFs dos processos AR (p) e MA (q) possuem padrões opostos no caso AR (p), a AC diminui geometricamente ou exponencialmente, mas o PACF corta após um certo número de atrasos, enquanto o oposto acontece com um MA ( Q) processo. Tabela: Padrões teóricos de ACF e PACF Tipo de modelo Padrão típico do padrão ACFTypical de PACF AR (p) Decai exponencialmente ou com padrão de onda senovel ou ambos Picos significativos através de atrasos p MA (q) Picos significativos através de atrasos qDeclines exponencialmente ARMA (p, Q) Decaimência exponencial 20 ARIMA Identificação do PIB dos EUA: o correlograma e o correlograma parcial do PIB dos EUA estacionário (após a primeira diferenciação) para 1991-IV na Figura mostrada. As autocorrelações diminuem até o atraso 4, então, exceto nos atrasos 8 e 12, o resto deles é estatisticamente não diferente de zero (as linhas sólidas mostradas nesta figura dão os limites de confiança aproximados de 95). As autocorrelações parciais com picos no intervalo 1, 8 e 12 parecem estatisticamente significativas, mas o resto não é se o coeficiente de correlação parcial fosse significativo apenas no intervalo 1, poderíamos ter identificado isso como um modelo AR (l). Portanto, suponhamos que o processo que gerou o PIB (primeiro-diferenciado) é no máximo um processo AR (12). Não precisamos incluir todos os termos AR até 12, apenas os termos AR nos atrasos 1, 8 e 12 são significativos. 21 ESTIMAÇÃO DO MODELO ARIMA Dê as primeiras diferenças do PIB norte-americano. Em seguida, nosso modelo AR tentativamente identificado é o uso de Eviews, obtivemos as seguintes estimativas: t (7.7547) (3.4695) () () R 2 d 22 VERIFICAÇÃO DE DIAGNÓSTICO Como sabemos que o modelo acima é um ajuste razoável para os dados Um simples O diagnóstico é obter resíduos do modelo acima e obter ACF e PACF desses resíduos, digamos, até o intervalo 25. A CA e o PACF estimados são mostrados na Figura. Como esta figura mostra, nenhuma das autocorrelações e autocorrelações parciais são individualmente estatisticamente significativas. Nem a soma das 25 autocorrelações quadradas, como mostra as estatísticas Box-Pierce Q e Ljung-Box LB, estatisticamente significativas. O correlograma de autocorrelação e autocorrelação parcial conferem que os resíduos estimados sejam puramente aleatórios. Portanto, pode não haver necessidade de procurar outro modelo ARIMA. 24 PREVISÃO Suponha que, com base no modelo acima, queremos prever o PIB nos primeiros quatro trimestres de Mas, no modelo acima, a variável dependente é a mudança no PIB em relação ao trimestre anterior. Portanto, se usarmos o modelo acima, o que podemos obter são as previsões de mudanças do PIB entre o primeiro trimestre de 1992 e o quarto trimestre de 1991, segundo trimestre de 1992, durante o primeiro trimestre de 1992, etc. Para obter a previsão de Nível do PIB em vez de suas mudanças, podemos desfazer a transformação da primeira diferença que usamos para obter as mudanças. (Mais tecnicamente, integramos a série de primeira série.) 25 Para obter o valor de previsão do PIB (não PIB) para. Nós reescrevemos o modelo como Y 1992, I - Y 1991, IV l Y 1991, IV Y 1991, III 8 Y 1989, IV Y 1989, III 12 Y 1988, IV E 1988, III u 1992-I Isso é, Y 1992, I (1 l) Y 1991, IV l Y 1991, III 8 Y 1989, IV 8 Y 1989, III 12 Y 1988, IV 12 Y 1988, III u 1992-I Os valores de, l, 8 e 12 já são Conhecido pela regressão estimada. O valor de u 1992-I é assumido como zero. Portanto, podemos obter facilmente o valor de previsão de Y 1992-I. 26 A estimativa numérica desse valor de previsão é Y 1992, I () Y 1991, IV Y 1991, III () Y 1989, IV - () Y 1989, III () Y 1988, IV () Y 1988, III u 1992 - (4868) (4862,7) (4859,7) (4845,6) (4779,7) (4734,5) Assim, o valor previsto do PIB para 1992-I é de cerca de 4877 bilhões (1987 dólares). O valor real do PIB real para 1992 - eu era bilhões o erro de previsão foi uma superestimação de 3 bilhões. Padrão de Mudança Automatizada ARMA (p, q) Modelos para Análise de Série de Tempo - Parte 1 No último artigo, nós olhamos caminhadas aleatórias e brancas O ruído como modelos de séries temporais básicas para certos instrumentos financeiros, como os preços diários de patrimônio líquido e do índice de ações. Descobrimos que, em alguns casos, um modelo de caminhada aleatória era insuficiente para capturar o comportamento de autocorrelação total do instrumento, o que motiva modelos mais sofisticados. Nos próximos dois artigos, vamos discutir três tipos de modelo, ou seja, o modelo Autoregressivo (AR) da ordem p, o modelo de ordem média móvel (MA) da ordem e o modelo de ordem média auto - gressiva mista (ARMA) da ordem p , Q. Esses modelos nos ajudarão a tentar capturar ou explicar mais a correlação serial presente dentro de um instrumento. Em última análise, eles nos fornecerão um meio de prever os preços futuros. No entanto, é bem sabido que as séries temporais financeiras possuem uma propriedade conhecida como aglomeração de volatilidade. Ou seja, a volatilidade do instrumento não é constante no tempo. O termo técnico para este comportamento é conhecido como heterocedasticidade condicional. Uma vez que os modelos AR, MA e ARMA não são condicionalmente heterossejidos, isto é, eles não levam em consideração a acumulação de volatilidade, finalmente precisaremos de um modelo mais sofisticado para nossas previsões. Tais modelos incluem o modelo Heteroskedastic condicional autogressivo (ARCH) e o modelo Heteroskedastic condicional autogressivo generalizado (GARCH), e suas muitas variantes. O GARCH é particularmente conhecido em financiamento quantitativo e é usado principalmente para simulações de séries temporais financeiras como meio de estimar o risco. No entanto, como acontece com todos os artigos QuantStart, quero construir esses modelos a partir de versões mais simples para que possamos ver como cada nova variante altera nossa capacidade preditiva. Apesar de AR, MA e ARMA serem modelos de séries temporais relativamente simples, eles são a base de modelos mais complicados, como a Média Mover Integrada Autoregressiva (ARIMA) e a família GARCH. Por isso, é importante estudá-los. Uma das nossas primeiras estratégias de negociação na série de artigos da série temporal será combinar ARIMA e GARCH para prever antecipadamente os preços n. No entanto, teremos que esperar até discutirmos ARIMA e GARCH separadamente antes de aplicá-los a uma estratégia real. Como vamos prosseguir Neste artigo, vamos descrever alguns novos conceitos de séries temporais que bem precisam dos métodos restantes, a saber, rigorosos Estacionária e o critério de informação Akaike (AIC). Subsequentemente a esses novos conceitos, seguiremos o padrão tradicional para o estudo de novos modelos de séries temporais: Justificação - A primeira tarefa é fornecer uma razão pela qual estavam interessados ​​em um modelo particular, como quants. Por que estamos apresentando o modelo da série temporal? Que efeitos ele pode capturar? O que ganhamos (ou perdemos) adicionando em complexidade extra Definição - Precisamos fornecer a definição matemática completa (e notação associada) do modelo da série temporal para minimizar Qualquer ambiguidade. Propriedades de segunda ordem - Vamos discutir (e, em alguns casos, derivar) as propriedades de segunda ordem do modelo da série temporal, que inclui sua média, sua variação e sua função de autocorrelação. Correlograma - Usaremos as propriedades de segunda ordem para plotar um correlograma de uma realização do modelo de séries temporais para visualizar seu comportamento. Simulação - Vamos simular as realizações do modelo da série temporal e, em seguida, ajustar o modelo a essas simulações para garantir que possamos implementações precisas e entender o processo de montagem. Dados financeiros reais - Ajudaremos o modelo da série temporal a dados financeiros reais e consideraremos o correlograma dos resíduos para ver como o modelo explica a correlação serial na série original. Previsão - Vamos criar previsões n-passo a frente do modelo da série temporal para realizações específicas, a fim de produzir sinais de negociação. Quase todos os artigos que escrevo em modelos de séries temporais cairão nesse padrão e nos permitirá comparar facilmente as diferenças entre cada modelo à medida que adicionamos mais complexidade. Começamos por analisar a estacionária rigorosa e a AIC. Estritamente estacionário Nós fornecemos a definição de estacionaria no artigo sobre a correlação em série. No entanto, como vamos entrar no reino de muitas séries financeiras, com várias freqüências, precisamos garantir que nossos (eventuais) modelos levem em consideração a volatilidade variável no tempo dessas séries. Em particular, precisamos considerar sua heterossextibilidade. Encontraremos esse problema quando tentarmos ajustar certos modelos a séries históricas. Geralmente, nem toda a correlação em série nos resíduos de modelos ajustados pode ser contabilizada sem levar em consideração a heterocedasticidade. Isso nos leva de volta à estacionança. Uma série não é estacionária na variância se tiver volatilidade variável no tempo, por definição. Isso motiva uma definição mais rigorosa de estacionaria, a saber, a estacionalização rigorosa: Estritamente estacionário Série A modelo de série temporal, é estritamente estacionário se a distribuição estatística conjunta dos elementos x, ldots, x é a mesma que a de xm, ldots, xm, Forall ti, m. Pode-se pensar nessa definição como simplesmente que a distribuição da série temporal é inalterada para qualquer mudança abrupta no tempo. Em particular, a média ea variância são constantes no tempo para uma série estritamente estacionária e a autocovariância entre xt e xs (digamos) depende apenas da diferença absoluta de t e s, t-s. Nós estaremos revendo estritamente séries estacionárias em postagens futuras. O Critério de Informação Akaike mencionado em artigos anteriores que eventualmente precisamos considerar como escolher entre os melhores modelos separados. Isto é verdade não só da análise das séries temporais, mas também da aprendizagem por máquinas e, mais amplamente, das estatísticas em geral. Os dois principais métodos que usaremos (por enquanto) são o Critério de Informação Akaike (AIC) e o Critério de Informação Bayesiano (à medida que avançamos com nossos artigos sobre Estatísticas Bayesianas). Bem, considere brevemente o AIC, pois será usado na Parte 2 do artigo ARMA. AIC é essencialmente uma ferramenta para auxiliar na seleção do modelo. Ou seja, se temos uma seleção de modelos estatísticos (incluindo séries temporais), a AIC estima a qualidade de cada modelo em relação aos outros que temos disponível. Baseia-se na teoria da informação. Que é um tópico muito interessante e profundo que, infelizmente, não podemos entrar em detalhes demais. Ele tenta equilibrar a complexidade do modelo, o que significa, neste caso, o número de parâmetros, com o quão bem se ajusta aos dados. Permite fornecer uma definição: Critério de informação de Akaike Se tomarmos a função de verossimilhança para um modelo estatístico, que possui parâmetros k e L maximiza a probabilidade. Então o Critério de Informação de Akaike é dado por: O modelo preferido, a partir de uma seleção de modelos, tem o mínimo AIC do grupo. Você pode ver que o AIC cresce à medida que o número de parâmetros, k, aumenta, mas é reduzido se a probabilidade de log negativa aumentar. Essencialmente, penaliza modelos que são superados. Vamos criar modelos AR, MA e ARMA de diferentes ordens e uma maneira de escolher o melhor modelo que se encaixa em um determinado conjunto de dados é usar o AIC. Isto é o que bem estar fazendo no próximo artigo, principalmente para modelos ARMA. Autoregressivo (AR) Modelos de ordem p O primeiro modelo que consideramos, que constitui a base da Parte 1, é o modelo Autoregressivo de ordem p, muitas vezes reduzido a AR (p). No artigo anterior consideramos a caminhada aleatória. Onde cada termo, xt é dependente unicamente do termo anterior, x e um termo estocástico de ruído branco, wt: o modelo autorregressivo é simplesmente uma extensão da caminhada aleatória que inclui termos mais atrasados ​​no tempo. A estrutura do modelo é linear. Esse é o modelo depende linearmente dos termos anteriores, com coeficientes para cada termo. É aí que o regressivo vem de autoregressivo. É essencialmente um modelo de regressão onde os termos anteriores são os preditores. Modelo autoregressivo de ordem p Um modelo de série temporal,, é um modelo de ordem autoregressivo p. AR (p), se: begin xt alpha1 x ldots alphap x wt sum p alphai x wt end Onde está o ruído branco e alphai em mathbb, com alphap neq 0 para um processo autorregressivo de ordem p. Se considerarmos o operador de deslocamento para trás. (Veja o artigo anterior), então podemos reescrever o acima como uma função theta de: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt end Talvez a primeira coisa a notar sobre o modelo AR (p) É que uma caminhada aleatória é simplesmente AR (1) com alfa 1 igual à unidade. Como afirmamos acima, o modelo autogressivo é uma extensão da caminhada aleatória, então isso faz sentido. É direto fazer previsões com o modelo AR (p), para qualquer momento t, uma vez que temos os coeficientes de alphai determinados, nossa estimativa Simplesmente se torna: começo chapéu t alpha1 x ldots alphap x end Portanto, podemos fazer previsões n-passo a frente produzindo chapéu, chapéu, chapéu, etc. até o chapéu. Na verdade, uma vez que consideremos os modelos ARMA na Parte 2, usaremos a função de predição R para criar previsões (juntamente com bandas de intervalo de confiança de erro padrão) que nos ajudarão a produzir sinais comerciais. Stationarity para Processos Autoregressivos Um dos aspectos mais importantes do modelo AR (p) é que nem sempre é estacionário. Na verdade, a estacionariedade de um modelo específico depende dos parâmetros. Eu já toquei isso antes em um artigo anterior. Para determinar se um processo AR (p) está parado ou não, precisamos resolver a equação característica. A equação característica é simplesmente o modelo autorregressivo, escrito em forma de deslocamento para trás, definido como zero: resolvemos esta equação. Para que o processo autoregressivo particular seja estacionário, precisamos de todos os valores absolutos das raízes dessa equação para exceder a unidade. Esta é uma propriedade extremamente útil e nos permite calcular rapidamente se um processo AR (p) está parado ou não. Vamos considerar alguns exemplos para tornar esta idéia concreta: Random Walk - O processo AR (1) com alpha1 1 tem a equação característica theta 1 -. Claramente, isso tem a raiz 1 e, como tal, não é estacionário. AR (1) - Se escolhermos alpha1 frac, obtemos xt frac x wt. Isso nos dá uma equação característica de 1 - frac 0, que tem uma raiz de 4 gt 1 e, portanto, esse processo particular de AR (1) é estacionário. AR (2) - Se formamos alpha1 alpha2 frac, obtemos xt frac x frac x wt. Sua equação característica torna-se - frac () () 0, que dá duas raízes de 1, -2. Uma vez que esta tem uma unidade de raiz é uma série não estacionária. No entanto, outras séries AR (2) podem ser estacionárias. Propriedades de segunda ordem A média de um processo AR (p) é zero. No entanto, as autocovariâncias e autocorrelações são dadas por funções recursivas, conhecidas como equações de Yule-Walker. As propriedades completas são dadas abaixo: begin mux E (xt) 0 end begin gammak soma p alphai gamma, enspace k 0 end begin rhok soma p alphai rho, enspace k 0 end Observe que é necessário conhecer os valores dos parâmetros alphai antes de Calculando as autocorrelações. Agora que declaramos as propriedades de segunda ordem, podemos simular várias ordens de AR (p) e traçar os correlogramas correspondentes. Simulações e Correlogramas Comece com um processo AR (1). Isso é semelhante a uma caminhada aleatória, exceto que o alfa1 não tem igual a unidade. Nosso modelo terá alfa1 0,6. O código R para criar esta simulação é o seguinte: Observe que nosso loop for é realizado de 2 a 100, não de 1 a 100, como xt-1 quando t0 não é indexável. Da mesma forma, para processos AR (p) de ordem superior, t deve variar de p para 100 neste loop. Podemos traçar a realização deste modelo e seu correlograma associado usando a função de layout: agora tentamos ajustar um processo AR (p) aos dados simulados que acabamos de gerar, para ver se podemos recuperar os parâmetros subjacentes. Você pode lembrar que realizamos um procedimento semelhante no artigo sobre ruídos brancos e passeios aleatórios. Na medida em que R fornece um comando útil ar para caber modelos autorregressivos. Podemos usar esse método para primeiro nos dizer a melhor ordem p do modelo (conforme determinado pela AIC acima) e nos fornecer estimativas de parâmetros para o alfai, que podemos usar para formar intervalos de confiança. Para completar, vamos recriar a série x: agora usamos o comando ar para ajustar um modelo autoregressivo ao nosso processo de AR (1) simulado, usando a estimativa de máxima verossimilhança (MLE) como procedimento de montagem. Em primeiro lugar, extrairemos a melhor ordem obtida: o comando ar determinou com sucesso que nosso modelo de série temporal subjacente é um processo AR (1). Podemos então obter as estimativas dos parâmetros alfai: o procedimento MLE produziu uma estimativa, o chapéu 0.523, que é ligeiramente inferior ao valor verdadeiro de alpha1 0.6. Finalmente, podemos usar o erro padrão (com a variância assintótica) para construir 95 intervalos de confiança em torno do (s) parâmetro (s) subjacente (s). Para conseguir isso, simplesmente criamos um vetor c (-1,96, 1,96) e, em seguida, multiplicamos pelo erro padrão: o parâmetro verdadeiro se enquadra no intervalo de confiança 95, como esperamos do fato de que geramos a realização do modelo especificamente . Que tal se mudarmos o alpha1 -0.6. Como antes, podemos ajustar um modelo de AR (p) usando ar: Mais uma vez, recuperamos a ordem correta do modelo, com uma boa estimativa de chapéu -0.597 de alfa1-0.6. Também vemos que o parâmetro verdadeiro cai novamente no intervalo de confiança 95. Permite adicionar mais complexidade aos nossos processos autorregressivos, simulando um modelo de ordem 2. Em particular, estabelecemos alfa10.666, mas também definimos alpha2 -0.333. Heres o código completo para simular e traçar a realização, bem como o correlograma para tal série: como antes, podemos ver que o correlograma difere significativamente do ruído branco, como esperam. Existem picos estatisticamente significativos em k1, k3 e k4. Mais uma vez, iriam usar o comando ar para ajustar um modelo AR (p) à nossa realização AR (2) subjacente. O procedimento é semelhante ao ajuste AR (1): a ordem correta foi recuperada e as estimativas do parâmetro hat 0.696 e hat -0.395 não estão muito longe dos valores dos parâmetros verdadeiros de alpha10.666 e alpha2-0.333. Observe que recebemos uma mensagem de aviso de convergência. Observe também que R realmente usa a função arima0 para calcular o modelo AR. Além disso, aprender em artigos subseqüentes, os modelos AR (p) são simplesmente modelos ARIMA (p, 0, 0) e, portanto, um modelo AR é um caso especial de ARIMA sem componente de média móvel (MA). Bem, também estar usando o comando arima para criar intervalos de confiança em torno de múltiplos parâmetros, e é por isso que negligenciamos fazê-lo aqui. Agora que nós criamos alguns dados simulados, é hora de aplicar os modelos AR (p) às séries temporais de ativos financeiros. Dados Financeiros Amazon Inc. Comece pela obtenção do preço das ações da Amazon (AMZN) usando o quantmod como no último artigo: A primeira tarefa é sempre traçar o preço para uma breve inspeção visual. Neste caso, bem, use os preços de fechamento diários: você notará que o quantmod adiciona alguma formatação para nós, ou seja, a data e um gráfico um pouco mais bonito do que os gráficos R habituais: agora vamos tomar os retornos logarítmicos da AMZN e depois o primeiro Diferença de ordem da série para converter a série de preços original de uma série não estacionária para uma (potencialmente) estacionária. Isso nos permite comparar maçãs com maçãs entre ações, índices ou qualquer outro recurso, para uso em estatísticas multivariadas posteriores, como no cálculo de uma matriz de covariância. Se você gostaria de uma explicação detalhada sobre o motivo pelo qual os retornos de registro são preferíveis, dê uma olhada neste artigo na Quantividade. Vamos criar uma nova série, amznrt. Para manter nossos retornos de log diferentes: Mais uma vez, podemos traçar a série: nesta etapa, queremos traçar o correlograma. Olhamos para ver se a série diferenciada se parece com ruído branco. Se não existir, então, há uma correlação serial inexplicada, que pode ser explicada por um modelo autorregressivo. Observamos um pico estatisticamente significativo em k2. Portanto, existe uma possibilidade razoável de correlação serial inexplicada. Esteja ciente de que isso pode ser devido ao viés de amostragem. Como tal, podemos tentar ajustar um modelo AR (p) à série e produzir intervalos de confiança para os parâmetros: Ajustar o modelo ar autoregressivo à série de preços de registro diferenciada de primeira ordem produz um modelo AR (2), com chapéu -0.0278 E chapéu -0.0687. Eu também emitido a variância aestotica para que possamos calcular erros padrão para os parâmetros e produzir intervalos de confiança. Queremos ver se zero faz parte do intervalo de confiança 95, como se fosse, reduz a nossa confiança de que temos um verdadeiro processo subjacente AR (2) para a série AMZN. Para calcular os intervalos de confiança no nível 95 para cada parâmetro, usamos os seguintes comandos. Tomamos a raiz quadrada do primeiro elemento da matriz de variância assintótica para produzir um erro padrão, então crie intervalos de confiança, multiplicando-o por -1,96 e 1,96, respectivamente, pelo nível 95: Observe que isso se torna mais direto ao usar a função arima , Mas espere até a Parte 2 antes de apresentá-lo corretamente. Assim, podemos ver que por alfa1 zero está contido dentro do intervalo de confiança, enquanto que para alfa2 zero não está contido no intervalo de confiança. Por isso, devemos ter muito cuidado ao pensar que realmente temos um modelo AR (2) generativo subjacente para AMZN. Em particular, observamos que o modelo autorregressivo não leva em consideração o agrupamento de volatilidade, o que leva ao agrupamento de correlação serial em séries temporais financeiras. Quando consideramos os modelos ARCH e GARCH em artigos posteriores, iremos explicar isso. Quando chegarmos a usar a função arima completa no próximo artigo, faremos previsões da série diária de preços de registro para nos permitir criar sinais de negociação. SampP500 US Equity Index Junto com ações individuais, também podemos considerar o índice US Equity, o SampP500. Permite a aplicação de todos os comandos anteriores a esta série e produzimos as parcelas como antes: podemos traçar os preços: como antes, bem, crie a diferença de primeira ordem dos preços de fechamento de registro: mais uma vez, podemos traçar a série: é claro A partir deste gráfico que a volatilidade não é estacionária no tempo. Isso também se reflete na trama do correlograma. Existem muitos picos, incluindo k1 e k2, que são estatisticamente significativos além de um modelo de ruído branco. Além disso, vemos evidências de processos de memória longa, pois existem alguns picos estatisticamente significativos em k16, k18 e k21: Em última análise, precisaremos de um modelo mais sofisticado do que um modelo de ordem autoregressivo p. No entanto, nesta fase, ainda podemos tentar ajustar esse modelo. Vamos ver o que obtemos se o fizermos: Usando ar produz um modelo AR (22), ou seja, um modelo com 22 parâmetros não-zero O que isso nos diz É indicativo de que há uma complexidade muito maior na correlação serial do que Um modelo linear simples de preços passados ​​pode realmente explicar. No entanto, já sabíamos disso porque podemos ver que existe uma correlação séria em série na volatilidade. Por exemplo, considere o período altamente volátil em torno de 2008. Isso motiva o próximo conjunto de modelos, ou seja, o MA em Movimento (q) e a Média Mover Autoregressiva ARMA (p, q). Bem, saiba mais sobre estes na Parte 2 deste artigo. Como mencionamos repetidamente, estes nos levarão finalmente à família de modelos ARIMA e GARCH, que proporcionará um ajuste muito melhor à complexidade de correlação em série do Samp500. Isso nos permitirá melhorar significativamente nossas previsões e, em última análise, produzir estratégias mais lucrativas. Clique abaixo para aprender mais sobre. A informação contida neste site é a opinião dos autores individuais com base em sua observação pessoal, pesquisa e anos de experiência. A editora e seus autores não são conselheiros de investimento registrados, advogados, CPAs ou outros profissionais de serviços financeiros e não prestam assessoria jurídica, fiscal, contábil, de investimento ou outros serviços profissionais. A informação oferecida por este site é apenas de educação geral. Como cada situação factual de indivíduos é diferente, o leitor deve procurar seu próprio conselheiro pessoal. Nem o autor nem o editor assumem qualquer responsabilidade ou responsabilidade por quaisquer erros ou omissões e não devem ter responsabilidade nem responsabilidade para qualquer pessoa ou entidade em relação a danos causados ​​ou alegadamente causados ​​direta ou indiretamente pelas informações contidas neste site. Use por sua conta e risco. Além disso, este site pode receber compensações financeiras das empresas mencionadas através de publicidade, programas afiliados ou de outra forma. Taxas e ofertas de anunciantes exibidos neste site mudam com freqüência, às vezes sem aviso prévio. Enquanto nos esforçamos para manter informações precisas e oportunas, os detalhes da oferta podem estar desactualizados. Os visitantes devem assim verificar os termos de tais ofertas antes de participar delas. O autor e a editora não se responsabilizam por atualizar informações e negar a responsabilidade pelo conteúdo, produtos e serviços de terceiros, inclusive quando acessados ​​através de hiperlinks ou propagandas neste site.

No comments:

Post a Comment