Friday 7 June 2019

Notas de leitura do processo médio em movimento


Uma breve introdução à série moderna Série Definição Uma série temporal é uma função aleatória x t de um argumento t em um conjunto T. Por outras palavras, uma série temporal é uma família de variáveis ​​aleatórias. X t-1. X t. X t1. Correspondendo a todos os elementos no conjunto T, onde T é suposto ser um conjunto infinito e denumerável. Definição Uma série temporal observada t t e T o T é considerada como parte de uma realização de uma função aleatória x t. Um conjunto infinito de possíveis realizações que poderiam ter sido observadas é chamado de conjunto. Para colocar as coisas de forma mais rigorosa, a série temporal (ou função aleatória) é uma função real x (w, t) das duas variáveis ​​w e t, onde wW e t T. Se nós corrigimos o valor de w. Temos uma função real x (t w) do tempo t, que é uma realização das séries temporais. Se nós corrigimos o valor de t, então temos uma variável aleatória x (w t). Para um dado momento, existe uma distribuição de probabilidade sobre x. Assim, uma função aleatória x (w, t) pode ser considerada como uma família de variáveis ​​aleatórias ou como uma família de realizações. Definição Definimos a função de distribuição da variável aleatória w dada t 0 como P o) x (x). Da mesma forma, podemos definir a distribuição conjunta para n variáveis ​​aleatórias. Os pontos que distinguem a análise de séries temporais das análises estatísticas comuns são os seguintes (1) A dependência entre observações em diferentes pontos cronológicos no tempo desempenha um papel essencial. Em outras palavras, a ordem das observações é importante. Na análise estatística normal, assume-se que as observações são mutuamente independentes. (2) O domínio de t é infinito. (3) Temos que fazer uma inferência a partir de uma realização. A realização da variável aleatória pode ser observada apenas uma vez em cada ponto no tempo. Na análise multivariada, temos muitas observações sobre um número finito de variáveis. Essa diferença crítica exige a assunção de estacionaria. Definição A função aleatória x t é dita ser estritamente estacionária se todas as funções de distribuição dimensional finita que definem x t permanecem iguais mesmo se o grupo inteiro de pontos t 1. T 2. T n é deslocado ao longo do eixo do tempo. Ou seja, se for qualquer número inteiro t 1. T 2. T n e k. Graficamente, pode-se imaginar a realização de uma série estritamente estacionária como tendo não só o mesmo nível em dois intervalos diferentes, mas também a mesma função de distribuição, até os parâmetros que a definem. A assunção de estacionaria torna nossas vidas mais simples e menos onerosas. Sem estacionaridade, teríamos que provar o processo com freqüência em cada ponto do tempo para construir uma caracterização das funções de distribuição na definição anterior. A estacionarização significa que podemos limitar nossa atenção a algumas das funções numéricas mais simples, ou seja, os momentos das distribuições. Os momentos centrais são dados pela Definição (i) O valor médio da série temporal t é, isto é, o momento da primeira ordem. (Ii) A função de autocovariância de t é, isto é, o segundo momento sobre a média. Se ts, você tem a variância de x t. Usaremos para denotar a autocovariância de uma série estacionária, onde k denota a diferença entre t e s. (Iii) A função de autocorrelação (ACF) de t é usará para denotar a autocorrelação de uma série estacionária, onde k denota a diferença entre t e s. (Iv) A autocorrelação parcial (PACF). F kk. É a correlação entre z t e z tk após a remoção de sua dependência linear mútua das variáveis ​​intervenientes z t1. Z t2. Z tk-1. Uma maneira simples de calcular a autocorrelação parcial entre z t e z tk é executar as duas regressões, em seguida, calcular a correlação entre os dois vetores residuais. Ou, depois de medir as variáveis ​​como desvios de seus meios, a autocorrelação parcial pode ser encontrada como o coeficiente de regressão LS em z t no modelo onde o ponto sobre a variável indica que é medido como um desvio de sua média. (V) As equações de Yule-Walker fornecem uma relação importante entre as autocorrelações parciais e as autocorrelações. Multiplique os dois lados da equação 10 por z tk-j e tenha expectativas. Esta operação nos dá a seguinte equação de diferença nas autocovariâncias ou, em termos de autocorrelações. Essa representação aparentemente simples é realmente um resultado poderoso. Ou seja, para j1,2. K podemos escrever o sistema completo de equações, conhecidas como as equações de Yule-Walker, da álgebra linear você sabe que a matriz de r s é de nível completo. Portanto, é possível aplicar a regra de Cramers sucessivamente para k1,2. Para resolver o sistema para as autocorrelações parciais. Os três primeiros são. Temos três resultados importantes em séries estritamente estacionárias. A implicação é que podemos usar qualquer realização finita da seqüência para estimar a média. Segundo. Se t é estritamente estacionário e E t 2 lt, então a implicação é que a autocovariância depende apenas da diferença entre t e s, e não o seu ponto cronológico no tempo. Poderíamos usar qualquer par de intervalos na computação da autocovariância, desde que o tempo entre eles fosse constante. E podemos usar qualquer realização finita dos dados para estimar as autocovariâncias. Em terceiro lugar, a função de autocorrelação no caso da estacionança rígida é dada pela implicação é que a autocorrelação depende apenas da diferença entre t e s, e novamente eles podem ser estimados por qualquer realização finita dos dados. Se nosso objetivo é estimar parâmetros que sejam descritivos das realizações possíveis das séries temporais, então talvez a estacionalização estrita seja muito restritiva. Por exemplo, se a média e as covariâncias de x t são constantes e independentes do ponto cronológico no tempo, talvez não seja importante para nós que a função de distribuição seja a mesma para diferentes intervalos de tempo. Definição Uma função aleatória é estacionária no sentido amplo (ou fracamente estacionário, ou estacionário no sentido de Khinchins, ou covariância estacionária) se m 1 (t) m e m 11 (t, s). A estacionária estrita não implica, por si só, uma estabilidade fraca. A estabilidade fraca não implica uma estacionança rigorosa. A estacionaria estrita com E t 2 lt implica baixa estacionança. Os teoremas ergódicos estão preocupados com a questão das condições necessárias e suficientes para fazer inferências a partir de uma única realização de uma série de tempo. Basicamente, ele se resume a assumir uma estacionança fraca. Teorema Se t é fracamente estacionário com a função média m e covariância, então, isto é, para qualquer dado e gt 0 e h gt 0 existe algum número T o tal que para todo T gt T o. Se e somente se esta condição necessária e suficiente é que as autocovariâncias morrem, caso em que a média da amostra é um estimador consistente para a média da população. Corolário Se t é fracamente estacionário com E tk xt 2 lt para qualquer t, e E tk xtx tsk x ts é independente de t para qualquer número inteiro s, então se e somente se onde A conseqüência do corolário é a suposição de que xtx tk é Fracamente estacionário. O teorema ergódico não é mais do que uma lei de grandes números quando as observações estão correlacionadas. Pode-se perguntar sobre este ponto sobre as implicações práticas da estacionararia. A aplicação mais comum do uso de técnicas de séries temporais é a modelagem de dados macroeconômicos, tanto teóricos como ateteorísticos. Como exemplo do primeiro, pode-se ter um modelo de acelerador multiplicador. Para que o modelo seja estacionário, os parâmetros devem ter certos valores. Um teste do modelo é então coletar os dados relevantes e estimar os parâmetros. Se as estimativas não são consistentes com a estacionaridade, então é preciso repensar o modelo teórico ou o modelo estatístico, ou ambos. Agora temos máquinas suficientes para começar a falar sobre a modelagem dos dados das séries temporais univariadas. Há quatro etapas no processo. 1. Construindo modelos de conhecimento teórico e experiencial 2. Modelos de identificação baseados nos dados (séries observadas) 3. Ajustando os modelos (estimando os parâmetros do (s) modelo (s)) 4. verificando o modelo Se na quarta etapa não estamos Satisfeito, voltamos para o primeiro passo. O processo é iterativo até verificação e ressincronização adicionais não produzem melhorias nos resultados. Diagrammaticamente Definição Algumas operações simples incluem o seguinte: O operador de retrocesso Bx tx t-1 O operador de frente Fx tx t1 O operador de diferença 1 - B xtxt - x t-1 O operador de diferença se comporta de forma consistente com a constante em uma série infinita . Ou seja, o inverso é o limite de uma soma infinita. Nomeadamente, -1 (1-B) -1 1 (1-B) 1BB 2. O operador de integração S -1 Uma vez que é o inverso do operador de diferença, o operador de integração serve para construir a soma. MODELO DE CONSTRUÇÃO Nesta seção, oferecemos uma breve revisão dos modelos mais comuns de séries temporais. Com base no conhecimento do processo gerador de dados, escolhe uma classe de modelos para identificação e estimativa das possibilidades que se seguem. Definição Suponha que Ex t m seja independente de t. Um modelo como, com as características, é chamado de modelo autorregressivo de ordem p, AR (p). Definição Se uma variável dependente do tempo (processo estocástico) t satisfaça, então t é dito para satisfazer a propriedade Markov. No LHS, a expectativa é condicionada à história infinita de x t. No RHS está condicionado apenas em parte da história. A partir das definições, um modelo de AR (p) é visto para satisfazer a propriedade de Markov. Usando o operador de mudança de turno, podemos escrever nosso modelo AR como Teorema Uma condição necessária e suficiente para que o modelo AR (p) seja estacionário é que todas as raízes do polinômio se encontram fora do círculo da unidade. Exemplo 1 Considere o AR (1) A única raiz de 1 - f 1 B 0 é B 1 f 1. A condição para a estacionaria exige isso. Se, então, a série observada parecerá muito frenética. Por exemplo. Considere em que o termo de ruído branco tenha uma distribuição normal com uma média zero e uma variância de uma. As observações mudam de sinal com quase todas as observações. Se, por outro lado, a série observada será muito mais suave. Nesta série, uma observação tende a estar acima de 0 se o antecessor estiver acima de zero. A variância de e t é s e 2 para todos os t. A variância de x t. Quando é zero, é dado porque a série é estacionária, podemos escrever. Assim, a função de autocovariância de uma série AR (1) é, supondo sem perda de generalidade m 0 Para ver o que isso parece em termos dos parâmetros AR, usaremos o fato de que podemos escrever xt da seguinte forma. Multiplicar por x Tk e tendo expectativas Note que as autocovarianças morrem como k cresce. A função de autocorrelação é a autocovariância dividida pela variância do termo de ruído branco. Ou,. Usando as fórmulas anteriores de Yule-Walker para as autocorrelações parciais que temos Para um AR (1), as autocorrelações desaparecem exponencialmente e as autocorrelações parciais exibem uma espiga em um retardo e são zero a partir de então. Exemplo 2 Considere o AR (2) O polinômio associado no operador de atraso é que as raízes podem ser encontradas usando a fórmula quadrática. As raízes são Quando as raízes são reais e, como conseqüência, a série diminuirá exponencialmente em resposta a um choque. Quando as raízes são complexas e a série aparecerá como uma onda de sinal amortecida. O teorema de estacionaridade impõe as seguintes condições nos coeficientes AR A autocovariância para um processo AR (2), com média zero, é Dividindo através da variância de xt, dá a função de autocorrelação Uma vez que podemos escrever de forma semelhante para a segunda e terceira autocorrelação O outro As autocorrelações são resolvidas de forma recursiva. Seu padrão é regido pelas raízes da segunda ordem, diferença de diferença linear. Se as raízes são reais, as autocorrelações diminuirão exponencialmente. Quando as raízes são complexas, as autocorrelações aparecerão como uma onda senoidal amortecida. Usando as equações de Yule-Walker, as autocorrelações parciais são Novamente, as autocorrelações desaparecem lentamente. A autocorrelação parcial, por outro lado, é bastante distinta. Tem pontos em um e dois atrasos e é zero depois disso. Teorema Se x t é um processo AR (p) estacionário, ele pode ser gravado de forma equivalente como um modelo de filtro linear. Ou seja, o polinômio no operador de backshift pode ser invertido e o AR (p) escrito como uma média móvel de ordem infinita. Exemplo Suponha que z t seja um processo AR (1) com média zero. O que é verdadeiro para o período atual também deve ser verdade para períodos anteriores. Assim, por substituição recursiva, podemos escrever Praça dos dois lados e ter expectativas de que o lado direito desaparece como k desde f lt 1. Portanto, a soma converge para z t em média quadrática. Podemos reescrever o modelo AR (p) como um filtro linear que sabemos estar parado. A função de autocorrelação e autocorrelação parcial Geralmente Suponha que uma série estacionária z t com zero médio seja reconhecida como autoregressiva. A função de autocorrelação de um AR (p) é encontrada ao assumir expectativas e dividir através da variância de z t. Isso nos diz que r k é uma combinação linear das autocorrelações anteriores. Podemos usar isso na aplicação da regra de Cramers para (i) na resolução de f kk. Em particular, podemos ver que essa dependência linear causará f kk 0 para k gt p. Esta característica distintiva das séries autorregressivas será muito útil quando se trata de identificação de uma série desconhecida. Se você tem o MathCAD ou o MathCAD Explorer, então você pode experimentar interatividade com algumas das idéias AR (p) apresentadas aqui. Modelos médios em movimento Considere um modelo dinâmico no qual a série de interesse depende apenas de alguma parte da história do termo ruído branco. Diagramaticamente isso pode ser representado como Definição Suponha que a t seja uma sequência não correlacionada de i. i.d. Variáveis ​​aleatórias com média zero e variância finita. Em seguida, um processo de ordem média móvel q, MA (q) é dado pelo teorema: um processo de média móvel é sempre estacionário. Prova: ao invés de começar com uma prova geral, faremos isso para um caso específico. Suponha que z t seja MA (1). Então . Claro, um t tem média zero e variância finita. A média de z t é sempre zero. As autocovariâncias serão dadas por Você pode ver que a média da variável aleatória não depende do tempo de qualquer maneira. Você também pode ver que a autocovariância depende apenas do deslocamento s, não de onde na série começamos. Podemos provar o mesmo resultado de forma mais geral começando com, que tem a representação média móvel alternativa. Considere primeiro a variância de z t. Por substituição recursiva, você pode mostrar que isso é igual à Soma que sabemos ser uma série convergente, então a variância é finita e é independente do tempo. As covariâncias são, por exemplo, você também pode ver que as covariâncias automáticas dependem apenas dos pontos relativos no tempo e não do ponto cronológico no tempo. Nossa conclusão de tudo isso é que um processo MA () é estacionário. Para o processo geral de MA (q), a função de autocorrelação é dada por A função de autocorrelação parcial irá desaparecer suavemente. Você pode ver isso invando o processo para obter um processo AR (). Se você tem MathCAD ou MathCAD Explorer, então você pode experimentar interativamente com algumas das idéias de MA (q) apresentadas aqui. Autoregressivo Misto - Definição de Modelos Média em Movimento Suponha que um t seja uma sequência não correlacionada de i. i.d. Variáveis ​​aleatórias com média zero e variância finita. Em seguida, um processo de ordem vertical auto-regressivo (p, q), ARMA (p, q) é dado pelas raízes do operador autorregente devem estar todos fora do círculo da unidade. O número de incógnitas é pq2. Os p e q são óbvios. O 2 inclui o nível do processo, m. E a variância do termo de ruído branco, sa 2. Suponha que combinamos nossas representações AR e MA para que o modelo seja e os coeficientes sejam normalizados de modo que bo 1. Então essa representação é chamada ARMA (p, q) se a Raízes de (1) todos ficam fora do círculo da unidade. Suponha que o y t seja medido como desvio da média, então podemos soltar um o. Então a função de autocovariância é derivada de se jgtq, então, os termos MA abandonam a expectativa de dar. Ou seja, a função de autocovariância parece uma AR típica para atrasos após q eles morrem suavemente após q, mas não podemos dizer como 1,2,133, Q vai olhar. Também podemos examinar o PACF para esta classe de modelo. O modelo pode ser escrito como podemos escrever isso como um processo de MA (inf) que sugere que os PACFs desaparecem lentamente. Com alguma aritmética, podemos mostrar que isso acontece somente após os primeiros p picos contribuídos pela parte AR. Lei empírica Na realidade, uma série de tempo estacionária pode ser representada por p 2 e q 2. Se o seu negócio é fornecer uma boa aproximação à realidade e a bondade de ajuste é seu critério, então um modelo pródigo é preferido. Se o seu interesse é a eficiência preditiva, o modelo parcimonioso é preferido. Experimente com as idéias ARMA apresentadas acima com uma planilha de MathCAD. Integração Autoregressiva Modelos de média em movimento Filtro MA Filtro AR Integre o filtro Às vezes, o processo, ou série, que estamos tentando modelar não é estacionário em níveis. Mas pode ser estacionário em, digamos, as primeiras diferenças. Ou seja, na sua forma original, as autocovariâncias para a série podem não ser independentes do ponto cronológico no tempo. No entanto, se construímos uma nova série, que é a primeira diferença da série original, esta nova série satisfaz a definição de estacionaria. Este é frequentemente o caso com dados econômicos que são altamente atualizados. Definição Suponha que z t não seja estacionário, mas z t - z t-1 satisfaz a definição de estacionaria. Além disso, em, o termo de ruído branco tem média e variância finitas. Podemos escrever o modelo como Este é chamado de modelo ARIMA (p, d, q). P identifica a ordem do operador AR, d identifica a energia. Q identifica a ordem do operador de MA. Se as raízes de f (B) ficam fora do círculo da unidade, podemos reescrever o ARIMA (p, d, q) como um filtro linear. Isto é, Pode ser escrito como MA (). Nós reservamos a discussão da detecção de raízes da unidade para outra parte das notas da aula. Considere um sistema dinâmico com x t como uma série de entrada e y t como uma série de saída. Diagrammaticamente temos Estes modelos são uma analogia discreta de equações diferenciais lineares. Suponhamos a seguinte relação onde b indica um atraso puro. Lembre-se de que (1-B). Fazendo essa substituição, o modelo pode ser escrito Se o coeficiente de polinômio em y t pode ser invertido, então o modelo pode ser escrito como V (B) é conhecida como função de resposta ao impulso. Vamos encontrar essa terminologia novamente em nossa discussão posterior de vetores autorregressivos. Modelos de cointegração e correção de erros. IDENTIFICAÇÃO DO MODELO Tendo decidido uma classe de modelos, é preciso agora identificar a ordem dos processos que geram os dados. Ou seja, é preciso fazer as melhores suposições quanto à ordem dos processos AR e MA que conduzem as séries estacionárias. Uma série estacionária é completamente caracterizada por suas significativas e autocovariâncias. Por razões analíticas, geralmente trabalhamos com as autocorrelações e autocorrelações parciais. Essas duas ferramentas básicas possuem padrões únicos para processos de AR e MA estacionários. Pode-se calcular as estimativas de amostra das funções de autocorrelação e autocorrelação parcial e compará-las com os resultados tabulados para modelos padrão. Função de Autocovariância de Amostra Função de Autocorrelação de Amostra As autocorrelações parciais de amostra serão Usando as autocorrelações e as autocorrelações parciais são bastante simples em princípio. Suponhamos que tenhamos uma série z t. Com zero, o que é AR (1). Se corremos a regressão de z t2 em z t1 e z t, esperamos encontrar que o coeficiente em z t não era diferente de zero, pois essa autocorrelação parcial deveria ser zero. Por outro lado, as autocorrelações para esta série devem diminuir exponencialmente para aumentar os atrasos (veja o exemplo AR (1) acima). Suponha que a série seja realmente uma média móvel. A autocorrelação deve ser zero em todos os lugares, mas no primeiro atraso. A autocorrelação parcial deve desaparecer exponencialmente. Mesmo a partir do nosso rompimento muito superficial através do básico da análise de séries temporais, é evidente que existe uma dualidade entre os processos AR e MA. Esta dualidade pode ser resumida na tabela a seguir. Introdução a ARIMA: modelos não-sazonais. Equação de previsão ARIMA (p, d, q): os modelos ARIMA são, em teoria, a classe mais geral de modelos para a previsão de uma série temporal que pode ser feita para Seja 8220stationary8221 por diferenciação (se necessário), talvez em conjunção com transformações não-lineares, como registro ou desinflação (se necessário). Uma variável aleatória que é uma série temporal é estacionária se suas propriedades estatísticas são todas constantes ao longo do tempo. Uma série estacionária não tem tendência, suas variações em torno de sua média têm uma amplitude constante, e ela muda de forma consistente. Ou seja, seus padrões de tempo aleatório de curto prazo sempre parecem os mesmos em um sentido estatístico. A última condição significa que suas autocorrelações (correlações com seus próprios desvios anteriores da média) permanecem constantes ao longo do tempo, ou de forma equivalente, que seu espectro de potência permanece constante ao longo do tempo. Uma variável aleatória deste formulário pode ser vista (como de costume) como uma combinação de sinal e ruído, e o sinal (se um é aparente) pode ser um padrão de reversão média rápida ou lenta, ou oscilação sinusoidal, ou alternância rápida no signo , E também poderia ter um componente sazonal. Um modelo ARIMA pode ser visto como um 8220filter8221 que tenta separar o sinal do ruído, e o sinal é então extrapolado para o futuro para obter previsões. A equação de previsão de ARIMA para uma série de tempo estacionária é uma equação linear (isto é, regressão) em que os preditores consistem em atrasos da variável dependente ou atrasos dos erros de previsão. Isto é: valor previsto de Y uma constante ou uma soma ponderada de um ou mais valores recentes de Y e uma soma ponderada de um ou mais valores recentes dos erros. Se os preditores consistem apenas em valores atrasados ​​de Y. é um modelo autoregressivo puro (8220 self-regressed8221), que é apenas um caso especial de um modelo de regressão e que pode ser equipado com o software de regressão padrão. Por exemplo, um modelo autoregressivo de primeira ordem (8220AR (1) 8221) para Y é um modelo de regressão simples no qual a variável independente é apenas Y rezagada em um período (LAG (Y, 1) em Statgraphics ou YLAG1 em RegressIt). Se alguns dos preditores são atrasos dos erros, um modelo ARIMA não é um modelo de regressão linear, porque não existe nenhuma maneira de especificar o erro 8222 do último período8217s como uma variável independente: os erros devem ser computados numa base de período a período Quando o modelo é ajustado aos dados. Do ponto de vista técnico, o problema com o uso de erros atrasados ​​como preditores é que as previsões do modelo8217s não são funções lineares dos coeficientes. Mesmo que sejam funções lineares dos dados passados. Assim, os coeficientes nos modelos ARIMA que incluem erros atrasados ​​devem ser estimados por métodos de otimização não-linear (8220hill-climbing8221) em vez de apenas resolver um sistema de equações. O acrônimo ARIMA significa Auto-Regressive Integrated Moving Average. Lags da série estacionada na equação de previsão são chamados quota de termos degressivos, os atrasos dos erros de previsão são chamados de termos de média de quotmoving, e uma série de tempo que precisa ser diferenciada para ser estacionada é dito ser uma versão quotintegratedquot de uma série estacionária. Modelos aleatórios e de tendência aleatória, modelos autoregressivos e modelos de suavização exponencial são todos os casos especiais de modelos ARIMA. Um modelo ARIMA não-sazonal é classificado como quotARIMA (p, d, q) quot model, onde: p é o número de termos autorregressivos, d é o número de diferenças não-sazonais necessárias para a estacionaridade e q é o número de erros de previsão atrasados ​​em A equação de predição. A equação de previsão é construída da seguinte forma. Primeiro, digamos a d ª diferença de Y. o que significa: Observe que a segunda diferença de Y (o caso d2) não é a diferença de 2 períodos atrás. Em vez disso, é a primeira diferença da primeira diferença. Que é o análogo discreto de uma segunda derivada, isto é, a aceleração local da série em vez da sua tendência local. Em termos de y. A equação geral de previsão é: Aqui, os parâmetros de média móvel (9528217s) são definidos de modo que seus sinais são negativos na equação, seguindo a convenção introduzida pela Box e Jenkins. Alguns autores e software (incluindo a linguagem de programação R) os definem de modo que eles tenham sinais de mais. Quando os números reais estão conectados à equação, não há ambigüidade, mas é importante saber qual a convenção que seu software usa quando você está lendo a saída. Muitas vezes, os parâmetros são indicados por AR (1), AR (2), 8230 e MA (1), MA (2), 8230 etc. Para identificar o modelo ARIMA apropriado para Y. você começa por determinar a ordem de diferenciação (D) a necessidade de estacionar a série e remover as características brutas da sazonalidade, talvez em conjunto com uma transformação estabilizadora de variância, como registro ou desinflação. Se você parar neste ponto e prever que a série diferenciada é constante, você ajustou apenas uma caminhada aleatória ou modelo de tendência aleatória. No entanto, a série estacionada ainda pode ter erros autocorrelacionados, sugerindo que alguns números de AR (p 8805 1) e outros termos do número MA (q 8805 1) também são necessários na equação de previsão. O processo de determinação dos valores de p, d e q que são melhores para uma determinada série temporal será discutido em seções posteriores das notas (cujos links estão no topo desta página), mas uma prévia de alguns tipos Dos modelos ARIMA não-sazonais que são comumente encontrados são dados abaixo. Modelo autoregressivo de primeira ordem ARIMA (1,0,0): se a série estiver estacionada e autocorrelada, talvez possa ser predita como um múltiplo de seu próprio valor anterior, além de uma constante. A equação de previsão neste caso é 8230, que é regredida por si mesma atrasada por um período. Este é um modelo 8220ARIMA (1,0,0) constante8221. Se a média de Y for zero, então o termo constante não seria incluído. Se o coeficiente de inclinação 981 1 for positivo e menor que 1 em magnitude (deve ser inferior a 1 em magnitude se Y estiver estacionário), o modelo descreve o comportamento de reversão média em que o valor do período 8217 seguinte deve ser previsto 981 1 vez como Muito longe da média, já que este valor do período 8217s. Se 981 1 é negativo, ele prevê comportamento de reversão média com alternância de sinais, ou seja, ele também prevê que Y estará abaixo do período médio seguinte se estiver acima da média deste período. Em um modelo autoregressivo de segunda ordem (ARIMA (2,0,0)), haveria um termo Y t-2 também à direita e assim por diante. Dependendo dos sinais e das magnitudes dos coeficientes, um modelo ARIMA (2,0,0) pode descrever um sistema cuja reversão média ocorre de forma sinusoidalmente oscilante, como o movimento de uma massa em uma mola sujeita a choques aleatórios . ARIMA (0,1,0) caminhada aleatória: se a série Y não é estacionária, o modelo mais simples possível para isso é um modelo de caminhada aleatória, que pode ser considerado como um caso limitante de um modelo AR (1) no qual o autorregressivo O coeficiente é igual a 1, ou seja, uma série com reversão média infinitamente lenta. A equação de predição para este modelo pode ser escrita como: onde o termo constante é a mudança média de período para período (ou seja, a derivação de longo prazo) em Y. Esse modelo poderia ser ajustado como um modelo de regressão sem intercepção em que o A primeira diferença de Y é a variável dependente. Uma vez que inclui (apenas) uma diferença não-sazonal e um termo constante, esta é classificada como um modelo quotARIMA (0,1,0) com constante. O modelo aleatório-sem-atrasado seria um ARIMA (0,1, 0) modelo sem constante ARIMA (1,1,0) modelo autoregressivo de primeira ordem diferenciado: se os erros de um modelo de caminhada aleatória forem autocorrelacionados, talvez o problema possa ser corrigido adicionando um atraso da variável dependente à equação de predição - - é Ao regredir a primeira diferença de Y em si mesma atrasada por um período. Isso produziria a seguinte equação de predição: que pode ser rearranjada para Este é um modelo autoregressivo de primeira ordem com uma ordem de diferenciação não-sazonal e um termo constante - ou seja. Um modelo ARIMA (1,1,0). ARIMA (0,1,1) sem alisamento exponencial constante e simples: outra estratégia para corrigir erros autocorrelacionados em um modelo de caminhada aleatória é sugerida pelo modelo de suavização exponencial simples. Lembre-se de que, para algumas séries temporais não estacionárias (por exemplo, as que exibem flutuações ruidosas em torno de uma média variando lentamente), o modelo de caminhada aleatória não funciona, bem como uma média móvel de valores passados. Em outras palavras, ao invés de tomar a observação mais recente como a previsão da próxima observação, é melhor usar uma média das últimas observações para filtrar o ruído e estimar com maior precisão a média local. O modelo de suavização exponencial simples usa uma média móvel ponderada exponencialmente de valores passados ​​para alcançar esse efeito. A equação de predição para o modelo de suavização exponencial simples pode ser escrita em várias formas matematicamente equivalentes. Um dos quais é o chamado formulário 8220error correction8221, em que a previsão anterior é ajustada na direção do erro que ele fez: porque e t-1 Y t-1 - 374 t-1 por definição, isso pode ser reescrito como : Que é uma equação de previsão ARIMA (0,1,1) sem constante com 952 1 1 - 945. Isso significa que você pode ajustar um alisamento exponencial simples especificando-o como um modelo ARIMA (0,1,1) sem Constante e o coeficiente estimado MA (1) corresponde a 1-menos-alfa na fórmula SES. Lembre-se que, no modelo SES, a idade média dos dados nas previsões de 1 período anterior é de 1 945. O que significa que tenderão a atrasar tendências ou pontos de viragem em cerca de 1 945 períodos. Segue-se que a idade média dos dados nas previsões de 1 período de um ARIMA (0,1,1) - sem modelo constante é 1 (1 - 952 1). Assim, por exemplo, se 952 1 0,8, a idade média é 5. Como 952 1 aborda 1, o ARIMA (0,1,1) - sem modelo constante torna-se uma média móvel de muito longo prazo, e como 952 1 Aproxima-se de 0, torna-se um modelo de caminhada aleatória sem drift. What8217s é a melhor maneira de corrigir a autocorrelação: adicionar termos AR ou adicionar termos MA. Nos dois modelos anteriores discutidos acima, o problema dos erros auto-correlacionados em um modelo de caminhada aleatória foi consertado de duas maneiras diferentes: adicionando um valor atrasado da série diferenciada Para a equação ou adicionando um valor atrasado do erro de previsão. Qual abordagem é melhor Uma regra de ouro para esta situação, que será discutida com mais detalhes mais adiante, é que a autocorrelação positiva geralmente é melhor tratada adicionando um termo AR ao modelo e a autocorrelação negativa geralmente é melhor tratada adicionando um Termo MA. Nas séries temporais econômicas e econômicas, a autocorrelação negativa surge frequentemente como um artefato da diferenciação. (Em geral, a diferenciação reduz a autocorrelação positiva e pode até causar uma mudança de autocorrelação positiva para negativa). Assim, o modelo ARIMA (0,1,1), em que a diferenciação é acompanhada por um termo MA, é mais freqüentemente usado do que um Modelo ARIMA (1,1,0). ARIMA (0,1,1) com alisamento exponencial constante e constante: ao implementar o modelo SES como modelo ARIMA, você realmente ganha alguma flexibilidade. Em primeiro lugar, o coeficiente estimado de MA (1) pode ser negativo. Isso corresponde a um fator de alisamento maior que 1 em um modelo SES, que normalmente não é permitido pelo procedimento de montagem do modelo SES. Em segundo lugar, você tem a opção de incluir um termo constante no modelo ARIMA, se desejar, para estimar uma tendência média não-zero. O modelo ARIMA (0,1,1) com constante tem a equação de previsão: as previsões de um período anteriores deste modelo são qualitativamente similares às do modelo SES, exceto que a trajetória das previsões de longo prazo é tipicamente uma Linha inclinada (cuja inclinação é igual a mu) em vez de uma linha horizontal. ARIMA (0,2,1) ou (0,2,2) sem alisamento exponencial linear constante: modelos de alisamento exponencial linear são modelos ARIMA que utilizam duas diferenças não-sazonais em conjunto com os termos MA. A segunda diferença de uma série Y não é simplesmente a diferença entre Y e ela mesma atrasada por dois períodos, mas é a primeira diferença da primeira diferença - isto é. A mudança de mudança de Y no período t. Assim, a segunda diferença de Y no período t é igual a (Y t-Y t-1) - (Y t-1 - Y t-2) Y t - 2Y t-1 Y t-2. Uma segunda diferença de uma função discreta é análoga a uma segunda derivada de uma função contínua: mede a quotaccelerationquot ou quotcurvaturequot na função em um determinado ponto no tempo. O modelo ARIMA (0,2,2) sem constante prediz que a segunda diferença da série é igual a uma função linear dos dois últimos erros de previsão: o que pode ser rearranjado como: onde 952 1 e 952 2 são o MA (1) e MA (2) coeficientes. Este é um modelo de suavização exponencial linear geral. Essencialmente o mesmo que o modelo Holt8217s, e o modelo Brown8217s é um caso especial. Ele usa médias móveis exponencialmente ponderadas para estimar um nível local e uma tendência local na série. As previsões de longo prazo deste modelo convergem para uma linha reta cuja inclinação depende da tendência média observada no final da série. ARIMA (1,1,2) sem alisamento exponencial linear constante de tendência amortecida. Este modelo está ilustrado nos slides que acompanham os modelos ARIMA. Ele extrapola a tendência local no final da série, mas acha-se em horizontes de previsão mais longos para introduzir uma nota de conservadorismo, uma prática que tem suporte empírico. Veja o artigo em quotPor que a Tendência Damped funciona por Gardner e McKenzie e o artigo do quotGolden Rulequot de Armstrong et al. para detalhes. Em geral, é aconselhável manter os modelos em que pelo menos um de p e q não é maior que 1, ou seja, não tente se ajustar a um modelo como o ARIMA (2,1,2), pois isso provavelmente levará à superposição E quotcommon-factorquot questões que são discutidas em mais detalhes nas notas sobre a estrutura matemática dos modelos ARIMA. Implementação da planilha: os modelos ARIMA, como os descritos acima, são fáceis de implementar em uma planilha eletrônica. A equação de predição é simplesmente uma equação linear que se refere a valores passados ​​de séries temporais originais e valores passados ​​dos erros. Assim, você pode configurar uma planilha de previsão ARIMA armazenando os dados na coluna A, a fórmula de previsão na coluna B e os erros (dados menos previsões) na coluna C. A fórmula de previsão em uma célula típica na coluna B seria simplesmente Uma expressão linear que se refere a valores em linhas precedentes das colunas A e C, multiplicadas pelos coeficientes apropriados de AR ou MA armazenados em células em outra parte na planilha. Processos médios avançados Como com o (smash): begin begin text Yt amp text mu varepsilont theta1 Varepsilon ldots thetaq varepsilon amp mu texto varepsilont theta1 texto varepsilon ldots thetaq text varepsilon amp mu. Fim final (smash) Autocovariâncias começam begin gammaj amplificador texto deixado (Yt-mu) (Y - mu) texto direito do amplificador grande (varepsilont theta1varepsilon ldots thetaq varepsilon) amp hspace times (varepsilon theta1varepsilon ldots thetaq varepsilon) big. Fim final para (smash). Os termos quadrados resultam em expectativas diferentes de zero, enquanto os produtos cruzados levam a zero expectativas: smash varepsilon2t theta21 texto varepsilon2 ldots theta2q texto varepsilon2 esquerda (1 soma q theta2jright) sigma2. (Smash) Autocovariances begin begin gammaj amp thetajtext varepsilon2 theta theta1 texto varepsilon2 amp hspace theta theta2 texto varepsilon2 ldots theta theta texto varepsilon2 amp (thetaj theta theta theta theta2 ldots thetaqtheta) sigma2. Fim final As autocovariâncias podem ser declaradas de forma concisa à medida que começam a começar o início do amplificador gammaj (thetajtheta0 theta theta1 theta theta2 ldots thetaqtheta) sigma2 amp texto j 0, 1, ldots, q 0 amp. Texto j gt q. Fim final (smash) Autocorrelações

No comments:

Post a Comment