Flytte Gjennomsnittet Prosess Forelesningsnotater


En kort introduksjon til moderne tidsseriedefinisjon En tidsserie er en tilfeldig funksjon x t av et argument t i et sett T. Med andre ord er en tidsserie en familie av tilfeldige variabler. x t-1. x t. x t1. som tilsvarer alle elementene i settet T, hvor T skal være et tallbart, uendelig sett. Definisjon En observert tidsserie t t e T o T regnes som en del av en realisering av en tilfeldig funksjon x t. Et uendelig sett med mulige realiseringer som kunne ha blitt observert kalles et ensemble. For å si ting strengere er tidsserien (eller tilfeldig funksjon) en reell funksjon x (w, t) av de to variablene w og t, hvor wW og t T. Hvis vi fastsetter verdien av w. vi har en reell funksjon x (t w) av tiden t, som er en realisering av tidsseriene. Hvis vi fikser verdien av t, har vi en tilfeldig variabel x (w t). For et gitt tidspunkt er det en sannsynlighetsfordeling over x. Dermed kan en tilfeldig funksjon x (w, t) betraktes som enten en familie av tilfeldige variabler eller som en familie av realisasjoner. Definisjon Vi definerer distribusjonsfunksjonen til den tilfeldige variabelen w gitt t 0 som P o) x (x). På samme måte kan vi definere fellesfordelingen for n tilfeldige variabler. Poengene som skiller tidsserieanalyse fra vanlige statistiske analyser er følgende. (1) Avhengigheten av observasjoner på forskjellige kronologiske tidspunkter spiller en viktig rolle. Med andre ord er rekkefølgen av observasjoner viktig. I vanlig statistisk analyse antas det at observasjonene er gjensidig uavhengige. (2) Domenet til t er uendelig. (3) Vi må gjøre en innledning fra en realisering. Realiseringen av den tilfeldige variabelen kan bare observeres en gang på hvert tidspunkt. I multivariat analyse har vi mange observasjoner på et begrenset antall variabler. Denne kritiske forskjellen krever antagelsen om stationaritet. Definisjon Den tilfeldige funksjonen x t sies å være strengt stasjonær dersom alle de endelige dimensjonsfordelingsfunksjonene som definerer x t forblir de samme selv om hele gruppen av poeng t 1. t 2. t n forskyves langs tidsaksen. Det er, hvis for noen heltall t 1. t 2. t n og k. Grafisk kan man forestille realiseringen av en strengt stasjonær serie som å ha ikke bare det samme nivået i to forskjellige intervaller, men også den samme fordelingsfunksjonen, helt ned til parametrene som definerer den. Forutsetningen om stasjonar gjør våre liv enklere og mindre kostbare. Uten stasjonæritet måtte vi prøve prosessen ofte på hvert tidspunkt for å bygge opp en karakterisering av distribusjonsfunksjonene i den tidligere definisjonen. Stasjonar betyr at vi kan begrense vår oppmerksomhet til noen av de enkleste numeriske funksjonene, det vil si fordelingens øyeblikk. De sentrale øyeblikkene er gitt ved Definisjon (i) Middelverdien av tidsserien t er det første ordens øyeblikk. (ii) Autokovariansfunksjonen av t er det andre øyeblikket om middelverdien. Hvis ts har du variansen av x t. Vi vil bruke til å betegne autokovariansen til en stasjonær serie, hvor k betegner forskjellen mellom t og s. (iii) Autokorrelasjonsfunksjonen (ACF) av t er Vi vil bruke til å betegne autokorrelasjonen til en stasjonær serie, hvor k angir forskjellen mellom t og s. (iv) Den delvise autokorrelasjonen (PACF). f kk. er sammenhengen mellom z t og z tk etter at de har fjernet sin gjensidige lineære avhengighet av de mellomliggende variablene z t1. z t2. z tk-1. En enkel måte å beregne den delvise autokorrelasjonen mellom z t og z tk er å kjøre de to regresjonene og deretter beregne korrelasjonen mellom de to restvektorer. Eller, etter å måle variablene som avvik fra deres middel, kan den delvise autokorrelasjonen bli funnet som LS-regresjonskoeffisienten på z t i modellen der punktet over variabelen indikerer at det måles som en avvik fra dens gjennomsnitt. (v) Yule-Walker-ligningene gir et viktig forhold mellom de delvise autokorrelasjonene og autokorrelasjonene. Multipliser begge sider av ligning 10 ved z tk-j og ta forventninger. Denne operasjonen gir oss følgende forskjellsligning i autocovariances eller, når det gjelder autokorrelasjoner Denne tilsynelatende enkle representasjonen er virkelig et kraftig resultat. Nemlig, for j1,2. k kan vi skrive hele systemet av ligninger, kjent som Yule-Walker-ligningene. Fra lineær algebra vet du at matrisen av r s er fullstendig rangert. Derfor er det mulig å anvende Cramers regel suksessivt for k1,2. å løse systemet for de delvise autokorrelasjonene. De tre første er Vi har tre viktige resultater på strengt stasjonære serier. Implikasjonen er at vi kan bruke en hvilken som helst endelig realisering av sekvensen til å estimere gjennomsnittet. Sekund . hvis t er strengt stasjonær og E t 2 lt da Implikasjonen er at autokovariansen bare avhenger av forskjellen mellom t og s, ikke deres kronologiske punkt i tid. Vi kunne bruke noen par intervaller i beregningen av autokovariansen så lenge tiden mellom dem var konstant. Og vi kan bruke en hvilken som helst begrenset realisering av dataene til å estimere autocovariances. For det tredje er autokorrelasjonsfunksjonen i tilfelle strenge stasjonar gitt av Implikasjonen er at autokorrelasjonen bare avhenger av forskjellen mellom t og s, og igjen kan de estimeres ved en endelig realisering av dataene. Hvis målet vårt er å estimere parametere som er beskrivende av de mulige realisasjonene av tidsserien, er kanskje streng stasjonærhet for begrensende. For eksempel, hvis gjennomsnitt og covariances av x t er konstant og uavhengig av kronologisk punkt i tid, er det kanskje ikke viktig for oss at fordelingsfunksjonen er den samme for ulike tidsintervaller. Definisjon En tilfeldig funksjon er stasjonær i bred forstand (eller svakt stasjonær eller stasjonær i Khinchins-forstand eller kovarians stasjonær) hvis m 1 (t) m og m 11 (t, s). Strenge stasjonar innebærer ikke i seg selv svak stasjonaritet. Svak stabilitet betyr ikke strenge stasjonar. Strenge stasjonar med E t 2 lt innebærer svak stasjonaritet. Ergodiske teoremer er opptatt av spørsmålet om de nødvendige og tilstrekkelige forholdene for å gjøre innfall fra en enkelt realisering av en tidsserie. I utgangspunktet koker det seg for å anta svak stasjonæritet. Teorem Hvis t er svakt stasjonær med gjennomsnittlig m og kovariansfunksjon, så er det for noen gitt e gt 0 og h gt 0 det eksisterer et tall T o slik at for alle T gt T o. hvis og bare hvis dette er nødvendig og tilstrekkelig betingelse er at autocovariances dør ut, i hvilket tilfelle prøven er en konsistent estimator for populasjonsmiddelet. Corollary Hvis t er svakt stasjonær med E tk xt 2 lt for noen t, og E tk xtx tsk x ts er uavhengig av t for noe heltall s, så hvis og bare hvis hvor A konsekvens av sammenhengen er antakelsen om at xtx tk er svakt stasjonær. Den ergotiske setningen er ikke mer enn en lov av store tall når observasjonene er korrelerte. Man kan på dette punkt spørre om de praktiske implikasjonene av stasjonar. Den vanligste bruken av bruk av tidssergeteknikker er å modellere makroøkonomiske data, både teoretisk og atoretisk. Som et eksempel på den tidligere, kan man ha en multiplikator-akselerator modell. For at modellen skal være stasjonær, må parameterne ha visse verdier. En test av modellen er da å samle de relevante dataene og estimere parametrene. Hvis estimatene ikke stemmer overens med stasjonar, må man revurdere enten den teoretiske modellen eller statistisk modell eller begge deler. Vi har nå nok maskiner til å begynne å snakke om modellering av univariate tidsseriedata. Det er fire trinn i prosessen. 1. bygge modeller fra teoretisk ogor erfaringskunnskap 2. identifisere modeller basert på dataene (observerte serier) 3. tilpasse modellene (estimere parametrene til modellen / modellene) 4. sjekke modellen Hvis det i fjerde trinn ikke er vi fornøyd, vi går tilbake til første trinn. Prosessen er iterativ til ytterligere kontroll og respektering gir ingen ytterligere forbedring i resultatene. Diagrammatisk definisjon Enkelte enkle operasjoner inkluderer følgende: Backshift operatøren Bx tx t-1 Foroveroperatøren Fx tx t1 Forskjellen operatør 1 - B xtxt - x t-1 Differansen operatøren oppfører seg på en måte som stemmer overens med konstanten i en uendelig serie . Det vil si at dets inverse er grensen til en uendelig sum. Nemlig, -1 (1-B) -1 1 (1-B) 1BB 2. Integreringsoperatøren S -1 Siden det er invers av differanseoperatøren, tjener integrasjonsoperatøren til å konstruere summen. MODELL BUILDING I denne delen gir vi en kort gjennomgang av de vanligste typene av tidsseriemodeller. På grunnlag av kunnskap om datagenereringsprosessen velger man en klasse av modeller for identifisering og estimering fra mulighetene som følger. Definisjon Anta at Ex t m er uavhengig av t. En modell som med egenskapene kalles den autoregressive bestillingsmodellen p, AR (p). Definisjon Hvis en tidsavhengig variabel (stokastisk prosess) tilfredsstiller, t, er det sagt å tilfredsstille Markov-egenskapen. På LHS er forventningen betinget av den uendelige historie x t. På RHS er det betinget av kun en del av historien. Fra definisjonene er en AR (p) - modell sett til å tilfredsstille Markov-eiendommen. Ved hjelp av backshift-operatøren kan vi skrive vår AR-modell som teorem En nødvendig og tilstrekkelig betingelse for at AR (p) - modellen skal være stasjonær, er at alle røttene til polynomet ligger utenfor enhetens sirkel. Eksempel 1 Vurder AR (1) Den eneste roten av 1 - f 1 B 0 er B 1 f 1. Forutsetningen for stasjonar krever det. Hvis da ser den observerte serien ut veldig frenetisk. F. eks vurdere hvor den hvite støyperioden har en normal fordeling med null-middel og en varians av en. Observasjonene bytter tegn med nesten alle observasjoner. Hvis derimot, vil den observerte serien bli mye jevnere. I denne serien har en observasjon en tendens til å ligge over 0 hvis forgjengeren var over null. Variansen av e t er s e 2 for alle t. Variansen av x t. når det er null, er gitt av Siden serien er stasjonær kan vi skrive. Derfor er autokovariansfunksjonen til en AR (1) - serie, uten å miste generalitet m 0 For å se hvordan dette ser ut som AR-parametrene, vil vi gjøre bruk av det faktum at vi kan skrive xt som følger Multiplikasjon med x tk og ta forventninger Merk at autocovariances dør ut som k vokser. Autokorrelasjonsfunksjonen er autokovariansen dividert med variansen av den hvite støybegrepet. Eller,. Ved bruk av tidligere Yule-Walker-formler for de delvise autokorrelasjonene vi har For en AR (1) dør autokorrelasjonene eksponentielt og de delvise autokorrelasjonene viser en spike ved ett lag og er null deretter. Eksempel 2 Vurder AR (2) Det tilhørende polynomet i lagoperatøren er. Røttene kunne bli funnet ved hjelp av den kvadratiske formelen. Røttene er når røttene er ekte, og følgelig vil serien falle eksponentielt som svar på et sjokk. Når røttene er komplekse og serien vil vises som en dempet skiltbølge. Stasjonarsteorien pålegger følgende forhold på AR-koeffisientene Autokovariansen for en AR (2) - prosess, med null-middel, er Deling gjennom av variansen av xt gir autokorrelasjonsfunksjonen Siden vi kan skrive Tilsvarende for andre og tredje autokorrelasjoner Den andre Autokorrelasjoner løses for rekursivt. Deres mønster styres av røttene til den andre ordens lineære forskjellligning Hvis røttene er ekte, vil autokorrelasjonene synke eksponentielt. Når røttene er komplekse, vil autokorrelasjonene vises som en dempet sinusbølge. Ved hjelp av Yule-Walker-ligningene, er de delvise autokorrelasjoner igjen, de autokorrelasjoner dør sakte ut. Den delvise autokorrelasjonen derimot er ganske særpreget. Den har pigger på en og to lags og er null etterpå. Stilling Hvis x t er en stasjonær AR (p) prosess, kan den tilsvarende skrives som en lineær filtermodell. Det vil si at polynomet i backshift-operatøren kan være omvendt og AR (p) skrevet som et bevegelig gjennomsnitt av uendelig rekkefølge i stedet. Eksempel Anta at z t er en AR (1) prosess med null gjennomsnitt. Det som er sant for den nåværende perioden må også være aktuelt for tidligere perioder. Dermed ved rekursiv substitusjon kan vi skrive Square begge sider og ta forventninger høyre side forsvinner som k siden f 1. Derfor summen konvergerer til z t i kvadratisk gjennomsnitt. Vi kan omskrive AR (p) modellen som et lineært filter som vi vet å være stasjonære. Autokorrelasjonsfunksjonen og partiell autokorrelasjon Generelt antar at en stasjonær serie z t med gjennomsnittlig null er kjent for å være autoregressiv. Autokorrelasjonsfunksjonen til en AR (p) er funnet ved å ta forventningene til og deles gjennom av variansen av z t Dette forteller oss at r k er en lineær kombinasjon av tidligere autokorrelasjoner. Vi kan bruke dette ved å bruke Cramers regel til (i) å løse for f kk. Spesielt kan vi se at denne lineære avhengigheten vil forårsake f kk 0 for k gt p. Dette karakteristiske trekk ved autoregressive serier vil være svært nyttig når det gjelder identifisering av en ukjent serie. Hvis du har enten MathCAD eller MathCAD Explorer, kan du eksperimentere interactivley med noen for AR (p) ideene presentert her. Flytte gjennomsnittsmodeller Vurder en dynamisk modell der serien av interesse bare avhenger av en del av historien om den hvite støyperioden. Diagrammatisk kan dette være representert som Definisjon Anta at t er en ukorrelert sekvens av i. i.d. tilfeldige variabler med null gjennomsnittlig og endelig varianse. Deretter er en flytende gjennomsnittlig prosess av orden q, MA (q), gitt ved teoremet: En glidende gjennomsnittlig prosess er alltid stasjonær. Bevis: I stedet for å starte med et generelt bevis vil vi gjøre det for et bestemt tilfelle. Anta at z t er MA (1). Deretter . Selvfølgelig har en t null og endelige varians. Middelet av z t er alltid null. Autocovariances vil bli gitt av Du kan se at gjennomsnittet av den tilfeldige variabelen ikke er avhengig av tid på noen måte. Du kan også se at autokovariansen bare er avhengig av offset s, ikke på hvor i serien vi starter. Vi kan bevise det samme resultatet mer generelt ved å begynne med, som har den alternative glidende gjennomsnittlige representasjonen. Tenk først variansen av z t. Ved rekursiv substitusjon kan du vise at dette er lik Summen vi vet er en konvergent serie, slik at variansen er endelig og er uavhengig av tiden. Kovarianene er, for eksempel, Du kan også se at auto covariances avhenger bare av de relative punktene i tid, ikke det kronologiske tidspunktet. Vår konklusjon fra alt dette er at en MA () - prosess er stasjonær. For den generelle MA (q) prosessen blir autokorrelasjonsfunksjonen gitt av Den delvise autokorrelasjonsfunksjonen vil dø ut jevnt. Du kan se dette ved å invertere prosessen for å få en AR () - prosess. Hvis du har enten MathCAD eller MathCAD Explorer, kan du eksperimentere interaktivt med noen av MA (q) ideene presentert her. Mixed Autoregressive - Moving Average Models Definisjon Anta at t er en ukorrelert sekvens av i. i.d. tilfeldige variabler med null gjennomsnittlig og endelig varianse. Deretter gis en autoregressiv, bevegelig gjennomsnittsprosessordre (p, q), ARMA (p, q) av Roter til den autoregressive operatøren må alle ligge utenfor enhetens sirkel. Antall ukjente er pq2. P og q er åpenbare. De 2 inkluderer prosessnivået, m. og variansen av det hvite støybegrepet, sa 2. Anta at vi kombinerer våre AR - og MA-representasjoner slik at modellen er og koeffisientene normaliseres slik at bo 1. Da kalles denne representasjonen en ARMA (p, q) hvis røtter av (1) alle ligger utenfor enhetens sirkel. Anta at y t måles som avvik fra gjennomsnittet slik at vi kan slippe en o. da er autokovariansfunksjonen avledet fra hvis jgtq da MA-vilkårene faller ut i forventning om å gi. Det vil si, autokovariansfunksjonen ser ut som en typisk AR for lags etter at q de dør jevnt etter q, men vi kan ikke si hvordan 1,2,133, q vil se ut Vi kan også undersøke PACF for denne klassen av modellen. Modellen kan skrives som Vi kan skrive dette som en MA (inf) prosess som tyder på at PACFene dør sakte. Med noen aritmetikk kunne vi vise at dette skjer bare etter de første p-pigger bidratt av AR-delen. Empirisk lov I virkeligheten kan en stasjonær tidsserie vel være representert av p 2 og q 2. Hvis virksomheten din skal gi en god tilnærming til virkeligheten og godheten til passform er kriteriet ditt, så foretrekkes en fortapt modell. Hvis interessen din er prediktiv effektivitet, er den parsimoniske modellen foretrukket. Eksperimenter med ARMA-ideene presentert ovenfor med et MathCAD-regneark. Autoregressive Integrere Flytte Gjennomsnittsmodeller MA filter AR filter Integrere filter Noen ganger er prosessen eller serien vi prøver å modellere ikke stasjonær i nivåer. Men det kan være stasjonært i, for eksempel, første forskjeller. Det er, i sin opprinnelige form, kanskje ikke autocovariances for serien ikke være uavhengig av det kronologiske tidspunktet. Men hvis vi bygger en ny serie som er de første forskjellene i den opprinnelige serien, oppfyller denne nye serien definisjonen av stasjonar. Dette er ofte tilfelle med økonomiske data som er svært trended. Definisjon Anta at z t ikke er stasjonær, men z t - z t-1 tilfredsstiller definisjonen av stasjonar. Også, den hvite støybegrepet har endelig mål og varians. Vi kan skrive modellen som dette heter en ARIMA (p, d, q) modell. p identifiserer rekkefølgen til AR-operatøren, d identifiserer strømmen på. q identifiserer rekkefølgen til MA-operatøren. Hvis røttene til f (B) ligger utenfor enhetens sirkel, kan vi omskrive ARIMA (p, d, q) som et lineært filter. Dvs. Det kan skrives som en MA (). Vi forbeholder oss diskusjonen om deteksjon av enhetsrøtter for en annen del av forelesningsnotatene. Tenk på et dynamisk system med x t som en inngangsserie og y t som en utgangsserie. Diagrammatisk vi har Disse modellene er en diskret analogi av lineære differensialligninger. Vi antar følgende forhold hvor b indikerer en ren forsinkelse. Husk det (1-B). Gjør denne substitusjonen, modellen kan skrives Hvis koeffisientpolynomet på y t kan inverteres, kan modellen skrives som V (B) kalles impulsresponsfunksjonen. Vi vil komme over denne terminologien igjen i vår senere diskusjon av vektorgotoregressive. kointegrerings - og feilkorrigeringsmodeller. MODELL IDENTIFIKASJON Etter å ha bestemt seg for en klasse av modeller, må man nå identifisere rekkefølgen av prosessene som genererer dataene. Det vil si at man må gjøre beste gjetninger når det gjelder rekkefølgen av AR - og MA-prosessene som kjører den stasjonære serien. En stasjonær serie kjennetegnes fullstendig av sine middel - og autokonferanser. Av analytiske grunner jobber vi vanligvis med autokorrelasjoner og delvise autokorrelasjoner. Disse to grunnleggende verktøyene har unike mønstre for stasjonære AR - og MA-prosesser. Man kunne beregne utvalgsestimater av autokorrelasjon og delvise autokorrelasjonsfunksjoner og sammenligne dem med tabulerte resultater for standardmodeller. Eksempel Autokovarians Funksjon Eksempel Autokorrelasjonsfunksjon Prøve-delvise autokorrelasjoner vil være Bruke autokorrelasjoner og delvise autokorrelasjoner er ganske enkelt i prinsippet. Anta at vi har en serie z t. med null betyr, som er AR (1). Hvis vi skulle kjøre regresjonen av z t2 på z t1 og z t, ville vi forvente å finne at koeffisienten på z t ikke var forskjellig fra null siden denne delvise autokorrelasjonen burde være null. På den annen side bør autokorrelasjonene for denne serien falle eksponentielt for økende lag (se AR (1) eksempelet ovenfor). Anta at serien er virkelig et bevegelige gjennomsnitt. Autokorrelasjonen skal være null overalt, men ved første lag. Den delvise autokorrelasjonen burde dø eksponentielt. Til og med fra vår veldig overskyede tromme gjennom grunnleggende tidsserier, er det tydelig at det er en dualitet mellom AR og MA prosesser. Denne dualiteten kan oppsummeres i følgende tabell. Innføring i ARIMA: Nonseasonal modeller ARIMA (p, d, q) prognoser likning: ARIMA-modeller er i teorien den mest generelle klassen av modeller for å prognose en tidsserie som kan gjøres til være 8220stationary8221 ved å differensiere (om nødvendig), kanskje i forbindelse med ikke-lineære transformasjoner som logging eller deflating (om nødvendig). En tilfeldig variabel som er en tidsserie er stasjonær hvis dens statistiske egenskaper er konstante over tid. En stasjonær serie har ingen trend, dens variasjoner rundt sin gjennomsnitt har en konstant amplitude, og den svinger på en konsistent måte. det vil si at kortsiktige tilfeldige tidsmønstre alltid ser like ut i statistisk forstand. Den sistnevnte tilstanden betyr at dets autokorrelasjoner (korrelasjoner med sine egne tidligere avvik fra gjennomsnittet) forblir konstante over tid, eller tilsvarende, at dets effektspektrum forblir konstant over tid. En tilfeldig variabel av dette skjemaet kan ses som en kombinasjon av signal og støy, og signalet (hvis det er tydelig) kan være et mønster av rask eller saksom gjennomsnittlig reversering eller sinusformet svingning eller rask veksling i skiltet , og det kan også ha en sesongbestemt komponent. En ARIMA-modell kan ses som en 8220filter8221 som forsøker å skille signalet fra støyen, og signalet blir deretter ekstrapolert inn i fremtiden for å oppnå prognoser. ARIMA-prognose-ligningen for en stasjonær tidsserie er en lineær (dvs. regresjonstype) ekvation hvor prediktorene består av lag av de avhengige variable ogor lagene av prognosefeilene. Det er: Forutsigbar verdi for Y en konstant og en vektet sum av en eller flere nylige verdier av Y og eller en vektet sum av en eller flere nylige verdier av feilene. Hvis prediktorene kun består av forsinkede verdier av Y. Det er en ren autoregressiv (8220self-regressed8221) modell, som bare er et spesielt tilfelle av en regresjonsmodell, og som kunne være utstyrt med standard regresjonsprogramvare. For eksempel er en førsteordens autoregressiv (8220AR (1) 8221) modell for Y en enkel regresjonsmodell der den uavhengige variabelen bare er Y forsinket med en periode (LAG (Y, 1) i Statgraphics eller YLAG1 i RegressIt). Hvis noen av prediktorene er lags av feilene, er en ARIMA-modell det IKKE en lineær regresjonsmodell, fordi det ikke er mulig å spesifisere 8220last period8217s error8221 som en uavhengig variabel: feilene må beregnes fra tid til annen når modellen er montert på dataene. Fra et teknisk synspunkt er problemet med å bruke forsinkede feil som prediktorer at modellen8217s spådommer ikke er lineære funksjoner av koeffisientene. selv om de er lineære funksjoner av tidligere data. Så koeffisienter i ARIMA-modeller som inkluderer forsinkede feil må estimeres ved ikke-lineære optimaliseringsmetoder (8220hill-klatring8221) i stedet for bare å løse et system av ligninger. Akronymet ARIMA står for Auto-Regressive Integrated Moving Average. Lags av den stationære serien i prognosekvotasjonen kalles kvotoregressivequot-termer. Lags av prognosefeilene kalles quotmoving averagequot vilkår, og en tidsserie som må differensieres for å bli stillestående, sies å være en quotintegratedquot-versjon av en stasjonær serie. Tilfeldige gange og tilfeldige trendmodeller, autoregressive modeller og eksponentielle utjevningsmodeller er alle spesielle tilfeller av ARIMA-modeller. En nonseasonal ARIMA-modell er klassifisert som en quotARIMA (p, d, q) kvotemodell hvor: p er antall autoregressive termer, d er antall ikke-sekundære forskjeller som trengs for stasjonar, og q er antall forsinkede prognosefeil i prediksjonsligningen. Forutsigelsesligningen er konstruert som følger. Først, la y betegne den d forskjellen på Y. Det betyr: Merk at den andre forskjellen på Y (d2-saken) ikke er forskjellen fra 2 perioder siden. Snarere er det den første forskjellen-av-første forskjellen. som er den diskrete analogen til et andre derivat, det vil si den lokale akselerasjonen av serien i stedet for sin lokale trend. Når det gjelder y. Den generelle prognosekvasjonen er: Her er de bevegelige gjennomsnittsparametrene (9528217s) definert slik at deres tegn er negative i ligningen, etter konvensjonen innført av Box og Jenkins. Noen forfattere og programvare (inkludert R programmeringsspråket) definerer dem slik at de har pluss tegn i stedet. Når faktiske tall er koblet til ligningen, er det ingen tvetydighet, men det er viktig å vite hvilken konvensjon programvaren bruker når du leser utgangen. Ofte er parametrene benevnt der av AR (1), AR (2), 8230 og MA (1), MA (2), 8230 etc. For å identifisere den aktuelle ARIMA modellen for Y. begynner du ved å bestemme differensordren (d) trenger å stasjonærisere serien og fjerne bruttoegenskapene til sesongmessighet, kanskje i forbindelse med en variansstabiliserende transformasjon som logging eller deflating. Hvis du stopper på dette punktet og forutsier at den forskjellige serien er konstant, har du bare montert en tilfeldig tur eller tilfeldig trendmodell. Den stasjonære serien kan imidlertid fortsatt ha autokorrelerte feil, noe som tyder på at noen antall AR-termer (p 8805 1) og eller noen nummer MA-termer (q 8805 1) også er nødvendig i prognosekvasjonen. Prosessen med å bestemme verdiene p, d og q som er best for en gitt tidsserie, vil bli diskutert i senere avsnitt av notatene (hvis koblinger er øverst på denne siden), men en forhåndsvisning av noen av typene av nonseasonal ARIMA-modeller som ofte oppstår, er gitt nedenfor. ARIMA (1,0,0) førstegangs autoregressiv modell: Hvis serien er stasjonær og autokorrelert, kan den kanskje forutsies som et flertall av sin egen tidligere verdi, pluss en konstant. Forutsigelsesligningen i dette tilfellet er 8230 som er Y regressert i seg selv forsinket med en periode. Dette er en 8220ARIMA (1,0,0) constant8221 modell. Hvis gjennomsnittet av Y er null, vil ikke det konstante begrepet bli inkludert. Hvis hellingskoeffisienten 981 1 er positiv og mindre enn 1 i størrelsesorden (den må være mindre enn 1 i størrelsesorden dersom Y er stasjonær), beskriver modellen gjennomsnittsreferanseadferd hvor neste periode8217s verdi skal anslås å være 981 1 ganger som langt unna gjennomsnittet som denne perioden8217s verdi. Hvis 981 1 er negativ, forutser det middelreferanseadferd med skifting av tegn, dvs. det forutsier også at Y vil være under gjennomsnittlig neste periode hvis den er over gjennomsnittet denne perioden. I en andre-ordregivende autoregressiv modell (ARIMA (2,0,0)), ville det være et Y t-2 begrep til høyre også, og så videre. Avhengig av tegnene og størrelsene på koeffisientene, kunne en ARIMA (2,0,0) modell beskrive et system hvis gjennomsnitts reversering foregår i sinusformet oscillerende mote, som bevegelse av en masse på en fjær som er utsatt for tilfeldige støt . ARIMA (0,1,0) tilfeldig tur: Hvis serien Y ikke er stasjonær, er den enkleste modellen for den en tilfeldig turmodell, som kan betraktes som et begrensende tilfelle av en AR (1) modell der autoregressive koeffisienten er lik 1, det vil si en serie med uendelig sakte gjennomsnittlig reversering. Forutsigelsesligningen for denne modellen kan skrives som: hvor den konstante sikt er den gjennomsnittlige perioden til periode-endringen (dvs. den langsiktige driften) i Y. Denne modellen kan monteres som en ikke-avskjæringsregresjonsmodell der Første forskjell på Y er den avhengige variabelen. Siden den inneholder (bare) en ikke-soneforskjell og en konstant periode, er den klassifisert som en quotARIMA (0,1,0) modell med constant. quot. Den tilfeldig-walk-uten-drift-modellen ville være en ARIMA (0,1, 0) modell uten konstant ARIMA (1,1,0) forskjellig førsteordens autoregressiv modell: Hvis feilene i en tilfeldig turmodell er autokorrelert, kan problemet løses ved å legge til et lag av den avhengige variabelen til prediksjonsligningen - - dvs ved å regresse den første forskjellen på Y i seg selv forsinket med en periode. Dette vil gi følgende prediksjonsligning: som kan omarrangeres til Dette er en førsteordens autoregressiv modell med en rekkefølge av ikke-soneforskjeller og en konstant term, dvs. en ARIMA (1,1,0) modell. ARIMA (0,1,1) uten konstant enkel eksponensiell utjevning: En annen strategi for korrigering av autokorrelerte feil i en tilfeldig gangmodell er foreslått av den enkle eksponensielle utjevningsmodellen. Husk at for noen ikke-stationære tidsserier (for eksempel de som viser støyende svingninger rundt et sakte varierende gjennomsnitt), utfører ikke den tilfeldige turmodellen så vel som et glidende gjennomsnittsverdier av tidligere verdier. Med andre ord, i stedet for å ta den nyeste observasjonen som prognosen for neste observasjon, er det bedre å bruke et gjennomsnitt av de siste observasjonene for å filtrere ut støy og mer nøyaktig anslå det lokale gjennomsnittet. Den enkle eksponensielle utjevningsmodellen bruker et eksponentielt vektet glidende gjennomsnitt av tidligere verdier for å oppnå denne effekten. Forutsigelsesligningen for den enkle eksponensielle utjevningsmodellen kan skrives i en rekke matematisk ekvivalente former. hvorav den ene er den såkalte 8220error correction8221 skjemaet, der den forrige prognosen er justert i retning av feilen det gjorde: Fordi e t-1 Y t-1 - 374 t-1 per definisjon kan dette omskrives som : som er en ARIMA (0,1,1) - out-konstant prognosekvasjon med 952 1 1 - 945. Dette betyr at du kan passe en enkel eksponensiell utjevning ved å angi den som en ARIMA (0,1,1) modell uten konstant, og den estimerte MA (1) - koeffisienten tilsvarer 1-minus-alfa i SES-formelen. Husk at i SES-modellen er gjennomsnittsalderen for dataene i 1-periode fremover prognosene 1 945. Det betyr at de vil ha en tendens til å ligge bak trender eller vendepunkter med ca 1 945 perioder. Det følger at gjennomsnittlig alder av dataene i 1-periode fremover prognosene for en ARIMA (0,1,1) uten konstant modell er 1 (1 - 952 1). For eksempel, hvis 952 1 0,8 er gjennomsnittsalderen 5. Når 952 1 nærmer seg 1, blir ARIMA (0,1,1) uten konstant modell et veldig langsiktig glidende gjennomsnitt og som 952 1 nærmer seg 0 blir det en tilfeldig tur uten drivmodell. What8217s den beste måten å korrigere for autokorrelasjon: legge til AR-vilkår eller legge til MA-vilkår I de to foregående modellene ble problemet med autokorrelerte feil i en tilfeldig turmodell løst på to forskjellige måter: ved å legge til en forsinket verdi av differensierte serier til ligningen eller legge til en forsinket verdi av prognosen feil. Hvilken tilnærming er best En tommelfingerregel for denne situasjonen, som vil bli nærmere omtalt senere, er at positiv autokorrelasjon vanligvis behandles best ved å legge til et AR-uttrykk for modellen og negativ autokorrelasjon vanligvis behandles best ved å legge til en MA term. I forretnings - og økonomiske tidsserier oppstår negativ autokorrelasjon ofte som en artefakt av differensiering. (Generelt reduserer differensiering positiv autokorrelasjon og kan til og med føre til en bryter fra positiv til negativ autokorrelasjon.) Så, ARIMA (0,1,1) modellen, der differensiering er ledsaget av en MA-term, brukes hyppigere enn en ARIMA (1,1,0) modell. ARIMA (0,1,1) med konstant enkel eksponensiell utjevning med vekst: Ved å implementere SES-modellen som en ARIMA-modell, får du faktisk en viss fleksibilitet. Først og fremst er estimert MA (1) - koeffisient tillatt å være negativ. Dette tilsvarer en utjevningsfaktor som er større enn 1 i en SES-modell, som vanligvis ikke er tillatt i SES-modellprosedyren. For det andre har du muligheten til å inkludere en konstant periode i ARIMA-modellen hvis du ønsker det, for å estimere en gjennomsnittlig ikke-null trend. ARIMA-modellen (0,1,1) med konstant har prediksjonsligningen: Forventningene for en periode fremover fra denne modellen er kvalitativt lik SES-modellen, bortsett fra at bane av de langsiktige prognosene vanligvis er en skrånende linje (hvis skråning er lik mu) i stedet for en horisontal linje. ARIMA (0,2,1) eller (0,2,2) uten konstant lineær eksponensiell utjevning: Linjære eksponentielle utjevningsmodeller er ARIMA-modeller som bruker to ikke-soneforskjeller i sammenheng med MA-termer. Den andre forskjellen i en serie Y er ikke bare forskjellen mellom Y og seg selv forsinket av to perioder, men det er den første forskjellen i den første forskjellen - dvs. Y-endringen i Y i periode t. Således er den andre forskjellen på Y ved periode t lik (Y t - Y t-1) - (Y t-1 - Y t-2) Y t - 2Y t-1 Y t-2. En annen forskjell på en diskret funksjon er analog med et andre derivat av en kontinuerlig funksjon: den måler kvoteringsberegningsquot eller kvoturvitaquot i funksjonen på et gitt tidspunkt. ARIMA-modellen (0,2,2) uten konstant forutser at den andre forskjellen i serien er lik en lineær funksjon av de to siste prognosefeilene: som kan omarrangeres som: hvor 952 1 og 952 2 er MA (1) og MA (2) koeffisienter. Dette er en generell lineær eksponensiell utjevningsmodell. i hovedsak det samme som Holt8217s modell, og Brown8217s modell er et spesielt tilfelle. Den bruker eksponensielt vektede glidende gjennomsnitt for å anslå både et lokalt nivå og en lokal trend i serien. De langsiktige prognosene fra denne modellen konvergerer til en rett linje hvis skråning avhenger av den gjennomsnittlige trenden observert mot slutten av serien. ARIMA (1,1,2) uten konstant fuktet trend lineær eksponensiell utjevning. Denne modellen er illustrert i de tilhørende lysbildene på ARIMA-modellene. Den ekstrapolerer den lokale trenden i slutten av serien, men flater ut på lengre prognoshorisonter for å introdusere et konservatismedokument, en praksis som har empirisk støtte. Se artikkelen om hvorfor Damped Trend worksquot av Gardner og McKenzie og quotgolden Rulequot-artikkelen av Armstrong et al. for detaljer. Det er generelt tilrådelig å holde fast i modeller der minst en av p og q ikke er større enn 1, dvs. ikke prøv å passe på en modell som ARIMA (2,1,2), da dette sannsynligvis vil føre til overfitting og kvadrat-faktorquot problemer som er omtalt nærmere i notatene om den matematiske strukturen til ARIMA-modellene. Implementering av regneark: ARIMA-modeller som de som er beskrevet ovenfor, er enkle å implementere på et regneark. Forutsigelsesligningen er bare en lineær ligning som refererer til tidligere verdier av originale tidsserier og tidligere verdier av feilene. Dermed kan du sette opp et ARIMA prognose regneark ved å lagre dataene i kolonne A, prognoseformelen i kolonne B, og feilene (data minus prognoser) i kolonne C. Forutsigelsesformelen i en typisk celle i kolonne B ville ganske enkelt være et lineært uttrykk som refererer til verdier i forrige rader av kolonner A og C, multiplisert med de relevante AR - eller MA-koeffisientene lagret i celler andre steder på regnearket. STATUS 497 LØSNING NOTER 2 1. AUTOCOVARIANCE OG AUTOCORRELATION FUNKSJONER For en stasjonær prosess autokovarians mellom Y t og Y. Presentasjon på tema: STAT 497 LØSNING NOTER 2 1. AUTOCOVARIANCE OG AUTOCORRELATION FUNKSJONER For en stasjonær prosess, autokovariansen mellom Y t og Y. Presentasjon transkripsjon: 2 AUTOOVARIANCE OG AUTOCORRELATION FUNKSJONER For en stillestående prosess, er autokovariansen mellom Y t og Y tk, og autokorrelasjonsfunksjonen er 2 3 AUTOKOVARIANSEN OG AUTOORRELASJON FUNKSJONER EGENSKAPER: 1. 2. 3. 4. (nødvendig betingelse) k og k er positive semi - definite for et hvilket som helst sett med tidspunkter t 1, t 2, t n og noen reelle tall 1, 2 ,, n. 3 4 DEN PARTIAL AUTOCORRELATION FUNCTION (PACF) PACF er korrelasjonen mellom Y t og Y t-k etter at deres gjensidig lineære avhengighet av de mellomliggende variablene Y t-1, Y t-2, Y t-k1 er blitt fjernet. Den betingede korrelasjonen er vanligvis referert til som den delvise autokorrelasjonen i tidsserier. 4 5 BEREGNING AV PACF 1. REGRESSJONSMÅTE: Overvei en modell fra en nullverdig stasjonær prosess hvor ki betegner koeffisientene til Y t ​​ki og etk er null-middelfeilbegrepet som er ukorrelert med Y t ki, i0,1, k . Multiply begge sider med Y t kj 5 11 HVIDLØSNING (WN) PROCESS En prosess kalles en hvit støy (WN) prosess, hvis det er en sekvens av ukorrelerte tilfeldige variabler fra en fast fordeling med konstant gjennomsnitt, konstant varians og Cov (Y t, Y tk) 0 for alle k0. 11 12 WHITE NOISE PROSESS Det er en stasjonær prosess med autokovariansfunksjon 12 Grunnfenomen: ACFPACF 0, k 0. 13 HVIDSTØY (WN) PROSESS Hvit støy (i spektralanalyse): Det produseres hvitt lys der alle frekvenser ( dvs. farger) er til stede i like stor mengde. Memoryless prosess Byggekloss hvorfra vi kan konstruere mer kompliserte modeller Det spiller rollen som et ortogonalt grunnlag i den generelle vektor - og funksjonsanalysen. 13 15 ERGODISITET Kolmogorovs lov om stort antall (LLN) forteller at hvis X i iid (, 2) for i 1. n, har vi følgende grense for ensemble-gjennomsnittet. I tidsserier har vi tidsserier i gjennomsnitt, ikke ensemble gjennomsnitt . Derfor beregnes gjennomsnittet med gjennomsnitt over tid. Konverterer tidsserie-gjennomsnittet til samme grense som ensemble-gjennomsnittet Svaret er ja, hvis Y t er stasjonær og ergodisk. 15 16 ERGODISITET En kovariansstasjonær prosess sies å være ergodisk for den gjennomsnittlige, hvis tidsserie-gjennomsnittet konvergerer til populasjonsmiddelet. På samme måte, hvis prøve gjennomsnittet gir et konsistent estimat for andre øyeblikk, er prosessen sies å være ergodisk for andre øyeblikk. 16 17 ERGODISITET En tilstrekkelig betingelse for at en kovariansstasjonær prosess skal være ergodisk for det gjennomsnittlige er det. Videre, hvis prosessen er Gaussisk, sørger absolutt summable autocovariances også for at prosessen er ergodisk for alle øyeblikk. 17 19 SAMPLE AUTOCORRELATION FUNKSJON En plot versus k et sample correlogram For store utvalgsstørrelser, distribueres normalt med gjennomsnittlig k og variansen er tilnærmet ved Bartletts approximasjon for prosesser der k 0 for km. 19 m. title19. 20 SAMMENFØRING AV AUTOORRELLERINGSFUNKSJON I praksis er jeg ikke kjent og erstattet av deres prognosestimater. Derfor har vi følgende standardfeil for stor-lag på. 20 21 SAMMEN AUTOORRELLERINGSFUNKSJONEN For en WN-prosess har vi 95-konfidensintervallet for k. Derfor, for å teste prosessen er WN eller ikke, tegne en 2n 12 linjer på prøve korrelogrammet. Hvis alle er innenfor grensene, kan prosessen være WN (vi må også sjekke prøven PACF også). 21 For en WN-prosess må den være nær null. 22 DEN SAMPLE PARTIAL AUTOCORRELATION FUNKSJONEN For en WN prosess kan 2n 12 brukes som kritiske grenser på kk for å teste hypotesen av en WN prosess. 22 23 BACKSHIFT (ELLER LAG) OPERATORER Bakshift operatør, B er definert som f. eks. Tilfeldig sjokkprosess: 23 24 Flytting av gjennomsnittsrepresentasjon av en tidsserie Også kjent som Random Shock Form eller Wold (1938) Representasjon. La være en tidsserie. For en stasjonær prosess kan vi skrive som en lineær kombinasjon av sekvens ukorrelert (WN) r. v.s. En generell lineær prosess: 24 hvor 0 I er en 0 gjennomsnittlig WN-prosess og 27 FLYTTING AVERAGE REPRESENTASJON AV EN TIDSREG fordi de involverer uendelige summer, for å være statiske. Derfor er den nødvendige betingelsen for at prosessen skal være stasjonær. Det er en ikke-deterministisk prosess: En prosess inneholder ingen deterministiske komponenter (ingen tilfeldighet i systemets fremtidige tilstander) som kan prognose akkurat fra sin egen fortid. 27 28 AUTOCOVARIANCE GENERATIVE FUNKSJON For en gitt sekvens av autocovariances k, k0, 1, 2, er autokovariansgenereringsfunksjonen definert som hvor variansen av en gitt prosess 0 er koeffisienten til B 0 og autokovariansen av lag k, k er koeffisient av både B k og B k. 28 22 11 31 Eksempel a) Skriv ovenstående ligning i tilfeldig støtform. b) Finn autokovariansgenereringsfunksjonen. 31 32 AUTOREGRESSIV REPRESENTASJON AV EN TIDSERIE Denne representasjonen er også kjent som INVERTED FORM. Gjenta verdien av Y t ved tidspunktet t på egen fortid pluss en tilfeldig støt. 32 33 AUTOREGRESSIV REPRESENTASJON AV EN TIDS SERIER Det er en inverterbar prosess (det er viktig for prognoser). Ikke alle stasjonære prosesser er inverterbare (Box and Jenkins, 1978). Invertibility gir unikhet av autokorrelasjonsfunksjonen. Det betyr at ulike tidsseriemodeller kan uttrykkes av hverandre. 33 34 INVERTIBILITETSREGULERING BRUKE RANDOMSAKFORMEN For en lineær prosess, for å være inverterbar, må røttene til (B) 0 som en funksjon av B ligge utenfor enhetens sirkel. Hvis er en rot av (B), så er 1. (ekte tall) absolutt verdien av. (komplekst tall) er 34 1. (ekte tall) er absolutt verdien av. (komplekst tall) er 34. 35 UTSIKLINGSREGLER BRUKE RANDOMSJAKSFORMEN Det kan være stasjonært dersom prosessen kan skrives om i en RSF, det vil si 35 36 STASJONSREGULERING BRUKE DEN INVERTE FORMEN For en lineær prosess, for å være invertibel, røttene til (B) 0 som en funksjon av B må ligge utenfor enhetens sirkel. Hvis er en rot av (B), så 1. 36 1. 36. 37 RANDOM SHOCK FORM OG INVERTED FORM AR og MA representasjoner er ikke modellformen. Fordi de inneholder uendelig antall parametere som er umulige å estimere fra et begrenset antall observasjoner. 37 38 TIDS SERIE MODELLER I omvendt form av en prosess, hvis bare endelige antall vekt er ikke-null, det vil si prosessen kalles AR (p) prosess. 38 39 TIDS SERIE MODELLER I Random Shock Form av en prosess, hvis bare endelige antall vekt er ikke-null, det vil si prosessen kalles MA (q) prosess. 39 41 TIDS SERIE MODELLER Antallet parametere i en modell kan være stort. Et naturlig alternativ er den blandede AR - og MA-prosessen ARMA (p, q) prosess For et fast antall observasjoner, jo flere parametere i en modell er, desto mindre effektiv er estimeringen av parametrene. Velg en enklere modell for å beskrive fenomenet. 41 Last ned ppt STAT 497 LØSNING NOTER 2 1. AUTOCOVARIANCE OG AUTOCORRELATION FUNKSJONER For en stasjonær prosess, autokovariansen mellom Y t og Y.

Comments

Popular posts from this blog

Flytte Gjennomsnittet Of Momentum Mt4

Beregn En 3 Måneders Moving Average Prognose Of Demand

Aksjeopsjoner Ikke Børsnoterte