File PDF .it

Condividi facilmente i tuoi documenti PDF con i tuoi contatti, il Web e i Social network.

Inviare un file File manager Cassetta degli attrezzi Ricerca PDF Assistenza Contattaci



Skyline .pdf



Nome del file originale: Skyline.pdf
Autore: Francesca Pellegrini

Questo documento in formato PDF 1.5 è stato generato da Microsoft® Word 2016, ed è stato inviato su file-pdf.it il 09/12/2016 alle 13:12, dall'indirizzo IP 151.74.x.x. La pagina di download del file è stata vista 1472 volte.
Dimensione del file: 2.4 MB (71 pagine).
Privacy: file pubblico




Scarica il file PDF









Anteprima del documento


Statistica per i mercati finanziari
Analisi finanziaria Skyline Corp.

INTRODUZIONE
L’elaborato che viene presentato mira ad analizzare una serie storica finanziaria
attraverso strumenti statistici, al fine di modellare l’andamento della volatilità
dei rendimenti di un titolo finanziario.
Tra i diversi titoli quotati sul mercato si è scelto di studiare l’andamento dei
prezzi di chiusura di “SkyLine Corp.”. I dati sono stati estratti dal sito
https://it.finance.yahoo.com e successivamente analizzati attraverso il software
R.
Skyline Corp. nasce nel 1951 ad Elkhart come produttore di unità abitative a
prezzi accessibili popolarmente conosciute come rimorchi di casa o case mobili.
Oggi è specializzata nella costruzione di fabbricati stabili e mobili.
L’elaborato è strutturato in quattro sezioni.
La prima sezione è concentrata sulla realizzazione di grafici e l’applicazione di
particolari test, per mettere in evidenza i fatti stilizzati che ricorrono nei mercati
finanziari.
Segue una sezione dedicata alla ricerca del miglior modello per l’analisi della
varianza condizionata, sfruttando i modelli introdotti da Engle, ARCH models, e
modelli più complessi sviluppati successivamente.
La terza sezione sarà incentrata sulla previsione della volatilità e sulla
presentazione di alcune misure di rischio finanziario.
In conclusione, si tratterà la legge di Benford applicata ai mercati finanziari e si
effettuerà un confronto fra due pacchetti per la stima della volatilità.
Per lo studio della serie storica si sono utilizzati i seguenti pacchetti del software
R:
library(timeSeries)

library(fBasics)

library(tseries)

library(fracdiff)

library(FinTS)

library(fGarch)

library(TSA)

library(timeDate)

library(date)

library(fGarch)

library(rugarch)

library(FitAR)

library(BenfordTests)

2

Analisi statistica di prezzi e rendimenti
Il primo passo, per lo studio di una serie storica finanziaria è l’importazione dei
dati da un file “.csv” in ambiente R. Si selezionano le colonne relative alle date
e ai prezzi di chiusura e si ordinano i dati dal meno recente al più recente.
dati<-read.table("Sky.csv",header=T,sep=",")
y<-dati [,c(1,5)]
write.table(y, file="Sky_ord.csv",row.names=F,sep=";", dec=",")
dati<-read.table("Sky_ord.csv",header=T,sep=";",dec=",")
head(dati,10); tail(dati,10)

Si estraggono i prezzi di chiusura che vengono trasformati in una serie storica.
Di seguito si riporta il grafico:
y<-dati[,2]
Pchiusura<-ts(y,start=c(2003,1),
frequency=218)plot(Pchiusura,main="Andamento prezzi di chiusura",
xlim=c(2003,2016),
ylim=c(0,50),xlab="Time",ylab="Prezzi di chiusura",col="blue")

3

Nel campo del risk management è più utile ragionare in termini di rendimenti in
quanto consentono di analizzare i prezzi in forma relativa e non assoluta.
Occorre distinguere tra il rendimento semplice ed il log rendimento. In
particolare, in finanza, si lavora sui log rendimenti, che assumono valori
pressoché uguali ai rendimenti semplici ma risultano più agevoli da trattare.
R = returns(Pchiusura,"discrete"); R<-R[-1]
r = returns(Pchiusura,"continuous"); r<-r[-1]
head(round(R-r,3),200)

4

plot(R-r,main="Confronto rendimenti semplici e log-rendimenti",
xlab="Osservazioni", ylab="Differenza", col="red",cex=1,pch=20)

È stata calcolata la differenza tra rendimenti semplici e log-rendimenti. Si può
notare, anche graficamente, che i log – rendimenti e i rendimenti semplici
convergono. Da questo momento in poi con il termine rendimento si farà
riferimento ai log-rendimenti.
r=ts(r,start=c(2003,1), frequency=218)
plot(r,main="Andamento rendimenti",
xlim=c(2003,2016),xlab="Time",ylab="Rendimenti",col="darkblue")
abline(h=0,col="red",lwd=2)

5

Tra i fatti stilizzati emerge il volatility clustering, ovvero periodi caratterizzati da
alta variabilità sono seguiti da periodi con bassa variabilità. Le cause possono
essere ricondotte alla diversa reazione degli utenti che operano sul mercato alle
buone e cattive notizie.

Altro fenomeno riscontrabile nelle serie storiche finanziarie è il leverage effect:
notizie negative innescano shock finanziari che sembrano incrementare la
volatilità più di quanto non facciano le notizie positive. Come si può notare dal
grafico l’effetto leva sembra non essere presente.

6

Si calcolano, a questo punto, alcune misure descrittive della serie storica dei
rendimenti attraverso il comando basicStats(r).

I rendimenti si presentano con una leggera asimmetria positiva, come mostra il
valore dell’indice di asimmetria di Fisher, e risultano avere una distribuzione
leptocurtica, come evidenzia il valore dell’indice di Curtosi. Questo risultato non
sorprende poiché la maggior parte delle serie storiche finanziarie presenta
distribuzione a code pesanti.
Si nota, inoltre, che la media dei rendimenti è pressoché nulla. A conferma di
questa ipotesi si propone un test sulla nullità della media.
t.test(r)

La serie storica si presenta come realizzazione di un processo stocastico ed è
utile capire se il processo che l’ha generata risulti essere stazionario.
Suddividendo la serie in 4 periodi, si può osservare che le medie nei sottoperiodi
sono, tutte, all’incirca pari a 0. Ciò implica che il processo è stazionario in media
ma, dai grafici che seguono, si può notare la non stazionarietà in varianza.
r1<-r[1:802]; r1<-ts(r1)
7

r2<-r[803:1604]; r2<-ts(r2)
r3<-r[1605:2406]; r3<-ts(r3)
r4<-r[2407:3208]; r4<-ts(r4)
par(mfrow=c(4,1))
plot(r1);plot(r2); plot(r3);plot(r4)
mean(r1) = 0.0003425644
mean(r2) = -0.0009384134
mean(r3) = -0.001723078
mean(r4) = 0.0008519346

Si confronta la serie storica dei rendimenti con un processo white noise
gaussiano.
N<-length(r)
WNG<-rnorm(N,mean(r),sd(r))
r=ts(r)
WNG=ts(WNG)
par(mfrow=c(2,1))
ts.plot(r,main="Andamento
Rendimenti", col="green")

Log

Rendimenti",xlab="Time",

ts.plot(WNG,main="Simulazione White
ylab="Normal Values", col="darkgrey")

8

Noise

ylab="Log

Gaussiano",xlab="Time",

Si può osservare che il processo che ha generato la serie storica dei rendimenti
non è un white noise gaussiano: esso, infatti, non riesce a catturare tutte le
oscillazioni e i picchi della serie storica analizzata.
par(mfrow=c(1,1))
ts.plot(r,WNG,xlab="Log
col=c("green","darkgrey"))

Rendimenti",

ylab="Normal",

lty=c(1:2),

leg.txt <- c("Log Rendimenti", "White Noise Gaussiano")
legend(0, 0.25,leg.txt, fill = c("green","darkgrey"),col=c("darkgrey","green"),
pt.bg=c("darkgrey","green"),plot=T)

9

Per confermare che il processo generatore dei dati non è gaussiano si riportano
di seguito dei test riguardanti la distribuzione dei rendimenti: in particolare si
testa se i rendimenti seguono o meno una distribuzione normale.
ksnormTest(r,title="Test Kolmogorov - Smirnov",description="Ipotesi nulla: la
distribuzione è normale")

shapiroTest(r,title="Test
distribuzione è normale")

Shapiro-Wilk",description="Ipotesi

nulla:

la

jarqueberaTest(r,title="Test Jarque Bera",description="Ipotesi nulla: la
distribuzione è normale")

dagoTest(r, title = "D'Agostino Test", description = "Ipotesi nulla: la
distribuzione è normale")
10

Tutti i test di verifica di ipotesi portano ad affermare che la distribuzione dei
rendimenti non è normale.
Ulteriore conferma della non normalità della distribuzione dei rendimenti è
l’analisi grafica:
par(mfrow=c(1,2))
hist(r,main="Andamento log rendimenti",xlab="Time", ylab="logrendimenti")
d<-density(r)
plot(d,main="Densità
dei
log-rendimenti",col="red",lwd=2,xlab="Logrendimenti",ylab="Frequenze")

11

qqnormPlot(r)

Dal grafico Quantile-Quantile Normal plot si nota che i punti non sono allineati
lungo la bisettrice, come dovrebbe essere in caso di distribuzione normale, ma
seguono l’andamento di una S allungata, che fa pensare ad una distribuzione a
code pesanti.
Lo studio della dipendenza di osservazioni ordinate nel tempo può essere
effettuato attraverso il correlogramma. Per tali ragioni si valuta
l’autocorrelazione globale sui rendimenti.
acf(r,lag.max=NULL,type="correlation",plot=TRUE,main="Autocorrelazione
globale dei log-rendimenti")

12

Il grafico fornisce una prima idea circa l’andamento dell’autocorrelazione
globale dei rendimenti. A supporto di esso si affianca il test di Ljung-Box che
verifica se le prime m correlazioni, considerate congiuntamente, sono nulle.
Box.test(r,lag=1,type="Ljung-Box")

Box.test(r,lag=10,type="Ljung-Box")

In entrambi i casi, lag=1 e lag=10, si accetta l’ipotesi nulla: rendimenti
serialmente incorrelati.
L’assenza di autocorrelazione dei rendimenti ad alcuni lag supporta solo
parzialmente l’ipotesi di indipendenza dei rendimenti, i quali possono essere
legati da una forma di dipendenza diversa da quella lineare.
Proprio per questo, si va a valutare la correlazione tra rendimenti in valore
assoluto e tra i rendimenti al quadrato, al fine di cogliere la presenza e l’entità
del volatility clustering ed evidenziare la persistenza.
acf(r^2,lag.max=NULL,type="correlation",plot=TRUE,main="Autocorrelazione
globale dei log-rendimenti al quadrato")
Box.test(r^2,lag=1,type="Ljung-Box")
Box.test(r^2,lag=10,type="Ljung-Box")

13

Sia il grafico che la statistica di Ljung – Box evidenziano la presenza di
correlazione tra i rendimenti al quadrato.
Analogamente si analizza la correlazione tra i rendimenti in valore assoluto.

14

Anche per quanto riguarda i rendimenti in valore assoluto sussiste un certo
grado di dipendenza lineare anche a lag molto elevati.
Tra i vari strumenti grafici utilizzati per verificare la presenza di autocorrelazione
vi sono i lag plot.
lag.plot(r,lags=10,do.lines=F,main="Diagrammi di autodispersione per i
rendimenti")

Questo particolare andamento a rosa dei punti segnala l’assenza di correlazione
tra i rendimenti e suoi ritardati ma mette in evidenza la presenza di
eteroschedasticità nei dati.
Andamento completamente diverso è quello che si osserva per i rendimenti al
quadrato e per quelli in valore assoluto.
lag.plot(r^2,lags=6,do.lines=F,main="Diagrammi di autodispersione per i
rendimenti al quadrato")
15

lag.plot(abs(r),lags=6,do.lines=F,main="Diagrammi di autodispersione per i
rendimenti in valore assoluto")

Da entrambi i grafici emerge una qualche forma di struttura, a conferma del
fatto che sia i rendimenti al quadrato che quelli in valore assoluto risultano
essere correlati.

16

Un’altra forma di correlazione è quella tra rendimenti e rendimenti al quadrato
e tra rendimenti e rendimenti in valore assoluto, che permette di valutare la
presenza o meno di effetto leva.
ccf(x=r^2,y=r,lag.max=NULL,type="correlation",plot=TRUE,main="Correlazio
ne tra rendimenti al quadrato e rendimenti")# per default correlation,
specificare covariance se autocovarianza
ccf(x=abs(r),y=r,lag.max=NULL,type="correlation",plot=TRUE,main="Correlaz
ione tra rendimenti in valore assoluto e rendimenti")

I grafici evidenziano l’assenza di leverage effect.
17

Analisi della varianza condizionata
In questa sezione verranno presentati diversi modelli con l’obiettivo di stimare
il miglior modello per la volatilità dei rendimenti. Ipotesi fondamentale affinché
sia lecito applicare questa metodologia è la presenza di persistenza nei
rendimenti (effetto ARCH).
McLeod.Li.test(y=r)

Attraverso il test di Mc Leod Li si nota che nei rendimenti vi è una persistenza
abbastanza lunga poiché, a tutti i lag considerati, si rifiuta l’ipotesi di assenza di
effetto ARCH.
18

Questo risultato non sorprende poiché tutta la metodologia che verrà
presentata si basa sulla persistenza nei dati, infatti, in caso contrario non
avrebbe senso modellare la volatilità dei rendimenti.
Per la ricerca del migliore modello verrà utilizzato un ciclo di for automatizzato
per definire la distribuzione condizionata delle innovazioni: verrà scelta la
distribuzione condizionata che avrà come risultato il valore più alto (o più basso
in caso di risultati negativi) degli Information Criteria e LLH.
Per il pacchetto fGarch si utilizza la seguente funzione, al variare dell’ordine p
del modello ARCH.
cond_dist<-c("norm", "snorm", "std", "sstd", “QMLE”)
n<-length(cond_dist)
scelta<-matrix(0,n,4)
rownames(scelta)<-cond_dist
for (i in 1:n) {
stima = garchFit(~ garch(p,q), data = r,cond.dist=cond_dist[i], trace =
FALSE,include.mean=F)
scelta[i,1]<-stima@fit$ics[1];
scelta[i,2]<-stima@fit$ics[2];
scelta[i,3]<stima@fit$ics[3]
scelta[i,4]<-stima@fit$ics[4]
}
colnames(scelta)<-names(stima@fit$ics)
minAic<-min(scelta[,1]); D1<-names(which(scelta[,1]==minAic))
minBic<-min(scelta[,2]); D2<-names(which(scelta[,2]==minBic))
minSic<-min(scelta[,3]); D3<-names(which(scelta[,3]==minSic))
minHqic<-min(scelta[,4]);D4<-names(which(scelta[,4]==minHqic))
dist_BM<-c(D1,D2,D3,D4)
Per quanto riguarda il pacchetto rugarch si utilizza la seguente funzione:
cond_dist<-c("norm","snorm", "std", "sstd")
n<-length(cond_dist); scelta<-matrix(0,n,1); rownames(scelta)<-cond_dist
for (i in 1:n) {
modello<-ugarchspec(variance.model=list(model="fGARCH",
garchOrder=c(1,1), submodel="GARCH"),
mean.model=list(armaOrder=c(0,0),include.mean=FALSE),distribution.model=
cond_dist[i])
stima<-ugarchfit(data=r, spec=modello,out.sample=100,trace=F)
scelta[i,1]<-stima@fit$LLH
19

}
Distribuzione<-names(which(scelta[,1]==max(scelta)))
modello
<ugarchspec(variance.model=list(model="model",garchOrder=c(p,q),submodel
="submodel"),
mean.model=list(armaOrder=c(0,0),include.mean=FALSE),distribution.model=
Distribuzione)
stima<-ugarchfit(data=r, spec=modello,out.sample=100,trace=F)
stima
ARCH(1)
Arch1<- garchFit(~ garch(1,0), data
FALSE,include.mean=F); summary(Arch1)

20

=

r,cond.dist="std",

trace

=

I parametri che definiscono l’equazione della volatilità sono tutti
significativamente diversi da 0. Per quanto riguarda i vari test riportati sui residui
si nota che:
 Jarque-Bera e Shapiro-Wilk Tests suggeriscono di rifiutare l’ipotesi di
normalità dei residui, ma questo è un risultato aspettato data l’ipotesi di
distribuzione condizionata t Student per le innovazioni;
 il test di Ljung – Box effettuato sui residui a lag 10 porta ad accettare
l’incorrelazione ma effettuato a lag successivi e sui residui standardizzati
al quadrato porta a rifiutare l’ipotesi nulla, residui correlati.

ARCH(2)

21

Con il modello ARCH(2) e distribuzione condizionata delle innovazioni t Student
si ottengono ancora parametri significativamente diversi da 0. I test di Ljung Box
effettuati sui residui standardizzati affermano l’incorrelazione anche a lag più
elevati rispetto al modello ARCH(1), ma sussiste ancora correlazione tra i residui
al quadrato, come si evince anche dal seguente grafico.
res_stan<-residuals(Arch2,standardize=TRUE)
acf(res_stan^2,lag.max=NULL,type="correlation",plot=TRUE,main="Autocorr
elazione globale dei residui standardizzati al quadrato")

ARCH(3)
Arch3<- garchFit(~ garch(3,0),
FALSE,include.mean=F)
summary(Arch3)

data

22

=

r,cond.dist="std",

trace

=

I test sui residui standardizzati al quadrato evidenziano ancora un certo grado di
correlazione e la persistenza non è stata catturata dal modello.
ARCH(4)
Arch4<- garchFit(~ garch(4,0),
FALSE,include.mean=F)
summary(Arch4)

data

23

=

r,cond.dist="std",

trace

=

Passando da un ARCH(3) ad un modello ARCH(4) si ottiene l’incorrelazione dei
residui al quadrato per lag pari a 15. Tuttavia dal LM Arch Test si nota che la
persistenza non è stata del tutto catturata.
ARCH(5)
Arch5<- garchFit(~ garch(5,0),
FALSE,include.mean=F)
summary(Arch5)

data

24

=

r,cond.dist="std",

trace

=

La stima del modello ARCH(5) con distribuzione condizionata delle innovazioni
std presenta parametri che risultano avere un p value prossimo allo 0 che
consente di rifiutare l’ipotesi di nullità del parametro. Il test Ljung Box sia sui
residui che su quelli al quadrato, a diversi lag, porta ad accettare l’ipotesi di
incorrelazione. Il test sull’effetto ARCH suggerisce di accettare l’ipotesi nulla,
assenza di effetto ARCH, per cui il modello ha assorbito la persistenza.
A conferma del LM Arch test si esegue il test di Mc Leod sui residui standardizzati
e i residui standardizzati al quadrato.
res_stan<-residuals(Arch5,standardize=TRUE)
McLeod.Li.test(y=res_stan, main="Effetto Arch residui standardizzati")
McLeod.Li.test(y=res_stan^2, , main="Effetto Arch residui standardizzati al
quadrato")

25

GARCH(1,1)

26

27

La stima della volatilità condizionata passa ora per modelli più complessi:
modelli GARCH (p,q).
Attraverso la funzione ugarchfit si stima un modello GARCH(1,1) ottenendo i
seguenti risultati dei test:
 tutti i parametri, ad eccetto dell’intercetta, risultano significativamente
diversi da 0.
 Weighted Ljung Box sui residui standardizzati: con un livello di
significatività pari all’1% si accetta l’ipotesi di incorrelazione.
 Weighted Ljung Box sui residui standardizzati al quadrato suggerisce di
accettare l’ipotesi di incorrelazione con un p value alto.
 ARCH LM test porta ad accettare l’ipotesi di non effetto ARCH: il modello
ha quindi assorbito la persistenza.
 Sign Bias Test consentono di valutare l’effetto leva. Il joint test indica
assenza di effetto leva, come c’era da aspettarsi.
GARCH(2,1)

28

Si stima ora un modello GARCH(2,1), per il quale si ottengono i seguenti risultati:
 Per quanto riguarda i parametri sia l’intercetta che α2 risultano
significativamente uguali a 0, per cui non risultano rilevanti nello spiegare
la volatilità condizionata;
 Weighted Ljung Box sui residui standardizzati: i valori del p value portano
a rifiutare l’ipotesi di incorrelazione dei residui standardizzati anche a lag
più alti;
29

 Weighted Ljung Box sui residui standardizzati al quadrato: a tutti i lag
considerati si accetta l’ipotesi di incorrelazione;
 Per quanto riguarda l’effetto Arch, i valori del LM Arch test suggeriscono
di accettare il fatto che la persistenza è stata catturata dal modello.

GARCH (1,2)

30

Analizzando i risultati dei test per il modello GARCH (1,2) si può osservare che:
 Tutti i parametri risultano essere significativamente diversi da 0 e quindi
utili per spiegare la volatilità condizionata dei rendimenti;
 Weighted Ljung Box sui residui standardizzati: come nei modelli
precedentemente stimati, sussiste ancora correlazione tra i residui
standardizzati;
 I valori del test Weighted Ljung Box sui residui standardizzati al quadrato
stabilisce la loro incorrelazione;
 LM Arch test consente di accettare l’ipotesi di assenza effetto ARCH.
GARCH (2,2)

31

32

La stima del modello GARCH di ordine 2,2 presenta il seguente output:
 Parametri: come per il modello GARCH (2,1) sia l’intercetta che α2 non
risultano rilevanti nel definire l’equazione della volatilità condizionata;
 Weighted Ljung Box sui residui standardizzati: si accetta, per diversi
ritardi, l’ipotesi di correlazione dei residui standardizzati;
 Weighted Ljung Box sui residui standardizzati al quadrato: in base ai valori
del p-value di questa statistica test i residui standardizzati al quadrato
risultano non essere correlati;
 Il test sulla presenza di effetto ARCH suggerisce di accettare l’idea che la
persistenza è stata catturata dal modello.
La selezione del miglior modello passa ora attraverso i modelli T-GARCH che
prevedono un diverso comportamento della volatilità in relazione al fatto che
l’innovazione passata superi una certa soglia.
T-GARCH(1,1)

33

34

La stima del modello T-GARCH(1,1), con distribuzione condizionata delle
innovazioni sstd, risulta avere tutti i parametri, ad eccetto di η11 ,
significativamente diversi da 0. Un η11 pari a 0 incide sulla validità del modello
T GARCH poiché misura l’effetto differenziato degli shock negativi e quindi
l’effetto leva. Il test di Ljung Box sui residui standardizzati e su quelli al quadrato
suggeriscono di accettare l’ipotesi di incorrelazione anche a lag elevati.
Con l’ ARCH LM test si nota come il modello abbia assorbito la persistenza e dai
Sign Bias Test, in particolare il test congiunto, si può osservare l’assenza di
effetto leva.
T-GARCH(2,1)

35

Il modello T-GARCH(2,1), stimato attaverso la funzione rugarchFit, presenta
alcuni parametri non significativamente diversi da 0. Per tali ragioni questo
modello è da scartare a priori.

36

T-GARCH(1,2)

37

La stima della varianza condizionata con un modello T-GARCH(1,2) e una
distribuzione condizionata delle innovazioni t student asimmetrica risulta avere
i parametri significativamente diversi da 0, con unica eccezione del parametro
η11. Come già accaduto con gli altri modelli T-GARCH, dopo la stima, i residui
standardizzati semplici e al quadrato risultano incorrelati (risultato ottenuto dal
test di Ljung Box) e non vi è presenza di effetto Arch.

38

T-GARCH(2,2)

39

Il modello T-GARCH(2,2) risulta non essere un buon modello per la stima della
volatilità condizionata poiché il parametro β2 non è significativamente diverso
da 0, così come i parametri η11 ed η12. La non significatività di questi parametri
porta a scartare a priori questo modello senza controllare le altre diagnostiche.

40

E-GARCH(p,q)
Si stima la varianza condizionata utilizzando i modelli E-GARCH. Eseguendo il
ciclo for che si è introdotto in precedenza per la scelta della distribuzione
condizionata delle innovazioni, si osserva che la distribuzione delle innovazioni
che massimizza la stima rende alcuni parametri significativamente uguali a zero.
E-GARCH(1,1)

E-GARCH(2,1)

E-GARCH(1,2)

E-GARCH(2,2)

Per tali ragioni, nei modelli E-GARCH, la distribuzione delle innovazioni
condizionate sarà una normale asimmetrica. Questa distribuzione fa in modo
che i parametri stimati del modello siano significativamente diversi da 0.
E-GARCH(1,1)

41

42

Il modello stimato attraverso una distribuzione delle innovazioni condizionate
di tipo normale asimmetrico, oltre ad avere tutti parametri significativamente
non nulli, ha catturato la persistenza e i residui standardizzati e al quadrato
risultano essere incorrelati.
E-GARCH(1,2)

43

Il modello di E-GARCH di ordine (1,2) non si discosta di molto dalle stime
ottenute col modello di ordine (1,1); infatti l’effetto Arch risulta catturato e i
residui standardizzati appaiono incorrelati.

44

Si è stimata la varianza condizionata anche attraverso un modello E-GARCH(2,1)
ed E-GARCH(2,2) ma in entrambi i casi, qualsiasi sia la distribuzione delle
innovazioni, i parametri stimati non risultano essere significativamente diversi
da 0. Per tali ragioni i due modelli non sono presi in considerazione per la scelta
del miglior modello.
Si potrebbe verificare che, in un modello GARCH(1,1), ad esempio, α1+β1 non
risulta essere significativamente diverso da 1, causando la non finitezza di alcuni
momenti della distribuzione non condizionata delle innovazioni. A tal proposito
si utilizzano i modello I-GARCH (p,q).

I-GARCH(1,1)

45

La stima del modello I-GARCH (1,1) fornisce parametri tutti significativamente
diversi da 0, ad eccezione del fatto che non è possibile stimare β1. Il modello
elimina la correlazione tra i residui standardizzati al quadrato ma non riesce a
catturarla per i residui semplici. Il modello cattura la persistenza come si evince
dal LM Arch Test.
I-GARCH(1,2)

46

47

Cercando di modellare la varianza condizionata con un modello I-GARCH (1,2)
con distribuzione condizionata delle innovazioni t Student asimmetrica, si
ottengono tutti i parametri significativamente diversi da 0, ad eccezione del
fatto che la funzione non è in grado di stimare β2. La persistenza è stata
catturata dal modello, cosi come risultano essere incorrelati, a diversi lag, i
residui standardizzati al quadrato. Il Weighted Ljung Box sui residui
standardizzati suggerisce la presenza di correlazione.
Stimando i modelli I-GARCH (2,1) e I-GARCH (2,2), con diversi tipi di
distribuzioni condizionate, si ottengono parametri non significativamente
diversi da 0. Quindi, dal momento che questi due modelli non concorrono a
candidarsi tra i migliori per modellare la varianza condizionata, che non se ne
riporta l’ouput.
Un caso particolare dei modelli I-GARCH si ha quando α1+β1=1 e si pone α1=1-λ
e β1= λ, dove λ è un parametro dell’intervallo [0,1]. Questi modelli sono noti
come modelli EWMA, Exponential Weighted Moving Average.
EWMA(1,1)

48

49


Documenti correlati


Documento PDF skyline
Documento PDF finanziario internationale di aiuto reciproco goldline
Documento PDF blackrock il 37 delle donne italiane si dimostra ottimista sul futuro finanziario
Documento PDF jeunessepianocompensi ita web
Documento PDF juvetoro n 22   torino laziobassaok
Documento PDF 91039 delcc 2012 30 v2


Parole chiave correlate