Dato un campione da una distribuzione normale, i cui parametri sono sconosciuti, è possibile dare intervalli di predizione in senso frequentista, cioè, un intervallo basato sulla statistica del campione tale che su esperimenti ripetuti, Xn+1 cade nell’intervallo la percentuale desiderata di volte; si possono chiamare “intervalli di confidenza predittivi”.

Una tecnica generale di intervalli di predizione frequentista è trovare e calcolare una quantità cardine delle osservabili X1, …., Xn, Xn+1 – cioè una funzione di osservabili e parametri la cui distribuzione di probabilità non dipende dai parametri – che può essere invertita per dare una probabilità che l’osservazione futura Xn+1 cada in un certo intervallo calcolato in termini dei valori osservati finora, X 1 , … , X n . {\displaystyle X_{1},\punti ,X_{n}.}

Una tale quantità pivotale, dipendente solo da osservabili, è chiamata statistica ausiliaria. Il metodo usuale per costruire le quantità cardine è quello di prendere la differenza di due variabili che dipendono dalla posizione, in modo che la posizione si annulli, e poi prendere il rapporto di due variabili che dipendono dalla scala, in modo che la scala si annulli.La quantità cardine più familiare è la statistica t di Student, che può essere derivata con questo metodo e viene utilizzata nel seguito.

Media nota, varianza notaModifica

Un intervallo di previsione per un’osservazione futura X in una distribuzione normale N(µ,σ2) con media e varianza note può essere calcolato da

γ = P ( ℓ < X < u ) = P ( ℓ – μ σ < X – μ σ < u – μ σ ) = P ( ℓ – μ σ < Z < u – μ σ ) , {\displaystyle \gamma =P(\ell <X<u)=P\left({frac {\frac {\ell -\mu }{sigma }<{frac {X-\mu }{sigma }<{\frac {u-\)=P\sinistra({\frac {ell -\mu }<Z<{frac {u-\mu}<{frac {u-\mu }{sigma}}destra),}

dove Z = X – μ σ {\displaystyle Z={frac {X-\mu }{sigma }}

, il punteggio standard di X, è distribuito come normale standard.

Quindi

ℓ – μ σ = – z , u – μ σ = z , {\displaystyle {\frac {\ell -\mu }{sigma }=-z,\quad {\frac {u-\mu }=z,}

o

ℓ = μ – z σ , u = μ + z σ , {displaystyle \ell =\mu -z\sigma,\quad u=\mu +z\sigma,}

con z il quantile nella distribuzione normale standard per cui:

γ = P ( – z < Z < z ) . {\displaystyle \gamma =P(-z<Z<z).}

o equivalentemente;

1 2 ( 1 – γ ) = P ( Z > z ) . (1 – γ )=P(Z>z )=P(1 – γ )=P(Z>z ).

Previsione
intervallo
z
75% 1.15
90% 1.64
95% 1.96
99% 2.58
Intervallo di previsione (sull’asse y) dato da z (il quantile del punteggio standard, sull’asse x). L’asse y è compressa logaritmicamente (ma i valori su di essa non sono modificati).

L’intervallo di previsione è convenzionalmente scritto come:

. {\displaystyle \left.}

Per esempio, per calcolare l’intervallo di predizione del 95% per una distribuzione normale con una media (µ) di 5 e una deviazione standard (σ) di 1, allora z è circa 2. Pertanto, il limite inferiore dell’intervallo di previsione è approssimativamente 5 – (2-1) = 3, e il limite superiore è approssimativamente 5 + (2-1) = 7, dando così un intervallo di previsione di circa 3 a 7.

Diagramma che mostra la funzione di distribuzione cumulativa per la distribuzione normale con media (µ) 0 e varianza (σ2) 1. Oltre alla funzione quantile, l’intervallo di previsione per qualsiasi punteggio standard può essere calcolato da (1 – (1 – Φµ,σ2(punteggio standard))-2). Per esempio, un punteggio standard di x = 1,96 dà Φµ,σ2(1,96) = 0,9750 corrispondente a un intervallo di previsione di (1 – (1 – 0,9750)-2) = 0,9500 = 95%.

Stima dei parametriModifica

Per una distribuzione con parametri sconosciuti, un approccio diretto alla previsione è quello di stimare i parametri e poi usare la funzione quantile associata – per esempio, si potrebbe usare la media del campione X ¯ {displaystyle {\overline {X}}}

come stima per μ e la varianza campionaria s2 come stima per σ2. Si noti che ci sono due scelte naturali per s2 qui – dividendo per ( n – 1 ) {\displaystyle (n-1)}

produce una stima imparziale, mentre dividendo per n si ottiene lo stimatore di massima verosimiglianza, e si possono usare entrambi. Si usa quindi la funzione quantile con questi parametri stimati Φ X ¯ , s 2 – 1 {\displaystyle \Phi _{{overline {X}},s^{2}}^{-1}}

per dare un intervallo di previsione.

Questo approccio è utilizzabile, ma l’intervallo risultante non avrà l’interpretazione di campionamento ripetuto – non è un intervallo di confidenza predittivo.

Per il seguito, usare la media del campione:

X ¯ = X ¯ n = ( X 1 + ⋯ + X n ) / n {\displaystyle {\overline {X}}={overline {X}}_{n}=(X_{1}+\punti +X_{n})/n}

e la varianza campionaria (imparziale):

s 2 = s n 2 = 1 n – 1 ∑ i = 1 n ( X i – X ¯ n ) 2 . {\displaystyle s^{2}=s_{n}^{2}={1 \over n-1}\sum _{i=1}^{n}(X_{i}-{overline {X}}_{n})^{2}.}

Media sconosciuta, varianza notaModifica

Data una distribuzione normale con media sconosciuta μ ma varianza nota 1, la media del campione X ¯ {displaystyle {\overline {X}}}

delle osservazioni X 1 , … , X n {\displaystyle X_{1},\punti ,X_{n}}

ha distribuzione N ( μ , 1 / n ) , {\displaystyle N(\mu ,1/n),}

mentre l’osservazione futura X n + 1 {\displaystyle X_{n+1}

ha distribuzione N ( μ , 1 ) . {\displaystyle N(\mu ,1).}

Prendendo la differenza di questi annulla il μ e produce una distribuzione normale di varianza 1 + ( 1 / n ) , {\displaystyle 1+(1/n),}

quindi X n + 1 – X ¯ 1 + ( 1 / n ) ∼ N ( 0 , 1 ) . {Il risultato è che X n + 1 – X ¯ 1 + ( 1 / n ) ∼ N ( 0 , 1 ) è il risultato di una combinazione di X n + 1 – X ¯ 1 + ( 1 / n ) ∼ N ( 0 , 1 ) .

Risolvendo per X n + 1 {\displaystyle X_{n+1}}

dà la distribuzione di previsione N ( X ¯ , 1 + ( 1 / n ) ) , {\displaystyle N({\overline {X}},1+(1/n)),}

da cui si possono calcolare intervalli come prima. Questo è un intervallo di confidenza predittivo nel senso che se si usa un intervallo quantile del 100p%, allora su applicazioni ripetute di questo calcolo, l’osservazione futura X n + 1 {\displaystyle X_{n+1}}

cadrà nell’intervallo previsto il 100p% delle volte.

Si noti che questa distribuzione di previsione è più conservativa dell’uso della media stimata di X ¯ {displaystyle {overline {X}}}

e la varianza nota 1, poiché questa utilizza la varianza 1 + ( 1 / n ) {\displaystyle 1+(1/n)}

, quindi produce intervalli più ampi. Questo è necessario per mantenere la proprietà dell’intervallo di confidenza desiderata.

Media nota, varianza sconosciutaModifica

Inversamente, data una distribuzione normale con media nota 0 ma varianza sconosciuta σ 2 {displaystyle \sigma ^{2}

, la varianza campione s 2 {displaystyle s^{2}

delle osservazioni X 1 , … , X n {\displaystyle X_{1},\punti ,X_{n}}

ha, fino alla scala, a χ n – 1 2 {\displaystyle \scriptstyle \chi _{n-1}^{2}}

; più precisamente: ( n – 1 ) s n 2 σ 2 ∼ χ n – 1 2 . {displaystyle {\frac {(n-1)s_{n}^{2}}{sigma ^{2}}}{sim \chi _{n-1}^{2}.}

mentre l’osservazione futura X n + 1 {\displaystyle X_{n+1}

ha distribuzione N ( 0 , σ 2 ) . {\displaystyle N(0,\sigma ^{2}).

Prendendo il rapporto tra l’osservazione futura e la deviazione standard del campione si annulla la σ, ottenendo una distribuzione t di Student con n – 1 gradi di libertà: X n + 1 s ∼ T n – 1 . {La distribuzione t di Student con n – 1 gradi di libertà è la seguente: X n + 1 s ∼ T n – 1 .

Solvendo per X n + 1 {\displaystyle X_{n+1}}

dà la distribuzione di previsione s T n – 1 , {displaystyle sT^{n-1},}

da cui si possono calcolare gli intervalli come prima.

Si noti che questa distribuzione di previsione è più conservativa dell’uso di una distribuzione normale con la deviazione standard stimata s {\displaystyle s}

e media nota 0, poiché utilizza la distribuzione t invece della distribuzione normale, e quindi produce intervalli più ampi. Questo è necessario per mantenere la proprietà dell’intervallo di confidenza desiderata.

Media sconosciuta, varianza sconosciutaModifica

Combinando quanto sopra per una distribuzione normale N ( μ , σ 2 ) {\displaystyle N(\mu ,\sigma ^{2})}

con entrambi μ e σ2 sconosciuti produce la seguente statistica accessoria: X n + 1 – X ¯ n s n 1 + 1 / n ∼ T n – 1 . {displaystyle {{frac {X_{n+1}-{overline {X}}_{n}}{s_{n}{sqrt {1+1/n}}}}\sim T^{n-1}.}

Questa semplice combinazione è possibile perché la media campionaria e la varianza campionaria della distribuzione normale sono statistiche indipendenti; questo è vero solo per la distribuzione normale, e infatti caratterizza la distribuzione normale.

Solvendo per X n + 1 {\displaystyle X_{n+1}}

si ottiene la distribuzione di previsione X ¯ n + s n 1 + 1 / n ⋅ T n – 1 . {displaystyle {overline {X}}_{n}+s_{n}{sqrt {1+1/n}}cdot T^{n-1}.}

La probabilità di X n + 1 {\displaystyle X_{n+1}

cadendo in un dato intervallo è quindi: Pr ( X ¯ n – T a s n 1 + ( 1 / n ) ≤ X n + 1 ≤ X ¯ n + T a s n 1 + ( 1 / n ) ) = p {\displaystyle \Pr \left({\overline {X}}_{n}-T_a}s_{n}{sqrt {1+(1/n)}}leq X_{n+1}{leq {{overline {X}}_{n}+T_a}s_{n}{sqrt {1+(1/n)},\destra)=p}

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.