UNIVERSITÀ DEGLI STUDI DI TORINO
DIPARTIMENTO DI MATEMATICA GIUSEPPE PEANO
SCUOLA DI SCIENZE DELLA NATURA
Corso di Laurea in Matematica per la Finanza e l’Assicurazione
Tesi di Laurea Triennale
Test sequenziali con applicazioni al moto browniano
Relatore: Cristina Zucca
Candidato: Fabrizio Lasaponara
ANNO ACCADEMICO 2014/2015
Indice
1 Teoria classica sui test di ipotesi: concetti di base
3
2 Test di ipotesi sequenziale
2.1 Nozione iniziale di test sequenziale . . . . . . . . . . . . . . . . .
2.2 Conseguenze della scelta di ogni particolare test . . . . . . . . . .
2.2.1 La funzione Operating Characteristic (OC) . . . . . . . .
2.2.2 La funzione Average Sample Number (ASN) . . . . . . .
2.3 Principi di selezione di un sequential test . . . . . . . . . . . . . .
2.3.1 Livello di preferenza per accettazione e rifiuto dell’ipotesi
nulla . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Condizioni imposte dall’OC function . . . . . . . . . . .
2.3.3 ASN come base per la scelta di un test sequenziale . . . .
2.4 Ipotesi semplici per un test sequenziale . . . . . . . . . . . . . . .
2.4.1 Efficienza di un test sequenziale . . . . . . . . . . . . . .
11
13
14
14
14
3 SPRT con ipotesi semplici
3.1 Definizione di sequential probability ratio test . . .
3.2 Disuguaglianze utili per la scelta A e B in un SPRT
3.3 Scelta di A e B in casi pratici . . . . . . . . . . . .
3.4 Funzione OC per un sequential probability ratio test
3.5 ASN di un SPRT . . . . . . . . . . . . . . . . . .
.
.
.
.
.
16
16
17
18
19
21
4 Test sequenziali di ipotesi unilaterali
4.1 Test di ipotesi semplici . . . . . . . . . . . . . . . . . . . . . . .
4.2 Test di ipotesi semplici contro alternative in un’unica direzione . .
23
23
24
5 SPRT caso variabile di Bernoulli
5.1 Presentazione del problema . . . . . . . . . . . . . . . . . . . . .
5.2 Implementazione del SPRT caso Bernoulli . . . . . . . . . . . . .
5.3 Funzione OC caso Bernoulli . . . . . . . . . . . . . . . . . . . .
25
25
26
29
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
9
9
10
11
6 Caso variabile Normale
6.1 Presentazione del problema . . . . . . . . . . . . . . . . . . . . .
6.2 Implementazione del SPRT caso normale . . . . . . . . . . . . .
6.3 Considerazioni sul numero di iterate necessarie al termine del test
6.4 Confronto SPRT con test di Neyman Pearson caso Normale . . . .
6.5 Applicazioni del SPRT al moto browniano . . . . . . . . . . . . .
6.6 Alcuni richiami sul moto browniano . . . . . . . . . . . . . . . .
6.7 Presentazione del problema . . . . . . . . . . . . . . . . . . . . .
6.8 Individuazione del cambiamento nel drift . . . . . . . . . . . . .
6.9 Tempi di individuazione . . . . . . . . . . . . . . . . . . . . . .
6.10 Analisi del metodo . . . . . . . . . . . . . . . . . . . . . . . . .
6.10.1 Sottostima . . . . . . . . . . . . . . . . . . . . . . . . .
6.10.2 Dipendenza dai parametri . . . . . . . . . . . . . . . . .
30
30
31
31
33
35
35
35
36
38
39
39
42
7 Conclusioni
46
8 Appendice
8.1 Codice matlab: Sequential Probability Ratio Test caso Bernoulli
8.2 Codice matlab: sequential probability ratio test caso Normale . .
8.3 Neyman test . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4 Test sul Moto Browniano . . . . . . . . . . . . . . . . . . . . .
47
47
48
49
49
3
.
.
.
.
Introduzione
Questa tesi nasce motivata dal problema dell’individuazione del momento in cui
un moto browniano cambia il suo drift. Ne deriva la necessità di studiare in modo più approfondito la distribuzione dei tempi necessari all’identificazione del
cambiamento. La questione viene affrontata attraverso gli strumenti della teoria
rigurdante la "Sequential Analysis".
La teoria classica del disegno di esperimenti è principalmente basata su metodi
a numerosità campionaria fissata. In questi test i dati vengono analizzati una sola
volta e la dimensione del campione è prederminata. In alternativa a tali metodi si
possono utilizzare test sequenziali. Quando si adotta questo tipo di analisi i dati
sono, invece, monitorati man mano che vengono raccolti. Lo scopo principale è
di trarre informazioni utili nel minor tempo possibile al fine di anticipare i tempi
di scelta o di intervento nella modifica di design del test. Questa teoria permette,
appunto, di effettuare test che abbiano il valore atteso del numero di campioni
esaminati minore rispetto a test di ipotesi classici con i medesimi errori di prima
e seconda specie.
L’albore di questo tipo di approccio prende piede negli anni ’20 motivato dalla necessità del controllo qualità nelle linee di produzione dalle idee di Walter
Shewhart, che successivamente diventerà il padre della più moderna teoria statistica sul controllo qualità. Il metodo sequenziale diventa di centrale importanza
durante la seconda guerra mondiale poiché la produzione di massa di equipaggiamenti militari e navali richiedeva procedure di controllo qualità sempre più rapide e che garantissero comunque errori molto contenuti. In quegli anni Abraham
Wald, con i membri del gruppo di ricerca statistica della Columbia University,
stava affrontando questi problemi. Egli per primo introdusse la nozione iniziale di
Sequential probability ratio test (SPRT) ispirato al lemma di Neyman Pearson. Ci
sono numerose ragioni per cui si predilige un’analisi intervallare dei dati; esse si
possono riassumere in economiche, etiche e amministrative.
I sequential test nascono proprio per ragioni economiche nell’ambito del controllo qualità. L’esito positivo o negativo di un test si riflette, economicamente,
nell’immissione immediata di un prodotto nel mercato o nell’arresto anticipato
di esso dalla produzione. I metodi sequenziali conducono, generalmente, ad un
1
risparmio nel numero di campioni esaminati, quindi tempo e costi (anche costo
opportunità).
Le ragioni amministrative riguardano il bisogno di assicurare che l’esperimento sia condotto come pianificato, che i soggetti soddisfino i criteri di selezione e
che i trattamenti siano applicati come indicato. A volte un controllo iniziale dei risultati potrebbe rivelare la presenza di problemi, dando la possibilità di rimediare
prima di sprecare troppe risorse o denaro. Un altro aspetto è la necessità di controllare la validità delle assunzioni fatte nel pianificare l’esperimento; eventuali
assunzioni inappropriate possono quindi essere corrette in tempo.
Negli esperimenti su persone, l’etica spinge a tenere sotto controllo costante i
risulati, per evitare che i pazienti siano sottoposti a trattamenti poco sicuri, inferiori o non efficaci. Ragioni etiche spingono inoltre a concludere l’esperimento il
prima possibile, in modo da poter utilizzare la terapia migliore, se viene rilevata
la superiorità, o per poter concentrare le energie su altri trattamenti promettenti in
attesa di essere valutati, nel caso in cui non vengano rilevate differenze.
Il contributo che questa tesi desidera apportare è quello di presentare i modo semplice i pilastri della moderna teoria "Sequential Analysis" e alcune applicazioni
dei Sequential Probability Ratio Test.
Nel primo capitolo daremo alcune definizioni basilari per lo sviluppo degli argomenti successivi. Nel secondo capitolo illustreremo la teoria sequenziale partendo
dalla nozione di sequential test. Nel terzo ci soffermeremo su un particolare test
sequenziale chiamato "Sequentisl Probability Ratio Test". Il quarto è un breve
capitolo in cui si effettuano considerazioni sui test di ipotesi semplici contro alternative unilaterali. Nei capitoli finali vengono presentate alcune applicazioni del
Sequential Probability Ratio Test.
Tutti gli algoritmi sviluppati sono stati implementati facendo uso del software
Matlab e in appendice si possono trovare i codici più importanti.
2
Capitolo 1
Teoria classica sui test di ipotesi:
concetti di base
Prima di introdurre la teoria riguardante l’analisi sequenziale è necessario fornire
alcune definizioni ed importanti risultati statistici propedeutici alla comprensione
dell’argomento. Per eventuali approfondimenti si rimanda al testo G. Casella,
R.L. Berger "Statistical Inference", Duxbury Press, 2001.
Definizione 1. Nel calcolo delle probabilità lo spazio campionario o insieme universo (generalmente indicato dalle lettera Ω) è l’insieme dei possibili risultati di
un esperimento casuale.
Definizione 2. Sia X una variabile aleatoria discreta, la sua densità discreta pX pxq “
PpX “ xq @x, ovvero una funzione di variabile reale che assegna ad ogni valore
possibile di X la probabilità dell’evento elementare pX “ xq.
Nel caso in cui la variabile casuale X sia continua, allora tale probabilità è
sempre nulla, quindi questa definizione è inutile. Si utilizza la funzione di densità
di probabilità. pX pxq descrive nel caso continuo la "densità" di probabilità in ogni
punto nello spazio campionario ed è tale che
ż
PpX P Aq “ pX pxq d x
A
Definizione 3. Date due variabili aleatorie X e Y, definite sullo stesso spazio di
probabilità, si definisce la loro distribuzione congiunta
Fpx, yq “ PpX ď x, Y ď yq
Nel caso di due sole variabili, si parla di distribuzione bivariata, mentre nel caso
di più variabili si parla di distribuzione multivariata. La funzione di ripartizione
di una distribuzione congiunta è definita come più generalmente
Fpx1 , ..., xn q “ PpX1 ď x1 , ..., Xn ď xn q.
3
Nel caso di variabili aleatorie discrete, la densità discreta congiunta è data da
PpX “ x, Y “ yq “ PpY “ y | X “ xq ¨ PpX “ xq “ PpX “ x | Y “ yq ¨ PpY “ yq
Siccome la densità congiunta è anch’essa una densità, è soddisfatto
ÿÿ
PpX “ x , Y “ yq “ 1.
x
y
Nel caso di variabili aleatorie continue, la densità congiunta è data da
fX,Y px, yq “ fY|X py|xq fX pxq “ fX|Y px|yq fY pyq
Anche in questo caso, è soddisfatto
ż ż
fX,Y px, yq dy dx “ 1.
x
y
Definizione 4. Due variabili aleatorie si dicono indipendenti se
PpX “ x, Y “ yq “ PpX “ xqPpY “ yq.
Definizione 5. Sia n P R, un campione casuale di taglia n corrisponde a n realizzazioni px1 , x2 , ..., xn q delle variabili aleatorie Xi „ f p¨, θq indipendenti e identicamente distribuite. In questo caso chiameremo X „ f p¨, θq popolazione o variabile
aleatoria generatrice.
Definizione 6. Sia px1 , x2 , ..., xn q un campione casuale di taglia n estratto da una
popolazione X „ f p¨, θq, la funzione di verosimiglianza Lpθq è definita come la
densità congiunta delle variabili aleatorie X1 , X2 , .., Xn calcolata in px
ś1 , x2 , ..., xn q
con θ parametro libero. Dunque Lpθq “ fX1 ,X2 ,...,Xn px1 , x2 , ..., xn ; θq “ ni“1 fp xi ; θq
In statistica quando si vuole vericare la bontà di un’affermazione che ha come
oggetto accadimenti nel mondo reale(ipotesi), che si presta ad essere confermata
o smentita dai dati osservati sperimentalmente, si valuta l’attendibilità di essa con
il metodo del test di ipotesi statistico.
Definizione 7. Un test di ipotesi statistico è una procedura statistica volta a decidere se accettare o meno un’ipotesi.
Nella pratica si ha:
• un’ipotesi nulla H0 che rappresenta lo status quo, cioè che viene rifiutata
solo se c’è una evidenza in favore di H1
• un’ipotesi alternativa H1 che è quella che voglio effettivamente testare
4
Un test di ipotesi semplici è del tipo
#
H0 : θ “ θ0
H1 : θ “ θ1
un test di ipotesi composte è del tipo
#
H0 : θ “ θ0
H1 : θ ď θ1
un test di ipotesi bilaterali è del tipo
#
H0 : θ “ θ0
H1 : θ , θ1
La procedura del test consiste nell’associare ciascun campione appartenente allo
spazio campionario totale alla decisione di scegliere se accettare o rifiutare l’ipotesi nulla. In sostanza viene scelta una regola che divide l’intero spazio campionario
in due regioni: la regione di rifiuto e la regione di accettazione.
• @x “ px1 , x2 , .., xn q P Cpregione criticaq Ă χn rifiuto l’ipotesi nulla,
• @x “ px1 , x2 , .., xn q P C c pregione d1 accettazioneq Ă χn la accetto.
Il test condurrà ad una decisione che non può essere in assoluto quella corretta. Vi
sono due tipi di errori che possiamo commettere: di prima e seconda specie.
Definizione 8. L’errore di prima specie rappresenta l’errore che si commette nel
rifiutare l’ipotesi nulla quando questa è vera, mentre quello di seconda specie
consiste nell’accettare H0 quando questa è falsa.
Denotiamo con αpθq la Pperrore di prima specieq “ PpX P C; θ P Θ0 q e con
βpθq la Pperrore di seconda specieq “ PpX P C c ; θ P Θ1 q
Definizione 9. Si dice potenza del test la funzione Πpθq “ PpX P C; θq che
rappresenta la probabilità di rifiuto al variare di θ, dunque è:
#
αpθq
θ P Θ0
Πpθq “
1 ´ βpθq θ P Θ1
L’estremo superiore di Πpθq per θ P Θ0 si dice ampiezza del test e si denota con
α. Un buon test deve avere un’ampiezza molto piccola, generalmente compresa
tra 0, 1 e 0, 5, per poter rifiutare lo status quo.
5
Definizione 10. Un test y di ampiezza α per H0 : θ “ Θ0 contro H1 : θ “ Θ1
si dice uniformemente più potente se @ test y1 di ampiezza α1 ě α si ha β1 pθq ě
βpθq @ θ cioè la potenza Πpθq ě Π1 pθq @ θ
Lemma 11. Lemma di Neyman Pearson [2] sia px1 , x2 , .., xn q un campione casuale estratto da una popolazione X „ f p¨, θqq il test uniformemente più potente
di ampiezza α per il sistema di ipotesi semplici H0 : θ “ Θ0 contro H1 : θ “ Θ1 è
quello con l seguente regione di rifiuto:
C “ tpx1 , x2 , .., xn q |
Lpθ0 ; px1 , x2 , .., xn qq
ď ku
Lpθ1 ; px1 , x2 , .., xn qq
dove k è una costante determinata in modo che Ppx P Cq “ α
6
Capitolo 2
Test di ipotesi sequenziale
2.1 Nozione iniziale di test sequenziale
Un test è condotto sequenzialmente quando i dati vengono sottoposti ad analisi intermedie, man mano che sono disponibili. Si contrappone a questa analisi quella a
dimensione campionaria fissata, la quale esamina i dati una sola volta quando l’esperimento è concluso. Il disegno sequenziale è particolarmente indicato quando
la raccolta dati viene effettuata gradualmente in un intervallo di tempo. Ad ogni
analisi si decide se continuare o terminare l’esperimento in base ad una regola di
arresto definita in fase di pianificazione del test. Quando si ottiene evidenza in favore di una ipotesi tale da rendere superflua la continuazione dell’esperimento, è
possibile terminarlo anticipatamente. Il numero di iterate e dunque la dimensione
del campione del test sequenziale non è predeterminato, ma una variabile aleatoria
dipendente dalla regola d’arresto scelta e dall’outcome delle osservazioni. Più nel
dettaglio: una regola viene data e ad ogni step dell’esperimento viene effettuata
una di tre decisioni:
1. accettare l’ipotesi nulla
2. rifiutare l’ipotesi nulla
3. continuare l’esperimento facendo una nuova osservazione
Il processo continua fino a quando non si effettua una scelta tra 1 o 2.
Più formalmente:
@ m P N D Mm ” totalitá di tutti i possibli campioni px1 , x2 , ..., xm q
Pensiamo px1 , x2 , ..., xm q come ad uno spazio m-dimensionale e @ m partizioniamo
questo spazio in tre regioni: R0m , R1m , Rm . Dopo la prima osservazione decidiamo
se:
7
1. accettare l’ipotesi nulla se x1 giace in R0m
2. rifiutare l’ipotesi nulla se x1 giace in R1m
3. effettuare una seconda osservazione se x1 giace in Rm e decidiamo se:
(a) accettare l’ipotesi nulla se px1 , x2 q giace in R0m
(b) rifiutare l’ipotesi nulla se px1 , x2 q giace in R1m
(c) effettuare una terza osservazione se px1 , x2 q giace in Rm
Il processo, come si può intuire, termina se ci troviamo nelle regioni di spazio
campionario R0m e R1m , mentre continua ad iterarsi se ci troviamo nella regione Rm .
Dunque il test sequenziale è costituito dalla definizione di queste tre regioni. Se
R0m , R1m , Rm sono in somma diretta è sufficiente definire due delle tre regioni.
Definizione 12. px1 , x2 , ..., xm q è detto campione inefficace seŤ
contiene un segmen1
R0m . Un campione
to iniziale px1 , x2 , ..., xn q dove n ă m | px1 , x2 , ..., xn q P Rm
non inefficace è detto campione efficace.
Proposizione 13. Per effettuare un test sequenziale bisogna avere un campione
efficace per ogni step dell’esperimento. Nella definizione delle tre regioni vanno
dunque scartati tutti i campioni inefficaci.
Esempio 14. Consideriamo un lotto di n prodotti. Ogni prodotto può essere difettoso o non difettoso e p (valore sconosciuto) è la proporzione di prodotti difettosi
all’interno del lotto. Sia p1 un valore fissato, possiamo accettare il lotto se p ď p1
e rifiutarlo se p ą p1 . Sia n0 P N fissato:
• se le prime n0 unita sono non difettose allora fermiamo l’ispezione e accettiamo il lotto,
• se per qualche m ď n0 l’m-esima unità e difettosa allora fermiamo l’ispezione e rifiutiamo il lotto.
Assegniamo il valore 1 se il prodotto è difettoso e 0 se non difettoso. Si continua
l’ispezione se e solo se m ď n0 e inoltre, x1 “ x2 “ .... “ xm´1 “ 0. Dalle
definizioni precedenti possiamo dire che:
• R0m non contiene campioni efficaci per m ă n0 ; l’unico campione efficace si
ha con m “ n0 , dunque R0n0 “ p0, 0, ..., 0q dove il valore 1 si trova nel posto
n0 -esimo.
8
• R1m contiene n0 campioni di taglia m, ovvero { p0, 0, ..., 1q | il valore 1 si
trova all’m-esimo posto con m “ 1, 2, ...n0 }
• Rm contiene n0 campioni di taglia m, ovvero {p0, .., 0q | con m “ 1, 2, .., n0 }
Possiamo scegliere i set delle tre regioni in molteplici modi. Il fondamentale
problema, difatti, dei test di ipotesi sequenziali è effettuare una corretta scelta di
questi set.
2.2 Conseguenze della scelta di ogni particolare test
2.2.1 La funzione Operating Characteristic (OC)
Sia X la variabile aleatoria da cui estraggo il campione, X „ f px, θ1 , θ2 , ....θk q
la cui forma funzionale è conosciuta, mentre un numero finito di parametri è
sconosciuto. Effettuiamo una particolare scelta dei set di R0m , R1m e Rm
Definizione 15. La funzione operating characteristic (OC) equivale alla probabilità che il processo termini con l’accettazione dell’ipotesi nulla H0 . Questa funzione
dipende solo dalla distribuzione della variabile aleatoria X, dunque solamente dai
parametri pθ1 , θ2 , ....θk q. Per fare riferimento a questa funzione useremo la notazione Cpθq “funzione OC e se θ è unico sarà possibile rappresentarla sugli assi
cartesiani. Si può rilevare che la funzione operating charateristic è il coniugato
della funzione di potenza del test richiamata nella definizione (9):
Cpθq “ 1 ´ Πpθq
Difatti, considerando solo i test che terminano con P “ 1 abbiamo che la probabilità di rifiuto è esattamente 1 ´ Cpθq.
Esempio 16. Riferiamoci ora all’esempio 14. Abbiamo θ “ p (con p “ proporzione prodotti difettosi) unico parametro. Inoltre, immaginiamo che il lotto sia infinitamente più grande della taglia n0 del campione; in questo modo
Cpθq “ p1 ´ pqn0 . Supponiamo di far variare θ lungo l’asse orizzontale e Cpθq
lungo quello verticale e otteniamo la rappresentazione in Figura 1
9
1
Cpθq
0.8
0.6
0.4
0.2
0
θ
0.2
0.4
0.6
0.8
1
Figura 2.1: Questa funzione dà alcune informazioni importanti: la probabilità di effettuare una
corretta decisione per ogni parametro θ. Se θ è consistente con H0 varrà Cpθq, mentre per ogni
parametro non consistente 1 ´ Cpθq. Dunque per θ consistenti con l’ipotesi nulla vogliamo Cpθq
vicino a 1, per quelli non consistenti, invece, Cpθq vicino a 0.
2.2.2 La funzione Average Sample Number (ASN)
Precedentemente abbiamo rilevato che il numero di osservazioni da effettuare per
portare a termine un test sequenziale è una variabile aleatoria. Ora vogliamo esprimere attraverso una funzione la costosità dell’esperimento in termini di numero di
osservazioni e dunque di tempo. Naturalmente è preferibile costruire un test che
esca in un tempo finito non eccessivamente grande.
Definizione 17. Sia θ il vettore di parametri della variabile aleatoria X che si
vuole testare, la funzione average sample number(ASN)“ Eθ pnq equivale al valore
atteso del numero di osservazioni; essa dipenderà, difatti, da un numero finito di
parametri della distribuzione che prendiamo in considerazione e ci servirà proprio
per capire, al variare dei parametri, quante osservazioni saranno effettuate.
Esempio 18. Facciamo riferimento sempre all’Esempio precedentemente discusso. Il numero di osservazioni può variare da 1 a n0 . Chiamiamo n il numero di
osservazioni e Eθ pnq il valore atteso di n. Sappiamo che:
• se durante l’ispezione non trovo neanche un campione difettoso allora terminerò il test dopo n0 osservazioni, dunque la probabilità di terminare all’n0 esimo step vale p1 ´ pqn0 ´1
• se, invece, le prime m ´ 1 unità sono non difettose e l’m-esima è difettosa
con m ď n0 allora m è il numero di osservazioni. La probabilità di terminare
all’m-esimo step @ m vale p1 ´ pqm´1 .
10
10
9
8
7
6
5
4
3
2
1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Figura 2.2: rappresenta la funzione ASN. Mentre la funzione OC determinava quanto bene il
test riusciva a fare una correta decisione, quest’ultima, invece, ci dice quanto il test è costoso in
termini di numero di osservazioni al variare del parametro θ.
Eθ pnq “
nÿ
o ´1
m“1
mpp1 ´ pqm´1 ` n0 p1 ´ pqn0 ´1
pFig.2q
2.3 Principi di selezione di un sequential test
2.3.1 Livello di preferenza per accettazione e rifiuto dell’ipotesi nulla
Sia θ il parametro sconosciuto della variabile aleatoria su cui stiamo effettuando
il test, la preferenza per il rifiuto o l’accettazione è una funzione che dipende da
θ. Chiamiamo ω la regione di tutti i parametri consistenti con l’ipotesi nulla H0 .
In altri termini H0 è l’affermazione: il parametro reale θ P ω. Se consideriamo
il caso in cui il parametro sconosciuto sia solo uno e l’ipotesi nulla è H0 : θ ⩽ θ0 ,
dunque ω “ tθ ⩽ θ0 u ñ è preferibile accettare H0 se θ P ω, mentre è preferibile
rifiutare se θ P ω̄.
Inizieremo, ora, ad introdurre livelli di preferenza di accettazione o rifiuto. Se
il valore reale giace in ω, ma è vicino la frontiera, la preferenza per l’accettazione
di H0 è piccola; se giace in ω̄, ma vicino la frontiera, la preferenza per il rifiuto di
H0 è piccola anche in questo caso. Possiamo notare che non si commetterebbe un
grosso errore nel rifiutare H0 quando θ P ω o nell’accettare H0 quando θ P ω̄.
11
Definizione 19. La frontiera è l’insieme di tutti i punti appartenenti ad un intorno
di θ e che quindi giaciono sia in ω che in ω̄.
Possiamo, in generale, dividere lo spazio campionario anche qui in tre regioni:
• forte preferenza per l’accettazione dell’ipotesi nulla ( regione Ă ω ),
• forte preferenza per il rifiuto dell’ipotesi nulla ( regione Ă ω̄ ),
• indifferenza per rifiuto o accettazione ( regione vicino ai punti di frontiera ).
La separazione in tre regioni non si tratta come un problema statistico, ma si effettua sulla base di considreazioni riguardanti le conseguenze delle scelte sbagliate.
Più precisamente:
#
ω0 pθq “ importanza dell’errore causato dall’accettazione di H0 quando θ é vero.
ω1 pθq “ importanza dell’errore causato dal rifiuto di H0 quando θ é vero.
Si ottiene che:
ω0 pθq “ 0
@θ Pω
e ω1 pθq “ 0
@ θ P ω̄
ω0 pθq ě 0
@ θ P ω̄ e ω1 pθq ě 0
@θ Pω
Inoltre crescono i valori ω0 e ω1 all’allontanarsi dalla frontiera, mentre @ θ P alla
regione di indifferenza ω0 “ ω1 “ 0.
Facciamo ora qualche esempio per comprendere meglio il significato di preferenza.
Esempio 20. Consideriamo un’ispezione su un lotto di prodotti, classificabili in
difettosi e non difettosi, la cui proporzione di prodotti difettosi sia definita p.
Generalmente è possibile trovare p0 e p1 tali che se p ă p0 il livello di preferenza per l’accettazione del lotto è alto e se p ą p1 il livello di preferenza per il
rifiuto è elevato. Dunque la regione compresa tra p0 e p1 sarà proprio la regione
di indifferenza.
12
Esempio 21. Esaminiamo un prodotto che deve essere immesso sul mercato; la
durezza di questo prodotto si distribuisce come una variabile aleatoria normale
X „ Normpµ, σq con σ conosciuta. µ0 è il nostro valore desiderato per poterlo
immettere.
Per prendere una corretta decisione dobbiamo verificare che la media campionaria θ non discosti molto dal valore desiderato µ0 : |θ ´ θ0 | ă c, con c costante.
E’ possibile anche in questo caso trovare un ∆| accetto con un livello di preferenza
significativo se |θ ´ θ0 | ă c ´ ∆ e rifiuto se |θ ´ θ0 | ą c ` ∆. Se mi trovo nella
zona compresa tra c ´ ∆ e c ` ∆ sono proprio nella regione di indifferenza.
Esempio 22.
2.3.2 Condizioni imposte dall’OC function
Dobbiamo affrontare alcune considerazioni teoriche che riguardano l’OC function; naturalmente quello che vogliamo che accada è trovare le seguenti condizioni:
#
H0 pθq : θ P ω Cpθq “ 1 @ θ
H1 pθq : θ P ω̄ Cpθq “ 0 @ θ
Questo è solamente un caso ideale che non può avere riscontri nella realtà, ma più
l’OC function è simile alla funzione rappresentata in Figura 2.3 migliore sarà il
test. Oltre a voler una OC function che sia simile a quella ideale, vogliamo che il
valore atteso del numero di campioni da estrarre sia il minimo possibile. Molto
spesso queste due richieste sono in rapporto di trade-off. Possiamo agire in questo
modo: formuliamo prima i requisiti di vicinanza dall’OC ideale e consideriamo
solo quei test che soddisfano tali requisiti, poi selezioniamo quello che ha valore
atteso di campionamento minore.
Affrontiamo il problema di formulare i requisiti di vicinanza. Dopo aver suddiviso
lo spazio campionario in tre regioni, imponiamo condizioni sul comportamento di
Cpθq nelle regioni di accettazione e di rifiuto, mentre non c’è necessità di apporre alcuna condizione nella regione di indifferenza. Le condizioni da imporre sono:
#
1 ´ Cpθq ă α @θ P zona di accettazione
(2.1)
Cpθq ě β
@θ P zona di rifiuto
La scelta delle costanti arbitrarie α e β è da trattare non come un problema statistico, ma di design del test. Un test sequenziale si dice ammissibile se soddisfa le
condizioni precedenti.
13
1.5
Cpθq
1
0.5
0
θ
0.2
0.4
0.6
0.8
1
Figura 2.3: funzione OC ideale
.
2.3.3 ASN come base per la scelta di un test sequenziale
Dopo aver diviso lo spazio dei parametri in tre zone, scelto α e β, selezioniamo
esclusivamente i test che soddisfano le condizioni (2.1). Tra questi vogliamo utilizzare il test con Eθ pnq il piú piccolo possibile. Denotiamo con Eθ pn|S q ( definito
in precedenza [pag.10] ) il valore atteso del numero di campioni da esaminare
per terminare il test sequenziale S. Sia minS Eθ pn|S q il minimo valore di Eθ pn|S q
rispetto a S fissato un particolare θ. Si ha:
Eθ pn|S 1 q ě min Eθ pn|S q @S 1
S
Definizione 23. il test si dice uniformemente migliore se D S 0 | Eθ pn|S q “ minS Eθ pn|S q @θ.
Generalmente non é possibile minimizzare Eθ pn|S q @ θ, ma solamente trovare dei
compromessi.
2.4 Ipotesi semplici per un test sequenziale
2.4.1 Efficienza di un test sequenziale
Dobbiamo considerare solo due dei valori del parametro θ: θ0 e θ1 . Ciò che
vogliamo testare è:
#
H0 : θ “ θ0 l’ipotesi nulla ovvero quella da confutare
(2.2)
H1 : θ “ θ1 l’ipotesi alternativa
14
In ogni test sequenziale di ipotesi semplici si associano due valori α e β tali che:
Ñ se H0 è vera α è la probabilità di un errore di 1a specie (rifiutare H0 ).
Ñ se H0 è falsa β è la probabilità di un errore di 2a specie (accettare H0 ).
Proposizione 24. Due test S ed S 1 hanno la stessa potenza se α e β sono uguali a
α1 e β1 . Se α ă α1 e β ď β1 oppure α ď α1 e β ă β1 S è detto più potente di S 1 , se,
inevce, α ă α1 e β ą β1 oppure α ą α1 e β ă β1 i due test si dicono di potenza non
comparabile.
Restringiamoci sui test con (α, β) assegnati. Il test migliore sarà quello con
Eθ pnq minore. Siano S e S 1 due test di uguale potenza: se
Eθ0 pn|S q ď Eθ0 pn|S 1 q e Eθ1 pn|S q ă Eθ1 pn|S 1 q
oppure
Eθ0 pn|S q ă Eθ0 pn|S 1 q e Eθ1 pn|S q ď Eθ1 pn|S 1 q
il test S è da preferire a S 1 .
Se D S 0 tale che
Eθ0 pn|S 0 q ď Eθ0 pn|S q e Eθ1 pn|S 0 q ď Eθ1 pn|S q
@ S di uguale potenza allora S 0 é detto test ottimo. Più specificamente, denotiamo con n0 pα, βq il minimo valore di Eθ0 pn|S q e con n1 pα, βq il minimo valore di
Eθ1 pn|S q. Sappiamo che Eθ0 pn|S q ě n0 pα, βq e Eθ1 pn|S q ě n1 pα, βq @ S . Un sequential test è ottimo quando vale l’ugualianza, ma in generale l’esistenza di tale
ottimo non può essere provata. Definiamo, dunque, l’efficienza di un test S(α, β)
attraverso questi rapporti:
n1 pα, βq
n0 pα, βq
,
Eθ0 pn|S q
Eθ1 pn|S q
Il primo rapporto vale quando H0 è vera e il secondo quando è falsa. Naturalmente
l’efficienza giacerà tra 0 e 1.
15
Capitolo 3
SPRT con ipotesi semplici
3.1 Definizione di sequential probability ratio test
Sia f px, θq la funzione di densità della variabile aleatoria X, consideriamo il seguente test:
#
H 0 : θ “ θ0
H 1 : θ “ θ1
Dunque la distribuzione sarà: f px, θ0 q se H0 è vera, mentre f px, θ1 q se H1 vera.
La probabilità di ottenere le osservazioni successive x1 , x2 , x3 , ...., xn è:
p1m “ f px1 , θ1 q f px2 , θ1 q.... f pxn , θ1 q se H1 é vera
p0m “ f px1 , θ0 q f px2 , θ0 q.... f pxn , θ0 q se H0 é vera
Il sequential probability ratio test sarà definito così: vengono scelti due valori A
e B P R e ad ogni step dell’esperimento (dunque all’m-esimo campionamento)
decido se accettare l’ipotesi nulla, rifiutarla o continuare l’esperimento. Se
p1m
ăA
(3.1)
Bă
p0m
continuo ad iterare l’esperimento facendo una nuova osservazione, mentre se:
p1m
ěA
(3.2)
p0m
il processo terminerà con l’accettazione di H1 e quindi il rifiuto di H0 , infine se:
p1m
ďB
(3.3)
p0m
il processo terminerà con l’accettazione di H0 ovvero l’ipotesi nulla. Nel paragrafo successivo verrà trattato il problema di come scegliere A e B per un test con
errori di primo e seconda specie rispettivamente α e β.
16
3.2 Disuguaglianze utili per la scelta A e B in un
SPRT
In questa sezione giungeremo a trovare dei metodi per scegliere opportuni A e B
per test con erroridi primo e seconda specie α e β attraverso l’utilizzo di alcune
semplici disuguaglianze.
Definiamo un campione px1 , x2 , .., xn q di tipo 0 se soddisfa:
p1m
p1m
ă A per m “ 1, 2, ..., n ´ 1 e
ď B per m “ n
p0m
p0m
e di tipo 1 se soddisfa:
p1m
p1m
ă A per m “ 1, 2, ..., n ´ 1 e
ě A per m “ n
Bă
p0m
p0m
Bă
Sappiamo che un campione di tipo 0 induce all’accettazione dell’ipotesi nulla
(p “ p0 ) ed un campione di tipo 1 induce al suo rifiuto (p “ p1 ). Quando ho un
campione di tipo 1, dalla disuguaglianza p3.2q si ha:
(3.4)
p1n ě Ap0n
dove p0n rappresenta, in questo caso, la probabilità di accettare H1 quando H0 è
vero (errore di prima specie α). p1n è, invece, la probabilità di accettare H1 quando
quest’ultimo è vero (1 ´ β con β errore di seconda specie). Giungiamo quindi alla
seguente affermazione:
1 ´ β ě Aα
ñ
Aď
1´β
α
(3.5)
1´β
cioè
è un limite superiore per A.
α
Il discorso è analogo per un campione di tipo 0; fatte le opportune considerazione possiamo asserire che:
β
β ď Bp1 ´ αq ñ B ě
(3.6)
1´α
β
cioè
è un limite superiore per B.
1´α
Dalla disuguaglianza p3.5q possiamo ricavare:
mentre dalla p3.6q:
1
α
ď
1´β
A
ñ
αď
1
A
(3.7)
β
ďB
1´α
ñ
βďB
(3.8)
17
3.3 Scelta di A e B in casi pratici
Dopo aver scritto questa serie di disuguaglianze utili alla comprensione riportiamo
i risultati di Wald nel libro "Sequential Analysis" nella sezione 3.2. [1]:
A“
1´β
“ apα, βq
α
e
B“
β
“ bpα, βq
1´α
mentre i veri valori sono Apα, βq e Bpα, βq. Ora si vuole giungere alla conclusione
che l’utilizzo di apα, βq e bpα, βq, in luogo dei reali valori, garantisce la stessa accuratezza. Naturalmente la scelta di apα, βq e bpα, βq cambierà le probabilità degli
errori di prima e seconda specie.
Svolgiamo prima una semplice ragionamento:
• se A fosse maggiore di Apα, βq e B fosse uguale a Bpα, βq la probabilità
di errore di prima specie sarebbe minore, mentre quella di seconda specie
lievemente maggiore,
• se B fosse minore di Bpα, βq e A fosse uguale a Apα, βq la probabilità di
errore di seconda specie sarebbe minore, mentre quella di prima specie
lievemente maggiore,
• se A fosse maggiore di Apα, βq e B fosse minore di Bpα, βq non è chiaro
l’effetto sugli errori.
Ponendo α1 e β1 come gli errori di prima e seconda specie per un test con A “
apα, βq e B “ bpα, βq segue dalle disuguaglianze p3.6q e p3.7q:
α1
α
1
“
ď
1 ´ β1
1´β
apα, βq
β
β1
ď
bpα,
βq
“
1 ´ α1
1´α
possiamo cosí ricavare due altre importanti relazioni:
α
α1 ď
1´β
(3.9)
(3.10)
(3.11)
β
(3.12)
1´α
Moltiplichiamo ora la disuguaglianza p3.9q ambo i membri per p1 ´ βqp1 ´ β1 q
e la disuguaglianza p3.10q per p1 ´ αqp1 ´ α2 q. Semplificandole e sommandole
otteniamo:
α1 ` β1 ď α ` β
(3.13)
β1 ď
18
Poiché solitamente α e β sono valori compresi tra 0.01 e 0.05 e quindi i valori
β
α
e
sono rispettivamente molto vicini ad α e β, per p3.11q e p3.12q
1´α
1´β
possiamo ignorare di quanto può eccedere α1 rispetto ad α e β1 rispetto a β. Inoltre
per la p3.13q almeno uno tra α1 ď α e β1 ď β è vera.
Possiamo concludere che a fini pratici l’utilizzo di A “ apα, βq e B “ bpα, βq
garantisce almeno la stessa accuratezza e tutela da decisioni sbagliate rispetto ad
un test con A “ Apα, βq e B “ Bpα, βq.
3.4 Funzione OC per un sequential probability ratio
test
In questa sezione si affronta il problema di calcolare la funzione Cpθq in un SPRT.
La funzione OC risulta particolarmente importante poiché, sebbene i test che sino
ad ora abbiamo esaminato sono ad ipotesi semplici, i reali valori dei parametri da
testare possono assumere anche valori diversi da quelli ipotizzati. Ricordiamo che
la funzione Cpθq rappresenta al variare di θ la probabilità di terminare il test con
l’accettazione dell’ipotesi nulla H0 . Consideriamo l’espressione
„
ȷ
f px, θ1 q hpθq
f px, θ0 q
per ogni valore di θ, il valore hpθq , 0 é scelto tale che:
„ ż `8 „
ȷ
„
f px, θ1 q
f px, θ1 q hpθq
E
f px, θqdx “ 1
f px, θ0 q ´8 f px, θ0 q
e se la variabile aleatoria X in considerazione è discreta
ÿ „ f px, θ1 q ȷhpθq
f px, θqdx “ 1
f px, θ0 q
x
Possiamo per tanto dire che la funzione
„
ȷ
f px, θ1 q hpθq
˚
f px, θq “
f px, θq
f px, θ0 q
(3.14)
(3.15)
(3.16)
è una funzione di densità di una variabile aleatoria. Poichè hpθq , 0 si devono
trattare i casi hpθq ă 0 e hpθq ą 0. Iniziamo con hpθq ą 0.
19
Utilizziamo il sequential probability ratio test S ˚ per testare H, ovvero l’ipotesi che f px, θq sia la distribuzione di x contro H˚, l’ipotesi che f ˚ px, θq sia la
distribuzione di x. Fino a quando
Bhpθq ă
f ˚ px1 , θq f ˚ px2 , θq..... f ˚ pxm , θq
ă Ahpθq
f px1, θq f px2 , θq..... f pxm , θq
(3.17)
il test S ˚ continua ad iterarsi. Accetterò H se:
f ˚ px1 , θq f ˚ px2 , θq..... f ˚ pxm , θq
ď Bhpθq
f px1, θq f px2 , θq..... f pxm , θq
(3.18)
f ˚ px1 , θq f ˚ px2 , θq..... f ˚ pxm , θq
ě Ahpθq
f px1, θq f px2 , θq..... f pxm , θq
(3.19)
mentre rifiuterò H se:
Dal momento che
f ˚ px, θq
“
f px, θq
„
f px, θ1 q
f px, θ0 q
ȷhpθq
sostituendo nella disuguaglianza p3.17q e p3.16q otteniamo
Bă
f px1 , θq f px2 , θq..... f pxm , θq
ăA
f px1, θq f px2 , θq..... f pxm , θq
(3.20)
Così se il test S ˚ conduce all’accettazione di H il test S condurrà all’accettazione
di H0 . Ne deduciamo che i due test hanno regioni di accettazione, rifiuto e indifferenza equivalenti. Denotiamo con α1 e β1 gli errori di prima e seconda specie del
test S ˚. Desumiamo dalle disuguaglianze p3.5q e p3.6q che
Ahpθq ď
1 ´ β1
α1
Bhpθq ě
β1
1 ´ α1
e
Per le considerazioni effettuate nella sezione precedente, si può approssimare Ahpθq
e Bhpθq senza causare errori ai fini pratici.
Ahpθq „
1 ´ β1
α1
Bhpθq „
β1
1 ´ α1
e
20
Da queste ultime due disuguaglianze otteniamo:
α1 „
1 ´ Bhpθq
Ahpθq ´ Bhpθq
(3.21)
e poichè α1 “ 1 ´ Cpθq
Ahpθq ´ 1
(3.22)
Ahpθq ´ Bhpθq
Per la dimostrazione rigorosa ed il calcolo in modo non approssimato della funzione OC si rimanda all’articolo "Sequential Test of Statistical Hypothesis" scritto
su "The Annals of Mathematical Statistics" nel 1951 [3].
Cpθq „
3.5 ASN di un SPRT
Come abbiamo osservato nel primo capitolo, il pregio principale del SPRT è quello di utilizzare un numero di ossevazioni generalmente inferiore rispetto ad analoghi test con il numero di campioni fissato. Si vuole ora dare una dimostrazione
teorica che provi la suddetta affermazione. Sia n “ numero di osservazioni e
Eθ pnq “ valore atteso di n. Quest’ultimo valore rappresenta proprio l’ASN function che dipende dal paramtro θ e l’obiettivo è trovare una buona approssimazione
p1m
non considerando gli eccessi di
oltre la frontiera A e B al termine del prop0m
cesso. Il risultato non approssimato è possibile trovarlo nell’ appndice del libro
"Sequential Analysis" di Wald. Consideriamo N un intero molto grande tale che
Ppn ď Nq è trascurabile. Possiamo scrivere:
z1 ` z2 ` ... ` zN “ pz1 ` .. ` zn q ` pzn ` 1 ` .. ` zN q
dove:
zα “ logp
(3.23)
f pxα , θ1 q
f pxα , θ0 q
Se si applica il valore atteso ad entrambi i membri di (3.23) si ottiene:
NEpzq “ Epz1 ` ... ` zn q ` Epzn`1 ` ... ` zN q
(3.24)
Se le variabili zα sono i.i.d. allora segue che:
Epzn`1 ` ... ` zn q “ EpN ´ nqEpnqEpzq “ NEpzq ´ EpnqEpzq
(3.25)
quindi:
Epz1 ` ... ` zn q ´ EpnqEpzq “ 0
21
(3.26)
Epnq “
Epz1 ` .... ` zn q
Epzq
(3.27)
trascurando gli eccessi oltre A e B si ha:
Epz1 ` .... ` zn q „ Cpθq log B ` p1 ´ Cpθqq log A
(3.28)
sostituendo in (3.27)
Eθ pnq „
Cpθq log B ` p1 ´ Cpθqq log A
Eθ pzq
22
(3.29)
Capitolo 4
Test sequenziali di ipotesi unilaterali
Precedentemente ci siamo concentrati sui test di ipotesi semplici H0 contro una
singola alternativa H1 . Nelle applicazioni alla realtà, risulta molto più probabile
che il parametro da testare possa assumere infiniti altri valori. In questo capitolo
affronteremo il tema dei test sequenziali di ipotesi semplici o composte contro
alternative unilaterali.
4.1 Test di ipotesi semplici
Consideriamo il caso in cui vi sia un solo sconosciuto parametro θ coinvolto nella
distribuzione della variabile aleatoria X. Una ipotesi semplice è che θ sia uguale
ad un valore specifico θ0 .
Ci sono due alternative (decidere di accettare“alternativa 1; rifiutare“alternativa
2 ) e la preferenza per una di esse dipende dal vero valore di θ. Definiamo ω la
regione di tutti i valori di θ per i quali l’alternativa 1 è preferita alla 2, dunque
l’alternativa 2 è preferita alla 1 per tutti i valori θ al di fuori di ω. Allora il problema della decisione tra le due alternative può essere riformulato come un test di
ipotesi Hw . Se Hw è accettato prendimo la decisione 1 e se Hw è rifiutata prendiamo l’alternativa 2. Supponendo che il livello di preferenza per una o l’altra delle
alternative vari continuamente con il valore θ, la regione ω non può consistere in
un solo valore θ0 . Difatti, se ω contenesse un singolo valore θ0 vorrebbe dire che
preferiamo l’alternativa 1 quando θ “ θ0 e la 2 per ogni θ , θ0 non importa quanto
θ sia vicino a θ0 .
Notiamo che il test di ipotesi semplici ha un senso soltanto quando vi è una
discontinuità nella nostra preferenza per le due alternative. Un esempio di discontinuità per la preferenza si ha nel caso in cui si voglia testare, per esempio, la
validità di una teoria scientifica riguardante un determinato parametro θ che deve
23
assumere uno specifico valore θ0 . Nelle applicazioni alla realtà è comunque molto
raro avere delle discontinuità.
4.2 Test di ipotesi semplici contro alternative in un’unica direzione
In questa sezione analiziamo un semplice caso: H0 : θ “ θ0 contro H1 : θ ą
θ0 . La zona di preferenza per l’accettazione dell’ipotesi nulla consiste solamente
nel valore θ0 . Il livello di preferenza per il rifiuto decrescerà all’aumentare del
valore θ nel dominio θ ą θ0 . Possiamo a questo punto trovare un valore θ1 ą θ0
tale che l’accettazione dell’ipotesi è considerata un errore di importanza rilevante.
Dunque, la zona di preferenza per il rifiuto si definisce da θ ą θ1 e la zona di
indifferenza da θ0 ă θ ă θ1 . Imponiamo dei requisiti sul comportamento dell’ OC
function: la probabilità che l’ipotesi sia rifiutata è uguale ad un predetermintato
valore α quando θ “ θ0 e uguale a β quando θ ě θ1 .
Nella maggior parte dei casi come per esempio per la variabile aleatoria binomiale, di Poisson e normale sequential probability ratio test di potenza pα, βq per
testare l’ipotesi θ “ θ0 contro la singola alternativa θ1 che soddisfa tali requisiti,
fin quando la probabilità di errore di seconda specie decresce all’aumentare di θ
nel dominio θ ą θ0 . Infine il sequential probability ratio test sopra citato è una
soddisfacente soluzione al nostro problema.
24
Capitolo 5
SPRT per variabili aleatorie
5.1 SPRT caso Bernoulli
5.1.1 Presentazione del problema
Sia X una variabile aleatoria che può assumere solamente i valori 0 e 1. Sia p la
probabilità che X assuma il valore 1 e 1´ p quella che assuma il valore 0. Si vuole
testare l’ipotesi che p sia minore di un determinato valore p.
Nella realtà si ha un riscontro nei problemi attinenti al controllo qualità; ad
esempio quando si vuole ispezionare un lotto composto da un numero molto grande di prodotti che possono essere classificati in due categorie (difettosi e non difettosi). Si può assegnare il valore 0 ai prodotti non difettosi ed il valore 1 a quelli
difettosi. Il lotto sarà da immettere nel mercato, quindi accettato, se la proporzione p di prodotti difettosi non eccede un determinato valore p. Si accetta, quindi, il
lotto se p ď p e si rifiuta quando p ą p. Il problema in questione si può formulare
in questo modo:
#
H0 : p ď p
(5.1)
H1 : p ą p
Poiché una completa ispezione del lotto sarebbe troppo costosa, si accetta di tollerare qualche rischio nel prendere una decisione errata. Se p ą p il rifiuto del
lotto è preferito e questa preferenza cresce all’aumentare di p, mentre per p ă p
si preferisce accettare il lotto e la preferenza per l’accettazione cresce al diminuire
del valore p. Se p “ p si è indifferenti alla scelta da effettuare. Se il valore p è
maggiore di p, ma p ´ p è un numero sufficientemente piccolo, l’errore in caso di
accettazione non è rilevante; e così pure nel caso di p ă p. Sarà possibile allora
specificare due valori p0 e p1 tali che il rifiuto del lotto comporti un errore di rilevante importanza se p ď p0 e l’accettazione comporti errori rilevanti per p ě p1 .
per valori di p compresi tra p0 e p1 nessuna decisione è preferibile.
25
La nostra propensione al rischio di errore si misura attraverso i valori: α “
probabilità di rifiutare il lotto quando p ď p0 e β “ probabiltà di accettare il lotto
quando p ě p1 .
I valori p0 , p1 , α, β sono determinati in base a considerazione di natura non
statistica. La scelta di p0 e p1 dipende dall’importanza dell’errore causato da una
scelta errata al variare del vero valore p, mentre la scelta di α e β dipende, come
detto in precedenza, sia dai costi in termine di tempo dell’ispezione che dal livello
di accuratezza che si vuole ottenere. L’applicazione al controllo qualità con una
variabile aleatoria qui presentato è un caso semplice. Per capire meglio quali
possano essere le applicazioni dell’analisi statistica al campo del controllo qualità
si veda il libro "Economic Control of Quality Manufactured Product. American
Society for Quality (ASQ)" di Shewhart Walter.
5.1.2 Implementazione del SPRT caso Bernoulli
Ipotizziamo di aver trovato i nostri valori p0 , p1 , α, β in base alle considerazioni
prima effettuate. Un test che soddisfa le condizioni: Ppx P C; p ď p0 q ď α e
Ppx P C c ; p ě p1 q ď β è il sequential probability ratio test di potenza pα, βq che
testa le ipotesi
#
H0 : p “ p0
(5.2)
H1 : p “ p1
poiché la funzione OC di un sequential probability ratio test è monotona decrescente. Il test è definito così: Sia xi il risultato della i-esima ispezione e p la
proporzione di prodotti difettosi nel lotto allora la funzione di verosimiglianza
f px, pq di un campione di taglia m (che chiamiamo per comodità pm ) è data da:
p sm p1 ´ pqm´sm
dove
sm “
Quando p “ p1 la probabilità (23) è:
m
ÿ
(5.3)
xi
i“1
p1m “ p sm p1 ´ p1 qm´sm
(5.4)
p0m “ p sm p1 ´ p0 qm´sm
(5.5)
mentre quando p “ p0 si ha:
Il logaritmo del rapporto di p0m e p1m equivale a:
logp
p1m
p1
1 ´ p1
q “ sm log
` pm ´ sm q log
p0m
p0
1 ´ p0
26
(5.6)
dunque il test continua a campionare fino a quando:
log
p1m
1´β
β
ă logp
q ă log
1´α
p0m
α
(5.7)
Si rifiuterà l’ipotesi nulla quando:
logp
p1m
1´β
q ě log
p0m
α
(5.8)
logp
p1m
β
q ď log
p0m
1´α
(5.9)
mentre si accetterà se
Vogliamo ora riscrivere le tre disuguaglianze precedenti in modo più comodo:
1 ´ p0
1 ´ p0
β
1´β
log
log
log
1 ´ p1
1 ´ p1
1´α
α
`m
ă sm ă
`m
p1
p1
p1
p1
1 ´ p1
1 ´ p1
1 ´ p1
1 ´ p1
log
log
log
log
´ log
´ log
´ log
´ log
p0
1 ´ p0
p0
1 ´ p0
p0
1 ´ p0
p0
1 ´ p0
log
e per praticità chiamiamo
1 ´ p0
1´β
log
1 ´ p1
α
`m
dm “
p1
1 ´ p1
p1
1 ´ p1
log
´ log
log
´ log
p0
1 ´ p0
p0
1 ´ p0
(5.10)
1 ´ p0
β
log
1 ´ p1
1´α
am “
`m
p1
1 ´ p1
p1
1 ´ p1
log
´ log
log
´ log
p0
1 ´ p0
p0
1 ´ p0
(5.11)
log
e
log
In questo modo è possibile tracciare un grafico che spiega l’andamento del test: i valori am sono punti di una retta sopra la quale ci troviamo nella regione di
accettazione e i punti rm definiscono una retta sotto la quale si ha la regione di
rifiuto. I valori compresi tra le due rette sono appartenenti alla regione di indifferenza. Fino a quando non si ha una intersezione con una delle rette disegnate a
partire dai punti di dm o am il test continua a procedere.
27
14
12
10
Prodotti difettosi
8
Zona di rifiuto
6
4
2
0
-2
-4
zona di accettazione
0
5
10
15
20
25
30
Numero di iterate
Figura 5.1: Il grafico mostra lo svolgimento del SPRT caso bernoulli di ipotesi H0 : p “ 0.2
contro H1 : p “ 0.5 con α e β errori di prima e seconda specie equivalenti rispettivamente a 0.01
e 0.05. La linea gialla rapprensenta il numero di prodotti difettosi trovati sino a quel momento. Al
di sotto della linea blu abbiamo la regione di accettazione, al di sopra di quella rossa la regione
di rifiuto, mentre per i valori compresi tra queste due linee si ha la regione di indifferenza. Il test
continua procedere finchè la linea gialla non interseca una delle altre due linee.
28
5.1.3 Funzione OC caso Bernoulli
Per completezza diamo ora una buona approsimazione della funzione OC, la quale descrive la probabilità di accettare l’ipotesi nulla al variare del parametro da
testare. In questo modo si confermano le considerazioni fatte nel capitolo p3q.
Per definizione sappiamo che 1 ´ α “ Cpp0 q e β “ Cpp1 q. Dalla disuguaglianza p3.15q deriva
p
p1 hpθq
1 ´ p1 hpθq
` p1 ´ pq
“1
p0
1 ´ p0
(5.12)
Considerando h un parametro risolviamo la precedente equazione rispetto a p:
1 ´ p1 h
1 ´ p0
p“
p1 h 1 ´ p1 h
´
p0
1 ´ p0
1´
(5.13)
Facendo variare i valori h possiamo numericamente trovare i valori p. In aggiunta
dalla p3.22q abbiamo:
1 ´ βh
´1
α
Cppq „
1 ´ βh
β h
´
α
1´α
pβq
p1 ´ βq
eB“
poichè A “
α
1´α
Possiamo, giunti a questo punto, scrivere i valori rp, Cppqs
29
5.2 Caso variabile Normale
5.2.1 Presentazione del problema
Sia X una variabile aleatoria distribuita come una normale con media µ sconosciuta e varianza σ2 “ 1. Si vuole testare l’ipotesi che µ sia minore di uno specifico
valore µ1 . Anche questo tipo di problema, come visto nel caso di una distribuzione
bernouliana, trova applicazione nel campo del controllo qualità. Supponiamo per
esempio di avere un lotto composto da un grande numero di prodotti i quali devono
essere sottoposti ad una ispezione prima di essere immessi nel mercato. Ipotizziamo di effettuare delle osservazioni su una caratteristica del prodotto (altezza,
peso, durezza del materiale, ecc...). Il valore di tali osservazioni è distribuito come
una normale con media sconosciuta e varianza conosciuta. Si considera migliore
il prodotto man mano che µ diminuisce. In generale si può trovare un valore µ1
per cui preferiamo accettare il lotto per µ ă µ1 e rifiutarlo per µ ą µ1 . Per µ “ µ1
è indifferente la scelta da prendere.
Come visto in precedenza, nel dominio µ ă µ1 , la preferenza per l’accettazione
cresce al diminuire del vero valore µ, mentre nel dominio µ ą µ1 , la preferenza
per il rifiuto cresce all’aumentare di µ. E’ possibile trovare due valori µ0 e µ1 con
µ0 ă µ ă µ1 tali che l’accettazione del lotto se µ ě µ1 e il rifiuto quando µ ď µ0
sono considerati errori di rilevante importanza. Per valori compresi tra µ0 e µ1 ci
troviamo nella regione di indifferenza.
Si decide un determinato valore α per cui la probabilità di un errore di prima
specie deve essere minore di esso, e un determinato valore β per cui la probabilità
di un errore di seconda specie deve essere minore di quest’ultimo.
5.2.2 Implementazione del SPRT caso normale
Un test che soddisfa le condizioni prima esposte è il sequential probability ratio
test di potenza pα, βq che testa le ipotesi:
#
H0 : µ “ µ0
(5.14)
H1 : µ “ µ1
Il test è definito così: sia xi l’ispezione i-esima, la densità di probabilità del
campione xi è:
pxi ´ µq2
´
1
2
f pxi , µq “ ? e
(5.15)
2π
30
Quando µ “ µ0 e µ “ µ1 abbiamo:
´
1
f pxi , µ0 q “ ? e
2π
pxi ´ µ0 q2
pxi ´ µ1 q2
´
1
2
2
e f pxi , µ1 q “ ? e
2π
(5.16)
quindi passando al logaritmo del rapporto delle funzioni di densità congiunta (27)
otteniamo:
f pxi , u1 q
1
“ pu1 ´ u0 qxi ` pu20 ´ u21 q
zi “ log
2
f pxi , uo q
e
m
ÿ
m
p1m
“ z1 ` z2 ` .... ` zm “ pu1 ´ u0 q xi ` pu20 ´ u21 q
(5.17)
log
p0m
2
i“1
Il Sequential Probability Ratio Test di ipotesi semplici procede in questo modo:
m
ř
1´β
m
ñ rifiuta l’ipotesi nulla,
se
xi ` pu20 ´ u21 q ě
2
α
i“1
m
ř
m
β
xi ` pu20 ´ u21 q ď
se
ñ accetta l’ipotesi nulla,
2
1´α
i“1
altrimenti continua a campionare.
5.2.3 Considerazioni sul numero di iterate necessarie al termine del test
Supponiamo di avere un vettore y “ py1 , y2 , ..., yn q generato da variabili aleatorie
Yi „ Normp1, 1q indipendenti e identicamente distribuite. Si vuole testare in modo sequenziale H0 : µ “ 0 contro H1 : µ “ 1. Naturalmente il test, dopo aver
esaminato un numero m non fissato di campioni, dovrà condurre al rifiuto dell’ipotesi nulla con una probabilità di errore di prima specie pari ad α. Il numero m
di campioni estratti, necessari al test per rifiutare l’ipotesi nulla, è una variabile
aleatoria. Essa dipenderà sia dalle dalle relizzazioni del campione che dagli errori
di prima e seconda specie. In primo luogo si vuole determinare la distribuzione
dei tempi necessari al test per rifiutare l’ipotesi nulla con α e β fissati: per farlo
iteriamo il test un numero sufficientemente grande di volte in modo da ottenere
un vettore contenente tutti i tempi di rifiuto. Fissando α “ 10´4 e β “ 5 ¨ 10´4
l’istogramma di questo vettore (quello rappresentato in Figura 4) dà alcune importanti informazioni sulla distibizione del numero di iterate necessarie al test per
prendere una decisione. Fissando β, al diminuire di α la distribuzione delle frequenze assolute aumenta in media. man mano aumenta di valore e inoltre presenta
una sempre più forte densità nella zona vicino allo zero. Nel caso in cui, invece
diminuissimo solo β la distribuzione rimane invariata o si sposta solo leggermente
verso destra.
31
600
Frequenza assoluta
500
400
300
200
100
0
0
10
20
30
40
50
60
70
80
90
Dimensione del campione
Figura 5.2: Distribuzione dei campioni(tempi) necessari al rifiuto dell’ipotesi nulla in un SPRT
sulla normale H0 : µ “ 0 contro H1 : µ “ 1 dove H1 è vera.
5.2.4 Confronto SPRT con test di Neyman Pearson caso Normale
Il test di Neyman-Pearson di ampiezza α ha, come visto nel Lemma 9, la regione
Lpθ0 ; px1 , x2 , .., xn qq
ď ku dove la
critica così costituita: C “ tpx1 , x2 , .., xn q |
Lpθ1 ; px1 , x2 , .., xn qq
funzione di verosimiglianza nel caso della normale è
Lpθq “
ˆ
1
?
2π
˙n
e
´
n
ř
i“1
pxi ´ µq2
2
Prendendo sempre in considerazione il logaritmo del rapporto delle funzioni di verosimiglianza si vuole giungere, attraverso qualche passaggio, alla determinazione
di k.
n
ÿ
Lpθ0 ; px1 , x2 , .., xn qq
n
logp
q “ pu0 ´ u1 q xi ` pu21 ´ u20 q ď logpkq
2
Lpθ1 ; px1 , x2 , .., xn qq
i“1
n
logpkq ´ pµ21 ´ µ20 q
2
xi ď
“ k1
µ
´
µ
0
1
i“1
n
ÿ
32
Ora, poiché la Ppx P Cq “ α, scriviamo: Pp
n
ř
i“1
Xi ď k1 q “ α. In aggiunta
conosciamo la distribuzione della sommatoria di n variabili aleatorie normali
X1 pµ1 , σ21 q, X2 pµ2 , σ22 q, ..., Xn pµn , σ2n q “ Xpµ1 ` µ2 ` ... ` µn , σ21 ` σ22 ` ... ` σ2n q
dunque per la somma di n variabili aleatorie normali con varianza unitaria, indin
ř
pendenti e identicamente distribuite abbiamo che
Xi „ Xpnµ, nq. Dobbiamo
ora esplicitare la funzione di ripartizione:
i“1
n
ÿ
k1 ´ µ0
1
qq “ α
Pp Xi ď k1 ; µ “ µ0 q “ p1 ` er f p ?
2
2n
i“1
k1 “
?
2n er f ´1 p2α ´ 1q ` µ0
n
k1 pµ0 ´µ1 q` pµ20 ´µ21 q
2
k“e
Vogliamo scrivere anche il valore β -errore di seconda specie- per fare dei confronti con il sequential test. Ricordando che PpX P C c ; µ “ µ1 q “ β si trova:
n
ÿ
1
k 1 ´ µ1
qqs “ β
Pp Xi ą k1 ; µ “ µ1 q “ 1 ´ r p1 ` er f p ?
2
2n
i“1
Si considera ora il test trattato nella sezione precedente con errori di prima e seconda specie equivalenti rispettivamente a 10´4 e 5 ¨ 10´4 . Si studia la distribuzione del numero di iterate necessarie al termine del SPRT per poi confrontarlo
con il test di Neyman-Pearson. Come visto prima il numero di campioni necessari
al Sequential Test è una variabile aleatoria; in questo specifico caso il numero di
campioni necessari al termine del test è, con probabilità maggiore del 77% è minore di 30. Determinando un test di Neyman Pearson con errori dello stesso valore,
il numero di campioni necessari è 51. Il risparmio è notevole (il 50% in media). Si
può verificare che al diminuire degli errori il risparmio in percentuale del numero
di campioni esaminati cresce, anche se molto lentamente. Per una dimostrazione
teorica dei risultati qui riportati si consulti il testo di Abraham Wald-Sequential
Analysis-Dover Publications (2004) (Dover Phoenix Editions) [1] nella sezione
p3.6q.
33
Capitolo 6
Applicazioni del SPRT al moto
browniano
6.1 Alcuni richiami sul moto browniano
Si introduce ora la definizione di moto browniano al fine di effettuare alcuni test
su di esso.
Definizione 25. Un processo stocastico tXptq, t P T u è una famiglia parametrizzata di variabili aleatorie definite su uno spazio campionario Ω a valori in uno spazio
misurabile S detto spazio degli stati del processo. Se T P N si parla di processo
a tempo discreto, se, invece, T P R si parla di processo a tempo continuo. Per
quanto riguarda lo spazio degli stati: quando S P N il processo è discreto, mentre
quando S P R il processo si dice continuo.
Definizione 26. Un processo stocastico tXptq, t ą 0u è detto Moto Browniano se:
1. Xp0q “ 0
2. Xptq ha incrementi indipendenti e stazionari
3. Xptq „ Normp0, σ2 tq
Dalla proprietà di stazionarietà e dal fatto che conosciamo la distribuzione di Xptq
si può dedurre che: Xptq ´ Xpsq „ Normp0, σ2 pt ´ sqq
Definizione 27. Un moto browniano si dice moto browniano standard se σ2 “ 1
e si indica con Bptq, t ě 0.
Definizione 28. Si ha un moto browniano con drift quando Xptq „ Normpµt, σ2 tq
che corrisponde a dire: Xptq “ µt ` σBptq
34
6.2 Presentazione del problema
In questa sezione si pone il problema di riuscire a capire se il moto browniano
Xptq „ Normpµt, σ2 tq con σ2 conosciuto ha un drift che non eccede un determinato valore µ1 .
Il problema sorge da alcune applicazioni, ad esempio quelle finanziarie, in cui
abbiamo dati che ci vengono forniti in tempo reale e continuamente (o quasi) e le
osservazioni vengono fatte ad intervalli di tempo anche irregolari. All’aumentare
del drift si preferisce sempre di più comprare il titolo che si sta ispezionando.
Generalmente è possibile trovare un µ1 per il quale se µ ą µ1 si preferisce entrare
e se µ ă µ1 si preferisce uscire o non entrare.
E’ necessario ricordare che gli incrementi tra due tempi t e s si distribuiscono
come una normale con media µpt ´ sq e varianza σ2 pt ´ sq. Denotiamo con Xi
gli incrementi stazionari e indipendenti che hanno come intertempo h “ 1. La
sommatoria di questi intertempi con i che va da 1 a n con i P N` genera un moto
browniano Xpnq che in questo caso è a tempo discreto. L’affermazione è vera per
i seguenti motivi: siano Xi con i “ 1, 2, .., n variabili aleatorie normali di media µi
e varianza σ2i allora
n
ÿ
i“1
Xi „ Normpµ1 ` µ2 ` .. ` µn , σ21 ` σ22 ` .. ` σ2n q
se le Xi sono indipendenti e identicamente distrubuite si ottiene:
n
ÿ
i“1
Xi „ Normpnµ, nσ2 q
Il problema in questione si riconduce semplicemente al caso del SPRT nel caso
normale. Difatti, se si campiona ad intervalli di tempo regolari, per testare delle
ipotesi sul drift del moto browniano basta effettuare un sequential probability ratio
test con ipotesi sulla media degli incrementi. Se, però, gli intervalli sono irregolari, la funzione di densità congiunta di f ppx1 , x2 , .., xn q; µq dipenderà anche dagli
intertempi h tra una osservazione e l’altra.
6.3 Individuazione del cambiamento nel drift
In questa sezione si pone il problema di riuscire a capire quando un moto browniano Xptq „ Normpµt, σ2 tq con σ2 noto cambia il suo drift. Supponiamo che
un moto browniano che si sta realizzando in tempo reale cambi il suo drift ad un
certo istante θ. Quindi @t ă θ Xptq „ Normp0, tq, mentre @t ě θ Xpt ´ θq „
Normpµpt ´ θq, t ´ θq. Si vuole trovare un metodo che riesca repentinamente a
35
SPRT sul moto browniano
6
5
B(t)
4
Accetto in questo punto H 0
3
2
1
0
0
5
10
15
numero di iterate
20
25
Figura 6.1: test di ipotesi semplici sul drift del moto browniano che conduce all’accettazione
dell’ipotesi nulla µ “ 0.
capire quando ciò accade. Ovviamente ci sono numerosi esempi applicativi in cui
si ha la necessità di affrontare questo tipo di problema. Nel libro "Sequential Analysis: Hypothesis Testing and Changepoint Detection" scritto da Alexander Tartakovsky, Igor Nikiforov e Michele Basseville[5]. In ambito medico, supponiamo
di testare l’effetto di una determinata cura o un determinato farmaco su uno specifico valore del paziente (ad esempio il livello di tossicità). Poniamo che il livello
di tossicità si comporti come un moto browniano standard Xptq con Xp0q “ φ dove φ rappresenta il livello di tossicità del paziente prima della somministrazione.
Possiamo ipotizzare che, prima di immettere il prodotto sul mercato, si operino,
per un tempo fissato preliminarmente, controlli sulle variazioni del valore conseguenti alla somministrazione del farmaco/cura. Questa fase viene chiamata "fase
di sperimentazione", il cui scopo è fornire una valutazione sulla sicurezza e/o tollerabilità del medicinale. E’ maggiormente desiderabile un farmaco che abbassi o
lasci invariato il valore specifico testato, mentre il farmaco non dovrà passare alle
fasi successive di sperimentazione, se la somministrazione comporta un evidente
innalzamento del valore.
Il test si riconduce sempre ad un SPRT caso normale -con varianza conosciuta, il quale testa la media degli incrementi (con campionamenti effettuati ad intervalli regolari). Anche in questo caso è possibile trovare due valori µ0 e µ1 , tali che
µ0 ă µ1 e che: per valori superiori a µ1 si commette un errore rilevante permettendogli di accedere alle fasi successive, per valori inferiori a µ0 l’errore nello stop
36
SPRT sul moto browniano
25
Rifiuto in questo punto H 0
20
15
Accetto
B(t)
10
Accetto
Accetto
5
0
Accetto
-5
-10
0
50
100
150
200
250
numero di iterate
Figura 6.2: applicazione del metodo sequenziale di ipotesi H0 : µ “ 0 contro H1 : µ “ 0.5 nel
caso in cui dal tempo 0 sino a τ si hanno incrementi Xi „ Normp0, 1q, mentre per tempi maggiori
di τ gli incrementi Xi „ Normp0.5, 1q.
della produzione sarebbe importante.
Bisogna anche considerare un altro aspetto: la somministrazione del farmaco
potrebbe non presentare effetti collaterali immediati e dunque è necessario monitorare il paziente per un periodo medio-lungo. Il test terminerà se ci troviamo
nella zona di rifiuto, mentre continuerà a campionare se ci troviamo nella regione
di indifferenza o in quella di accettazione. Quando il test conduce all’accettazione
dell’ipotesi nulla non fermiamo l’ispezione poiché l’effetto collaterale potrebbe
presentarsi in qualsiasi momento della fase di sperimentazione.
Una risposta al nostro problema è un sequential probability ratio test caso
normale di ipotesi semplici H0 : µ “ µ0 contro H1 : µ “ µ1 con un numero di
iterate massimo (corrispondente al tempo di sperimentazione) che, però riparte da
capo ogni volta che viene accettata l’ipotesi nulla. In sostanza iteriamo il SPRT
caso normale sino al rifiuto dell’ipotesi nulla. In Figura 6.3 possiamo vedere il
comportamento del test su una particolare realizzazione di un moto browniano.
37
6.4 Tempi di individuazione
Facciamo ora un esempio numerico per verificare l’efficacia del metodo. Il test
che prendiamo in esame è quello di ipotesi:
#
H0 : µ “ 0
(6.1)
H1 : µ “ 0.5
con α “ 0.010 e β “ 0.001. Questo test, come in precedenza spiegato, continuerà
ad iterarsi sino al rifiuto dell’ipotesi nulla o all’arrivo del numero massimo di
iterate prefissato.
Il moto browniano testato sappiamo a priori che è un moto browniano standard
sino τ “ 200 e poi acquista un drift µ “ 0.5. Dopo averlo implementato in
macchina, si effettua questo stesso test 10000 volte -ovviamente le realizzazioni
del browniano sono differenti ogni volta- al fine di fare qualche osservazione sui
tempi -o numero di iterate- che intercorrono tra l’istante τ “ 200 e l’istante t in
cui viene rifiutata l’ipotesi nulla.
Il grafico riportato in Figura 6.4 ci mostra le frquenze assolute degli t ´ τ. I
valori maggiori sono quelli che occorrono nel 98% dei casi. Questo indica che
la probabilità di falso allarme rimane molto limitata. Osserviamo inoltre che il
95% dei dati si trovano nell’intervallo tra 0 e 50. Questo dimostra la bontà del
test. Tuttavia, possono sorgere alcune problematiche. Le frequenze assolute per
le classi appartenenti ai valori negativi di t ´ τ sono costanti; i valori negativi
rappresentano gli errori del test quando accetta l’ipotesi che ci sia un drift quando
in realtà non c’è. Se effettuiamo la stessa procedura ma prendiamo un τ (punto di
cambiamento) molto più grande le frequenze per tutti i valori negativi rimarranno
costanti, ma in questo caso ci saranno molte più classi negative. La probabilità
di effettuare una scelta sbagliata aumenta man mano che allontaniamo l’istante τ
dall’istante in cui inizia il procedimento. Questo problema deriva essenzialmente
dall’errore di prima specie: ogniqualvolta il test comincia vi è una probabilità
„ α di rifutare l’ipotesi nulla commettendo un errore; così iterando il test questa
probabilità si moltiplica per il numero di test necessari ad arrivare sino a τ.
Potrebbe essere utile utilizzare un procedimento nel quale il valore α è molto
più piccolo. Questo cambiamento genererebbe sicuramente un forte abbassamento nella probabilità di un errore nel rifiutare, ma comporterebbe un innalzamento
della media degli t ´ τ. Possiamo concludere che la suddetta procedura può essere
utilizzata soltanto quando il periodo di monitoraggio è sufficientemente breve.
38
1500
1000
500
0
-200
-150
-100
-50
0
50
100
150
200
250
Figura 6.3: Istogramma degli t ´ τ ottenuti mediante l’iterazione per 10000 volte del metodo
sequenziale di ipotesi H0 : µ “ 0 contro H1 : µ “ 0.5 con α “ β “ 0.01 nel caso in cui dal tempo
0 sino a τ si hanno incrementi Xi „ Normp0, 1q, mentre per tempi maggiori di τ gli incrementi
Xi „ Normp0.5, 1q.
6.5 Analisi del metodo
Il metodo da noi utilizzato presenta un problema principale: la sottostima del drift
dopo l’istante τ di cambiamento. In questa sezione si vuole trovare un metodo per
attenuare questa problematica. Verrà proposto anche un altro approfondimento
relativo alla dipendenza dei parametri dati nel test.
6.5.1 Sottostima
Per capire meglio la problematica osserviamo la Figura 6.5 e la Figura 6.6. Nel
primo caso abbiamo una situazione ideale: ovvero l’ipotesi nulla è stata accettata
appena prima che il drift mutasse e questo ha reso possibile un’individuazione
veloce. Nel secondo caso l’ultima accettazione avviene molto prima e dunque
questo rallenta la decisione della procedura. Questo avviene perché, dopo aver
accettato l’ipotesi nulla, nella sommatoria degli incrementi
x1 ` x2 ` ... ` xθ ` ...xn
quelli che hanno media µ “ 0 avranno un certo peso, il quale condurrà ad una
sottostima del drift e si avrà bisogno di un maggior numero di campioni per ri39
SPRT sul moto browniano
50
Rifiuto in questo punto H
40
30
Accetto
B(t)
20
Accetto
10
Accetto
Accetto
Accetto
Accetto
0
-10
-20
0
50
100
150
200
250
300
350
400
450
numero di iterate
Figura 6.4: Illustrazione delle regioni di rifiuto,accettazione e indifferenza applicate al metodo
sequenziale di ipotesi H0 : µ “ 0 contro H1 : µ “ 0.5 nel caso in cui dal tempo 0 sino a τ si hanno
incrementi Xi „ Normp0, 1q, mentre per tempi maggiori di τ gli incrementi Xi „ Normp0.5, 1q.
SPRT sul moto browniano
20
Rifiuto in questo punto H 0
15
10
5
B(t)
0
-5
-10
-15
-20
-25
0
50
100
150
200
250
numero di iterate
Figura 6.5: Illustrazione analoga alla Figura 6.5. In questo caso le realizzazioni hanno condotto
ad un rifiuto meno repentino.
40
fiutare l’ipotesi nulla rispetto ad un test che prende in considerazione
řn solo i dati
da τ in poi. Una possibile soluzione si ottiene sostituendo sm “ i“1 xi con una
media pesata degli incrementi xi con pesi pi opportunamente scelti in modo che
più il dato è vicino al tempo presente e maggiore sarà il suo peso moltiplicato per
le iterate. Dunque
x1 p1 ` x2 p2 ` ...xn pn
sm “ n
p1 ` p2 ` ... ` pn
dove p1 ă p2 ă .. ă pn . Tuttavia non è facile creare un buon metodo che scelga i
pesi in modo opportuno.
Decidiamo allora di considerare solo gli ultimi k incrementi e ogni volta che
si effettua uno step (quindi una nuova osservazione) si cancella il più "vecchio".
Il test procederà, dunque, in questo modo: consideriamo il campione
x1 , x2 , ..xn
dopo aver effettuano k iterate senza effettuare una decisione l’agoritmo considererà solamente gli ultimi k incrementi. Se ci trovassimo allo step n´esimo senza
ancora nella regione di indifferenza considereremmo solamente
xn´k , ....., xn
In questo modo il nostro test avrà, dopo aver effettuato le prime k iterate senza
prendere una decisione, una numerosità campionaria prefissata.
Osservazione sulla scelta di k
Per scegliere k bisogna pensare a come attenuare il problema di sottostima. Una
possibilità per la scelta di k è questa: si valuta Eµ pnq del sequential test Q˚ di
ipotesi
#
H0 : µ “ µ0
con µ1 ą µ0
H1 : µ “ µ1
Eµ pnq rappresenta il valore atteso del numero di campioni necessari al test Q˚ per
effetuare una decisione al variare del vero valore µ. A questo punto imponiamo
Eµ1 pnq “ k in modo che, con alte probabilità, quando rifiutiamo l’ipotesi nulla le
ultime k ispezioni appartengano ad incrementi generati da una variabile aleatoria
normale con media maggiore o uguale a µ1 .
6.5.2 Dipendenza dai parametri
Sia µ1 il drift del moto prima del cambiamento, si vuole costruire un test il quale:
fino a quando µ ´ µ1 ă ε (con ε sufficientemente piccolo) con alte probabilità si
41
2000
1800
1800
1600
1600
1600
1400
1400
1400
1200
1000
800
Frequenza assoluta
2000
1800
Frequenza assoluta
Frequenza assoluta
2000
1200
1000
800
1200
1000
800
600
600
600
400
400
400
200
200
200
0
0
0
5
10
15
20
25
30
Dimensione del campione
35
40
45
50
0
5
10
15
20
25
30
Dimensione del campione
35
40
45
50
0
0
5
10
15
20
25
30
35
40
45
50
Dimensione del campione
Figura 6.6: I tre grafici illustrano la frequenza assoluta dei tempi di rifiuto di un SPRT di ipotesi
H0 : µ “ µ0 contro H1 : µ “ µ1 con α “ β “ 0.01 dove il vero valore è µ “ 1. Il primo grafico a
sinistra è il caso µ1 “ 1, il secondo è µ1 “ 0.5 ed il terzo µ1 “ 0.2
rimane nella regione di indifferenza e solo quando si altera il drift, il test condurrà
ad una decisione.
Il processo prima presentato riscontrava il problema di intersecare troppe volte la retta che delimitava la regione di accettazione. Ogni volta che avveniva
un’intersezione le regioni venivano modificate come illustrato in Figura 6.5.
Questo problema potrebbe essere attenuato se riuscissimo a non accettare l’ipotesi nulla, anche se vera, troppo facilmente. In questo modo sarà possibile
iterare meno volte il Sequential test e non accumulare errori. Il nostro proposito
è dunque di ragionare sulle variazioni delle regioni di accettazione, rifiuto e indifferenza. Sia S il nostro SPRT caso normale di ipotesi semplici µ0 e µ1 tali che
1 ą µ1 ą µ0 e sia µ1 ´ µ0 “ ϵ. Al diminuire di ϵ la regione di indifferenza si
amplia e inoltre i coefficienti angolari delle due rette che delimitano la regione
di indifferenza diminuiscono. Effettuiamo degli esempi, che vengono riportati in
Figura 6.7 al fine di verificare la precedente osservazione.
Usiamo ora la procedura con µ1 minore di quello utilizzato prima per testare un
moto (che noi conosciamo) equivalente a quello creato nella sezione precedente,
nonostante si ha una preferenza per l’accettazione per tutti i valori ă 0 ed una
preferenza per il rifiuto per valori ą 0.5. Prendiamo un caso particolare:
#
H0 : µ “ 0
(6.2)
H1 : µ “ 0.2
con α “ 0.01 e β “ 0.01. Il test, condurrà al rifiuto con probabilità P “ p1 ´ αq
se il vero valore è 0.2, mentre per valori più grandi di µ la probabilità aumenterà
(diminuirà αpθq). Vediamo in Figura come le regioni siano cambiate.
Il cambiamento applicato si traduce anche in tempi maggiori necessari al test
per fornire una scelta e di conseguenza in un cambiamento sostanziale nella di42
40
30
20
X(t)
10
0
-10
-20
-30
-40
0
50
100
150
200
250
300
numero di iterate
Figura 6.7: applicazione del metodo sequenziale di ipotesi H0 : µ “ 0 contro H1 : µ “ 0.2 nel
caso in cui dal tempo 0 sino a τ si hanno incrementi Xi „ Normp0, 1q, mentre per tempi maggiori
di τ gli incrementi Xi „ Normp0.5, 1q. In blu e arancione si possono notate le linee che delimitano
rispettivamente le regioni di rifiuto e accettazione.
stribuzione dei tempi (numero di iterate) τ ´ t. La Figura 6.9 dimostra come sia
cambiato il grafico delle frequenze assolute.
Questo metodo ha il vantaggio di non accumulare errori all’aumentare di τ,
ma man mano che l’istante di cambiamento è più lontano rispetto all’istante di
partenza dell’ispezione le frequenze di t ´ τ si sposteranno verso destra: cioè per
il problema di sottostima il test sarà più lento ad effettuare una decisione. Anche
in questo caso si può utilizzare il metodo prensentato nella sezione 6.10.1.
43
1000
900
800
frequenza assoluta
700
600
500
400
300
200
100
0
-200
-150
-100
-50
0
50
100
150
200
250
300
tempo t-theta
Figura 6.8: Istogramma rappresentante i tempi t ´ τ trovati dall’iterazione per 10000 volte
del metodo sequenziale di ipotesi H0 : µ “ 0 contro H1 : µ “ 0.2 nel caso in cui dal tempo
0 sino a τ si hanno incrementi Xi „ Normp0, 1q, mentre per tempi maggiori di τ gli incrementi
Xi „ Normp0.5, 1q. In blu e arancione si possono notate le linee che delimitano rispettivamente le
regioni di rifiuto e accettazione.
44
Capitolo 7
Conclusioni
In questa tesi sono stati esposti i pilastri fondamentali della teoria statistica sequenziale usando come riferimento principale il libro "Sequential Analysis" di
Abraham Wald. Si è fatto uso di questa teoria per alcune applicazioni. L’applicazione del Sequential Probability Ratio Test al caso di una variabile aleatoria
bernoulliana riveste un ruolo fondamentale nei problemi attinenti il controllo qualità. L’applicazione al caso normale risulta, invece, essenziale per applicare il
metodo sequenziale ad un moto browniano.
La questione di fondo che anima questa tesi è, difatti, legata ad un problema
di detection: cioè l’individuazione del cambiamento del drift di un moto browniano. Applicando la teoria dei test sequenziali al moto browniano abbiamo ottenuto
dei metodi per la detection che hanno tempi di individuazione inversamente proporzionali alle probabilità di individuare un falso allarme. Sono, dunque, molto
soddisfacenti nel caso in cui l’obbiettivo sia solo l’individuazione corretta e non il
tempo necessario ad essa. L’utilizzo di α molto piccolo è una soluzione efficiente
in questo caso particolare. Gli algoritmi presentati vogliono essere una rappresentazione parziale dei possibili metodi di soluzione, ma forniscono comunque alcuni
importanti spunti per l’approccio al problema in questione. Nell’ultima parte della tesi si è accennato ad alcune soluzioni che potrebbero rendere l’algoritmo più
efficiente.
Tuttavia bisognerebbe continuare lo studio delle dipendenze dei parametri dati
in un SPRT al fine di capire come essi influiscano sulla suddivisione dello spazio
campionario nelle tre regioni (accettazione, rifiuto e indifferenza). Possibili sviluppi futuri potranno riguardare anche la scelta di quali sono le ispezioni che si
devono considerare al fine di ottimizzare il metodo. Tale scelta dipenderà non solo
da considerazioni preliminari, ma anche dalle realizzazioni del campione.
45
Capitolo 8
Appendice
8.1 Codice matlab: Sequential Probability Ratio Test caso Bernoulli
Viene riportato qui il codice implementato su Matlab dell’algoritmo presentato
nella sezione 5.2.
function[n,h]=SPRT_bernoulli(p0,p1,x,alpha,beta)
% Input:p0 é il valore da testare come ipotesi nulla
%
p1 è il valore da testare come ipotesi alternativa
%
x è il lotto di prodotti molto grande
%
alpha è l’errore di prima specie
%
beta è l’errore di seconda specie
%
% Output: n vale 0 se accetto l’ipotesi nulla e 1 se la rifiuto
%
h è il numero delle iterate
n=99;
h=1;
c=0;
for iter=1:1000
if x(h)==1
d=log(p1/p0);
end
if x(h)==0
d=log((1-p1)/(1-p0));
end
c=c+d;
if c >log( (1-beta)/alpha )
n=1;
46
break
end
if c < log(beta/(1-alpha))
n=0;
break
end
end
L’output sarà n “ 1 se rifiuto l’ipotesi nulla, altrimenti n “ 0.
8.2 Codice matlab: sequential probability ratio test
caso Normale
Riportiamo qui il codice implementato su Matlab dell’algoritmo presentato nella
sezione 6.2.
function[n,h]=SPRT_normale(u0,u1,y,alpha,beta)
% Input: u0 è il valore da testare come ipotesi nulla
%
u1 è il valore da testare come ipotesi alternativa
%
y è il lotto di prodotti distribuito come una normale
%
alpha è l’errore di prima specie
%
beta èl’errore di seconda specie
% Output: n vale 0 se accetto l’ipotesi nulla e 1 se la rifiuto
%
h è il numero delle iterate
n=99;
h=1;
c=0;
for iter=1:1000
d= ((u1-u0)*y(h))+ 0.5*((u0)2 -(u1)2 )
c=c+d;
if c>log( (1-beta)/alpha )
n=1;
break
end
if c < log(beta/(1-alpha))
n=0;
break
end
h=h+1;
end
end
47
8.3 Neyman test
Qui di seguito il codice implementato in Matlab dell’algoritmo visto in sezione
6.4
function [ beta ] = Neymantest( u0, u1, alpha, n )
x=randn(n,1)+1;
L=0;
k0= sqrt(2*n)* erfinv(2*alpha-1) + n*u0;
k1= exp(k0*(u0-u1)+ (n/2)*(u12 -u02 ));
for i=1:n
L=L+(u0-u1)*x(i)+ (1/2)*(u12 -u02 ); end
if L>k1
H=0;
fprintf(Accetto ipotesi nulla)
else
H=1;
fprintf(Rifiuto ipotesi nulla ipotesi nulla)
end
beta= 1- ( (1/2)*(1+erf( (k0-u1)/(sqrt(2*n)) )));
end
8.4 Test sul Moto Browniano
Riportiamo ora un codice che racchiude tutti i test e tutte le modificazioni viste
nella sezione 7.
function[h,n,t,aM,rM,dM]=SprtBrownianoCompost(k,u0,u1,alpha, beta,drift,tau)
aM=linspace(0,10,101);
rM=linspace(0,10,101);
dM=linspace(0,10,101);
diff=0;
zz=linspace(-500,100,1001);
te=linspace(0,10,10001);
cc=1;
for iter=1:10000
s=0;
48
n=99;
q=0;
h=1;
c=0;
d=linspace(0,10,10001);
cont=linspace(0,10,501);
B=linspace(0,10,10001);
k=1;
y=randn(10001,1);
j=tau;
for i=1:10000-tau
j=j+1;
y(j)=y(j)+drift;
end
for iter=1:10000
k=k+1;
B(k)= B(k-1)+y(k);
end
for iter= 1:10000
for i = 1:length(d)
h=h+1;
dM(h)=dM(h-1)+y(h-1);
if h>k
dM(h)=dM(h)-y(h-k);
end
aM(h)=(1/(u1-u0))*log(beta/(1-alpha))+(i)*((u0+u1)/2)+diff;
if i>k
aM(h)=(1/(u1-u0))*log(beta/(1-alpha))+(k)*((u0+u1)/2)+diff;
end
rM(h)=(1/(u1-u0))*log((1-beta)/alpha)+(i)*((u0+u1)/2)+diff;
if i>k
rM(h)=(1/(u1-u0))*log((1-beta)/alpha)+(k)*((u0+u1)/2)+diff;
end
if dM(h)>=rM(h);
n=1;
break
end
if dM(h)<=aM(h);
n=0;
q=q+1;
break
49
end
end
s=s+1;
cont(s)=h;
c=0;
diff=B(h)
te(cc)=h-tau;
if n==1
break
end
end
cc=cc+1;
end
hist(te,50)
end
50
Bibliografia
[1] Abraham Wald, (1948). Sequential Analysis. Dover Phoenix Editions.
[2] David Siegmund, (1985). Sequential Analysis. Test and confidence. Springer
series in statistics.
[3] Abraham Wald, (1951). Sequential Test of Statistical Hypothesis. The Annals
of Mathematical Statistics.
[4] R.L. Berger,(2001). Statistical Inference, Duxbury Press
[5] Alexander Tartakovsky, Igor Nikiforov, Michèle Basseville ,(2015).Sequential Analysis: Hypothesis Testing and Changepoint Detection, Chapman
and Hall Book
[6] Shewhart Walter, (1931). Economic Control of Quality Manufactured
Product. American Society for Quality (ASQ)
51