Rome University, La Sapienza
Chemistry Department
Rome, Italy, Europe
Dr. Giovanni Visco
Cenni di statistica di base. Calcoli di regressioni e correlazioni. dicembre 2006
Corso di Laurea in
Scienze Applicate ai Beni Culturali ed alla Diagnostica per la loro Conservazione
previous slide, 52 next slide, 54

Fisher F-test, varianza di due distribuzioni

  Fino ad ora praticamente tutti i test erano legati la valore centrale di una distribuzione, nelle sua varie forme, e su questo basavano le ipotesi, magari tenendo conto anche dello spread.

  R.A. Fisher invece in gran parte dei suoi studi di statistica si interessa della varianza, cioe' della forma e della dispersione di una distribuzione. E' un grande passo avanti che ci permettera' la nascita di altri test non solo fra due variabili ma anche multivariati.

Qualche ipotesi preliminare

  Dato che anche se basato sulle varianze anzi per essere precisi sugli scarti quadratici medi dei campioni si tratta pur sempre di un test parametrico con alcune premesse per la sua validita'.

hippo-1
F-test, variance ratio

  The F-test is used to test if the standard deviations of two populations are equal. Definiamo due distribuzioni, anche di numerosita' poco diversa, che provengono dal campionamento di una popolazione. Come nell'esempio seguente che abbiamo gia' usato per un non-parametrico.

two different sample design, centrifuge tube test, diameter
Random sampling with replac. 14.71 14.83 14.71 14.79 14.78 14.80 14.64 14.68 14.80 14.78 14.71 14.77 14.70
Systematic sample 14.70 14.80 14.80 14.73 14.82 14.77 14.73 14.70 14.75 14.78 14.76 14.81 14.79

  Questo F-test cosi' detto in onore a R.A. Fisher e' usato per confrontare due varianze σa e σb mediante due loro stime Sa et Sb. Il test e' normalmente definito con la sigla F(a,b). Il test e' utile perche' una volta dimostrata la H0 ci permette di stimare σa conoscendo Sa.

Definizioni:

light_linea

Calcoli:

  Vista la delicattezza intrinseca dei test parametrici e meglio, come al solito, graficare le due distribuzioni. Usiamo un ampiezza di classe pari a due volte la risoluzione, 0.02 mm. Notiamo che una volta riportate in grafico le due distribuzioni si presentano davvero difficili, altro che mediana e average, queste sono indefinite e' non potrebbero essere usate in un test parametrico.

per il F-test
le due distribuzioni per il test di Fisher sulle varianze

  Anche se qualche volta c'e' qualche confusione sulla notazione, la formula e' chiara. Ricordiamo che le due varianze vanno poste con S2a > S2b, cosi' facendo si avra' sempre F(a,b) > 1.

t-test per r
F-test, variance ratio

  Che nel caso delle due distribuzioni da 13 misure:

  Le tavole dei valori critici di Fisher sono di solito costruite per valori di probabilita' del 90%, 95% et 99%. Inoltre queste tabelle sono tutte one-side, questo per la particolare forma della distribuzione F. Percio' usiamo una tabella one-side per confermare una H0 per σab che sembrerebbe aver bisogno di tabelle double-side, risultato ... usiamo per il test la tabella α/2. Ma questo, a parte una spiegazione a lezione, esula un po dal nostro insegnamento.

  Percio' in questo caso accettiamo un errore di tipo I pari al 10% ed al 2%, cioe' una probabilita' per H0 pari al 90% ed al 98% (che indica anche una α=0.1 et α=0.02). Copiamo le opportune tabelle α/2 da un un buon libro.

One Sided Fisher critical values for α=0.05
S2b 10 11 12 13 14 <--- S2a
10 2.978 2.943 2.913 2.887 2.865  
11 2.854 2.818 2.788 2.761 2.739  
12 2.753 2.717 2.687 2.660 2.637  
13 2.671 2.635 2.604 2.577 2.554  
14 2.602 2.565 2.534 2.507 2.484  

  Avendo scelto una probabilita' del 90% (ricordiamoci α/2) il valore tabulato 2.687 e' maggiore di quello ottenuto 2.013 percio' l'ipotesi nulla e' accettata.

One Sided Fisher critical values for α=0.01
S2b 10 11 12 13 14 <--- S2a
10 4.849 4.772 4.706 4.650 4.601  
11 4.539 4.025 4.397 4.342 4.293  
12 4.296 4.220 4.155 4.100 4.052  
13 4.100 4.025 3.960 3.905 3.857  
14 3.939 3.864 3.800 3.745 3.698  

  Se abbiamo scelto una probabilita' del 98% (ricordiamoci α/2) il valore tabulato 4.155 e' anchesso maggiore di quello ottenuto 2.013 percio' l'ipotesi nulla e' accettata.

hippo-1

  In questo esempio si vede ancora meglio il funzionamento della matrice 2x2 legata alle ipotesti H0 ed H1. Se accettiamo di commettere un errore di tipo 1 (cioe' che H0 e' vera ma noi la rifiutiamo) con un α=0.02 il valore di F(a,b) deve essere molto grande; la nostra forte preoccupazione di non commettere errori del I tipo ci fa accettare valori di F(a,b) molto grandi fino a 4.155. Forse per questo, ma non solo, il test piu' usato e' quello con α=0.05, il 95%.

on-line resource

  Prima una precisazione: sono state lasciate tutte le cifre decimali prodotte dai calcoli per permettere il confronto con altri software, chiaramente se questi numeri comparissero in una pubblicazione e/o relazione sarebbero sbagliati.

  1. i seguenti calcolatori on-line NON sono stati provati uno ad uno per la loro correttezza, come neache tutti i testi sono stati letti, attenzione, attenzione,
  2. F-test, tables, NIST americano, tre tabelle per F test, one-sided, con tanti gdf, ricordiamo che la riga e' per Sa, quello maggiore, e la colonna per Sb
hippo-1
F-test, how many data

  The F-test can be also used to estimate how many measures are necessary to obtain a stated α. Cioe' possiamo chiederci, "definita una probabilita' α, quanti dati servono affinche l'ipotesi nulla possa essere accettata o respinta con una probabilita' β di comettere errori di tipo II?".

  Le formule non sono dovute a Fisher ma utilizzano la sua distribuzione e quella di Gauss per stimare un numero minimo di misure. Una delle formule:

t-test per r
Raghavarao estimation of nmin

  In cui, con i soliti parametri:

  Lo stimare quanti dati saranno necessari per il nostro test e' detto dagli statistici stimare la "Potenza a Priori". Parametro necessario ma che implica delle assunzioni sugli errori del I e del II tipo, anzi sul loro legame come si vede dal numeratore delle formula, che spesso sono difficili o aleatorie.

  Sulla formula e sul concetto qui espresso ci sarebbe da dire tanto, e' una tautologia, per "stimare" devo gia' conoscere Sa et Sb cioe' ha gia' svolto le misure su di un umero n di oggetti. Allora la formula ci dice se il numero n usato e' sufficiente se avessimo scelto richeisto un valore di α e β. Questo giusto per far capire le implicazioni che ci sono dietro una formula ed una scelta.

  Sui testi di statistica si trovano varie formule che esula dal nostro contesto. Per pochi campioni, cioe' nella numerosita' prevista da Gosset si puo' usare una criterio per diminuire la soggettivita' nella scelta di α e β, legandoli fra loro con la formula.

1-β = 1-4α

  Magari dopo aver riletto la slide su H0 ed H1 e su "errore di tipo I" ed "errore di tipo II" e "costo dell'errore" possiamo esplicitare i casi piu' frequenti:

α=0.01 e β=0.05 oppure α=0.02 e β=0.10 ed anche α=0.05 e β=0.20

P.S.

I valori di Z li trovate in tante tabelle e ne abbiamo parlato anche in una slide (z che sottende il 95% dei dati

previous slide next slide