MANUALE DI STATISTICA
STATISTICA UNIVARIATA E
BIVARIATA
PARAMETRICA E
NON-PARAMETRICA
EDIZIONE APRILE 2005
|
|
ULTIMA EDIZIONE 2010 Corretta e ampliata: |
|
|
TESTO DI STATISTICA NON PARAMETRICA EDIZIONE 2008 |
|
|
TESTO DI STATISTICA APPLICATA EDIZIONE 2008 |
con la collaborazione di
Franco Sartore e Enzo Siri
Email: lamberto.soliani@unipr.it
Tel.0521/905662
Fax 0521/905402
Le dispense (quasi 2500 pagine in 24 capitoli, più allegati) possono
essere utilizzate gratuitamente.
E' sufficiente cliccare il titolo del capitolo. Compare l’indice e il
testo. Salvare sul file desiderato.
A coloro che le utilizzano, l’autore chiede un favore
- senza alcun impegno, ma solo
per facilitare la raccolta di informazioni sul tipo di utenti e quindi adattare
la scelta degli argomenti per edizioni future, è gradito l’invio di una e-mail, all’indirizzo: lamberto.soliani@unipr.it
Chi desidera seguire eventuali
corsi e chi non trova l’argomento
desiderato può inviare la sua richiesta, con un minimo di dettagli.
PRESENTAZIONE
Più che
creare, trasmetto.
CONFUCIO
Even more
important than learning about statistical techniques is the development of what
might be called a capability for statistical
thinking.
(Dal Preface di G. E. P. Box, W. G. Hunter e J. S. Hunter
del 1978 Statistics for Experimenters. An Introduction
to Design, Data Analysis, and Model Building,
John Wiley and Sons, Inc., New York).
Con intensità crescente
negli ultimi anni, i tecnici, i ricercatori e i responsabili di strutture
impegnate nei problemi ambientali,
biologici e della sanità chiedono gli strumenti per una conoscenza
operativa delle metodologie statistiche. La diffusione dell’informatica e lo
sviluppo delle tecnologie permettono di raccogliere con facilità molti dati.
I corsi di
laurea in Biologia, Scienze Naturali e Geologia, Agraria e Biotecnologia,
quelli di Chimica, di Ingegneria del territorio e di Medicina, dai quali
provengono molti degli operatori attuali, sovente forniscono una preparazione
teorica che si dimostra inadeguata, per i problemi della professione. Anche agli
studenti dei corsi di diploma, di laurea, dei master e dei dottorati, appare
utile una spiegazione semplice dei concetti fondamentali e dei metodi più
importanti. Per tutti coloro che ricorrono alla statistica applicata, hanno
un’importanza relativa le dimostrazioni matematiche, mentre è necessaria
un’illustrazione chiara e semplice dei test più diffusi. Quando utilizzano
programmi informatici, essi trovano numerose opzioni; ma quasi mai i manuali
riportano spiegazioni chiare, che siano comprensibili anche alle persone prive
di una esperienza specifica.
L’autore ha
cercato di rispondere a questa domanda così diversificata, con una
presentazione elementare ma completa dei concetti e dei metodi dell’inferenza
statistica univariata e bivariata, sia parametrica che non parametrica, con
numerose applicazioni. Prendendo come punti di riferimento da una parte i testi
di statistica applicata e di biometria a maggior diffusione internazionale, di
riconosciuta validità scientifica e maggiormente citati nelle pubblicazioni,
dall’altra i programmi informatici più utilizzati, ha cercato di spiegare le
metodologie che più frequentemente trovano applicazione nella ricerca
sull’ambiente e nell’analisi delle popolazioni.
Nella stesura di
questo testo-manuale, le linee guida sono state la completezza e l’operatività,
da raggiungere con un linguaggio e una simbologia semplici, a volte perfino
banali e non sempre rigorosi, come può succedere anche nelle lezioni
universitarie, quando l’obiettivo primario è favorire la comprensione dei
concetti di base.
La riforma degli ordinamenti didattici, in atto nelle Università italiane, esige programmi strutturati in moduli, per una preparazione culturale più completa da fornire nei corsi di laurea specialistici, per un approccio rapidamente operativo nei corsi triennali. Il testo, che fornisce argomenti ed esempi per quasi 120 ore di lezione, può essere scisso con facilità in parti indipendenti di circa 30-40 ore, che sono ugualmente di semplice comprensione: i concetti più importanti sono ripetuti in numerosi esempi, in modo volutamente ridondante, con estrema attenzione alle applicazioni.
Ideato e scritto per la formazione e l’aggiornamento, questo manuale si è dimostrato utile sia per la preparazione di base nel primo anno di Università, sia per chi ha pratica di gestione scientifica e di ricerca nelle Università e nelle Aziende, ma cerca un approfondimento su alcuni metodi statistici più recenti o meno noti.
Per una visione complessiva della disciplina, per la scelta ragionata dei metodi e l’interpretazione corretta degli output dei programmi informatici, lo studio personale non è sufficiente, ma è indispensabile seguire un corso impostato su queste finalità. Serve una guida esperta, che illustri le possibilità di scelta tra le varie opzioni.
Corretto, aggiornato ed ampliato attraverso il dibattito con gli utenti, questo testo ha una edizione nuova quasi ogni anno. Per questo permangono errori, di cui l’autore si scusa.
Da quanto in rete è stata tratta una versione abbreviata e una versione
per la sola statistica non parametrica.
Il testo nella versione
abbreviata, di circa 550 pagine, è per un corso universitario di circa 40 ore o un corso di formazione
che parta dal livello 0.
Il testo di statistica non
parametrica, di circa 770 pagine, è per corsi universitari di secondo livello o per corsi di aggiornamento per
aziende e professionisti. Sono
presentati molti metodi non parametrici, tutti quelli utilizzati nelle maggiori
librerie informatiche e di uso comune nella ricerca biologica, ambientale,
medica, sociologica e psicologica.
Entrambi i testi, con la forma grafica della dispensa, sono venduti a
un prezzo politico, inferiore a quello di stampa con un computer, presso la
casa editrice di Parma, specializzata in testi universitari,
- UNI.NOVA di Pietro Lia – Via Fleming,7 - 431000 Parma
- tel.: 0521-290245 cell.
335-8385704
Presso la stessa casa editrice, è possibile chiedere la stampa della versione estesa riportata in rete e il CD
sia in formato pdf sia in word.
Attualmente, professore ordinario di “Fondamenti di analisi dei sistemi ecologici” (gruppo BIO 7).
Già prof. ordinario di Demografia Investigativa.
Docente di Statistica
applicata nei corsi di laurea in Scienze Ambientali, Scienze Biotecnologiche e
Biologia Ecologica, Scienze Naturali, Chimica
Responsabile della
formazione in statistica applicata in vari master (Scienze Forensi, Analisi
chimiche per gli alimenti e l’inquinamento, ecc. …), in corsi per laureati
finanziati dal Fondo Sociale Europeo, in corsi di formazione - aggiornamento
presso aziende ed associazioni professionali
(quali APAT, CTN, ARPA
regionali, Aziende Farmaceutiche Italiane).
Dipartimento di Scienze Ambientali,
Università di Parma
Viale
delle Scienze 11/A (Campus)
43100
Parma
Per qualsiasi informazione è possibile contattare l'autore.
Email: : lamberto.soliani@unipr.it Tel.0521/905662 Fax 0521/905402
I N D I C
E
2. DISTRIBUZIONI e leggi di probabilitA’
4. VERIFICA DELLE IPOTESI TEST PER UN CAMPIONE
SULLA TENDENZA CENTRALE
CON VARIANZA NOTA E TEST SULLA VARIANZA CON INTERVALLI DI CONFIDENZA
6. INFERENZA SU UNA O DUE MEDIE CON IL TEST t
DI STUDENT
7. METODI NON PARAMETRICI PER UN CAMPIONE
8. METODI NON PARAMETRICI PER DUE CAMPIONI
DIPENDENTI
9. METODI NON PARAMETRICI PER DUE CAMPIONI
INDIPENDENTI
10. ANALISI DELLA VARIANZA (ANOVA I) A UN CRITERIO DI
CLASSIFICAZIONE E
11. ANALISI DELLA VARIANZA A PIU' CRITERI DI
CLASSIFICAZIONE
12. analisi FATTORIALE, disegni complessi CON FATTORI INCROCIATI
13. TRASFORMAZIONI DEI DATI CON TEST PER NORMALITA’ E PER OUTLIER
14. L’ANALISI GERARCHICA E LE COMPONENTI DELLA VARIANZA
15. TEST NON PARAMETRICI PER PIU' CAMPIONI
17. CONFRONTI TRA RETTE, CALCOLO DELLA RETTA CON
Y RIPETUTE, CON VERIFICA DI
LINEARITA’ E
INTRODUZIONE ALLA REGRESSIONE LINEARE MULTIPLA
20. COEFFICIENTI DI ASSOCIAZIONE, DI COGRADUAZIONE E DELL’ACCORDO
RISCHIO
21. TEST NON PARAMETRICI PER CORRELAZIONE, CONCORDANZA, REGRESSIONE
MONOTONICA E
REGRESSIONE LINEARE
22. ALTRI METODI INFERENZIALI: NORMAL SCORES E RICAMPIONAMENTO
23. IL DISEGNO SPERIMENTALE: CAMPIONAMENTO,
PROGRAMMAZIONE DELL’ESPERIMENTO
24. LA REGRESSIONE LINEARE MODELLO II E LEAST
PRODUCTS. IL CONFRONTO TRA DUE METODI QUANTITATIVI.
IL SEI-SIGMA NEL
CONTROLLO DI QUALITA’
ALLEGATI
R: UN AMBIENTE OPENSOURCE
PER L'ANALISI STATISTICA DEI DATI
RAPPRESENTAZIONE
ANALITICA DELLE DISTRIBUZIONI
PRINCIPALI TECNICHE DI REGRESSIONE CON R
VERSIONE RIDOTTA
PER UN CORSO DI PRIMO LIVELLO
CAPITOLO I: ELEMENTI DI STATISTICA DESCRITTIVA PER DISTRIBUZIONI UNIVARIATE
1.1. La statistica nella ricerca ambientale e
biologica
1.2. Il disegno sperimentale, il
campionamento e l’inferenza
1.3. Tipi di dati e scale di
misurazione
1.4. Classificazione in tabelle
1.5. Rappresentazioni grafiche di
distribuzioni univariate
1.6. Le misure di tendenza centrale
1.7. Le misure di dispersione o
variabilità
1.8. Indici di forma: simmetria e
curtosi
1.9. Accuratezza, precisione e scelta
del numero di cifre significative
1.10. Rappresentazioni semi-grafiche delle distribuzioni: box-and-whisker
e stem-and-leaf
1.11. Esempi di misure di tendenza centrale, dispersione, simmetria e curtosi
CAPITOLO II: DISTRIBUZIONI E LEGGI DI PROBABILITÀ
2.1. Elementi di calcolo combinatorio semplice
2.2. Definizioni di probabilità:
matematica, frequentista e soggettiva, con elementi di
statistica bayesiana
2.3. Alcune distribuzioni discrete
2.3 1. Distribuzione
binomiale
2.3.2. Distribuzione poissoniana
2.3.3. Distribuzione ipergeometrica
2.3.4. Distribuzione binomiale negativa
2.4. Alcune distribuzioni continue
2.4.1. Distribuzione normale
o di Gauss
2.4.2. Distribuzioni asintoticamente normali, con approssimazioni e
trasformazioni
2.4.3. Dalla disuguaglianza di Chebyshev alla distribuzione normale
2.4.4. Approssimazioni e correzioni per la continuità
2.5. Distribuzioni campionarie derivate dalla normale e utili per l’inferenza
2.5.1. La distribuzione
χ 2
2.5.2. La distribuzione t di Student
2.5.3. La distribuzione F di Fisher
Tabelle della curva normale
standardizzata
CAPITOLO III: CONFRONTI TRA FREQUENZE: TEST PER LA BONTÀ DELL’ADATTAMENTO E TABELLE DI CONTINGENZA
3.1. Confronti tra distribuzioni osservate e
distribuzioni attese
3.2. Condizioni di validità del χ 2 e correzione di Yates
3.3. Le tabelle di contingenza 2 x 2
(fourfold tables)
3.4. Correzioni per la continuità in
tabelle 2 x 2
3.5. Confronti tra frequenze relative
con la distribuzione normale e correzione per la continuità
3.6. Confronto tra test χ2 per tabelle 2 x 2 e
test Z, senza e con le correzioni per la continuità
3.7. Confronto di una proporzione
osservata con una attesa: il test Z per
grandi campioni e
la distribuzione binomiale per
piccoli campioni
3.8. Tabelle di contingenza 2 x 2 in
piccoli campioni: il metodo esatto di Fisher
3.9. Le tabelle 2 x N con la formula
generale e quella di Brandt-Snedecor.
Le tabelle M x N
3.10. Esempi di tabelle di contingenza
Tabelle della distribuzione χ2
CAPITOLO IV: INFERENZA SU UNA O DUE MEDIE CON IL TEST t DI STUDENT
4.1. La distribuzione t di Student
4.2. Confronto tra una media osservata
e una media attesa, con calcolo dei limiti
di confidenza di una media, con ignota
4.3. Confronto tra una osservazione e
la media di un campione
4.4. Il confronto tra le medie di due
campioni
4.5. Il test t per 2 campioni
dipendenti o per dati appaiati, con intervallo
di confidenza della media delle
differenze
4.6. Il test t per 2 campioni
indipendenti o per dati non appaiati
4.7. Test F, test di Levene e test di
Bartlett per ipotesi bilaterali e unilaterali
sull’uguaglianza di due varianze
4.8. Significatività e intervallo di
confidenza di una differenza
4.9. Potenza a priori e a posteriori
del test t con un campione
4.10. Dimensione del campione e precisione nella stima sia di una media
sia della differenza tra due
medie
4.11. Il bilanciamento di 2 campioni indipendenti: vantaggi e costi
Tabelle della distribuzione t di Student
CAPITOLO V: ANALISI DELLA VARIANZA
5.1. Analisi della varianza a un criterio di
classificazione o a campionamento
completamente randomizzato
5.2. Confronto tra l’analisi della
varianza e il test t di Student
con due campioni indipendenti
5.3. Test per l’omogeneità della
varianza tra più campioni: test di
Hartley, Cochran, Bartlett,
Levene
5.4. I confronti a priori o pianificati
tra più medie
5.5. I confronti multipli a posteriori
o post-hoc (UMCP)
5.6. Il principio di Bonferroni e il
metodo di Dunn-Sidak
Tabelle della distribuzione F di Fisher
CAPITOLO VI: LE TRASFORMAZIONI DEI DATI
6.1. Assunzioni di validità dei test parametrici
6.2. Trasformazioni dei dati
6.3. La scelta della trasformazione
idonea: il metodo di Box-Cox
6.4. Effetti delle trasformazioni sui
risultati dell’ANOVA
CAPITOLO VII: ANALISI
DELLA VARIANZA CROSSED A PIU’ CRITERI
E
ANALISI DELLA VARIANZA NESTED
7.1. Analisi della varianza a due criteri di
classificazione o a blocchi randomizzati,
con una sola osservazione per
casella
7.2. Confronto tra analisi della
varianza a due criteri e test t di Student
per 2 campioni dipendenti
7.3. Analisi della varianza a tre o più
criteri
7.4. Quadrati latini e greco-latini
7.5. Dati mancanti o anomali in disegni
a più fattori
7.6. Efficienza relativa (E.R.) e
capacità predittiva (R2)
7.7. Analisi gerarchica o nested in
ANOVA I, II, III
7.8. Nested ANOVA I o a effetti fissi
CAPITOLO VIII: REGRESSIONE LINEARE SEMPLICE
8.1. Regressione o correlazione?
8.2. Descrizione di una distribuzione
bivariata
8.3. Modelli di regressione
8.4. La regressione lineare semplice
8.5. Valore predittivo della
regressione
8.6. Significatività dei parametri
β e α della retta di regressione
8.7. Il coefficiente di determinazione:
R2 e R2adj
8.8. Analisi della relazione
dose-effetto nel caso di Y ripetute:
test per la linearità e calcolo
della retta di regressione
8.9. Condizioni di validità della
regressione con l’analisi dei residui;
test per la costanza della
varianza d’errore
CAPITOLO IX: CORRELAZIONE SEMPLICE E PARZIALE
9.1. La correlazione: generalità e calcoli
9.2. Condizioni di validità e
significatività di r con ρ = 0
e ρ ≠ 0
9.3. Significatività della linearità
con R2?
9.4. Intervallo di confidenza di ρ
9.5. La correlazione parziale o netta
di primo ordine e di ordine superiore;
la correlazione semiparziale
CAPITOLO X: VERIFICA DELLE IPOTESI
10.1. Risultati significativi e non-significativi
10.2. Procedura di verifica delle ipotesi: Vero o falso? Utile o
dannoso?
10.3. Potenza di un test
10.4. Numero di dati necessari in
rapporto alla potenza, alla significatività del test
e alla direzione dell’ipotesi.
Il criterio di Cohen per la scelta di α e β
10.5. Intervallo di confidenza di una
media con 2 nota
10.6. Intervallo di confidenza di una
varianza
10.7. Parametri e statistiche:
correttezza, efficienza, consistenza, sufficienza
STATISTICA NONPARAMETRICA
PER LA
PROFESSIONE
Lamberto Soliani
con la collaborazione di
INDICE
CAPITOLO I: TEST PER LA BONTA’
DELL’ADATTAMENTO E
TABELLE DI CONTINGENZA
1.1. Confronti tra
distribuzioni osservate e distribuzioni attese
1.2. Condizioni di validità del χ 2 e correzione di Yates
1.3. Le tabelle di contingenza 2 x 2 (fourfold tables)
1.4. Correzioni per la continuità in tabelle 2 x 2: Yates e Haber
1.5. Confronti tra frequenze relative, con la distribuzione normale
e con la correzione per la
continuità
1.6. Confronto tra test χ 2 per tabelle 2 x 2 ,
senza e con le correzioni per la continuità
1.7. Confronto di una proporzione osservata con una attesa: il test z per
grandi campioni
e la distribuzione binomiale
per piccoli campioni
1.8. Tabelle di contingenza 2 x 2 in piccoli campioni: il metodo esatto di
Fisher
1.9. La tabelle 2 x n con la formula generale e quella di Brandt-Snedecor. Le
tabelle m x n
1.10. Il log lokelihood ratio o metodo G
1.11. Il chi quadrato con i metodi di Cochran e di Mantel-Haenszel
CAPITOLO II: ANALISI DELLE PROPORZIONI E DEI RISCHI
2.1. La varianza di una
proporzione e stima del rischio aggiuntivo
2.2. Intervallo di confidenza di una probabilità o frequenza relativa, secondo
il metodo di Clopper e
Pearson
2.3. Intervalli di confidenza non parametrici e intervalli di tolleranza
2.4. Intervallo di confidenza di una proporzione in una popolazione infinita e
in una popolazione finita
2.5. Campione necessario per la stima di una proporzione con errore prefissato
2.6. Test per la bontà dell’adattamento, con una proporzione nota oppure ignota
2.7. Test per una proporzione e sua potenza, con uso della distribuzione
binomiale
e della distribuzione
normale
2.8. Differenza tra due proporzioni: significatività e intervallo di
confidenza,
con metodo di Fisher e calcolo
di Feldman e Kluger
2.9. Potenza a posteriori (1- β ) e a priori (n) dei test sulla differenza
tra due proporzioni
CAPITOLO III: METODI NON PARAMETRICI PER UN CAMPIONE
3.1. Le caratteristiche dei
test non parametrici
3.2. Il test delle successioni per un campione
3.3. Il test dei segni per un campione
3.4. Intervallo di confidenza della mediana, con il test dei segni
3.5. Il test di Wilcoxon
3.6. Differenze nulle e ties nel test di Wilcoxon
3.7. Teoria del test di Wilcoxon e della correzione per i ties
3.8. Intervalli di confidenza della locazione(mediana) con il test di Wilcoxon;
medie di Walsh
o quasimedians, stimatore di
Hodges-Lehmann o pseudomedian
3.9. Il test di
casualizzazione (raw scores test, Pitman test, Fisher’s ramdomization test)
3.10. Il test di Wilcoxon per la simmetria
3.11. Il test di Gosset (Student) per la eterogeneità di Poisson in conteggi
3.12. Il metodo di Kolmogorov-Smirnov per un campione, con dati ordinali
discreti
e con dati continui
3.13. Il dibattito sulla significatività dei test per la bontà
dell’adattamento,
rispetto a quelli per un
parametro
3.14. Rinvio a altri test per un campione
CAPITOLO IV: METODI NON PARAMETRICI PER DUE CAMPIONI DIPENDENTI
4.1. I test per due campioni
dipendenti o per dati appaiati
4.2. Il test di McNemar, con la correzione di Edward e con stime della potenza
4.3. Intervallo di confidenza per la differenza tra le proporzioni di due
campioni dipendenti
4.4. Il test dei segni con stima della potenza
4.5. Il test di Wilcoxon o test dei segni per ranghi, con stima della potenza
4.6. Intervallo di confidenza di una differenza, con il test dei segni e il
test di Wilcoxon
4.7. Il test di casualizzazione per due campioni dipendenti o Fisher’s
randomization test
CAPITOLO V: METODI NON PARAMETRICI PER DUE CAMPIONI INDIPENDENTI
5.1. I test per due campioni
indipendenti
5.2. Il test per l’effetto dell’ordine dei trattamenti o test di Gart
5.3. Il test della mediana
5.4. Intervallo di confidenza per una differenza mediana, con il metodo esatto
di Fisher
5.5 Il test T di Wilcoxon-Mann-Whitney della somma dei ranghi
5.6. Calcolo delle probabilità associate ai valori di T, potenza e robustezza
del test di
Wilcoxon-Mann-Whirney
5.7. Il test U di Mann-Whitney o dell’ordine robusto dei ranghi
5.8. Intervallo di confidenza della differenza tra due mediane, con
l’indice U di Mann-Whitney
5.9. Il test S di Kendall e suoi rapporti con il test T e il test U;
potenza-efficienza
dei tre test e confronti tra i
metodi
5.10. Il test di casualizzazione per due campioni indipendenti
5.11. Il test delle successioni per due campioni indipendenti o test di
Wald-Wolfowitz
5.12. Il test di Siegel-Tukey per l’uguaglianza della varianza; cenni del test
di Freund-Ansari-Bradley e del
test di Conover
5.13. Il test dei ranghi equivalenti di Moses per le differenze nella
dispersione o variabilità
5.14. Confronto tra due distribuzioni osservate: il metodo di
Kolmogorov-Smirnov per
due campioni indipendenti con
dati ordinali discreti o raggruppati e con dati continui
CAPITOLO VI: TEST NON PARAMETRICI PER PIU’ CAMPIONI
6.1. I test non parametrici
più utilizzati per k campioni
6.2. L’estensione del test della mediana
6.3. Cenni sul test di Nemenyi e altri test per la mediana in k gruppi
6.4. L’analisi della varianza per ranghi a un criterio di classificazione:
il test di Kruskal-Wallis
6.5. Confronto del test di Kruskal-Wallis con il test F e confronti multipli
con i ranghi
6.6. Alcuni test per l’eterogeneità della varianza con k campioni
6.7. Confronti tra più proporzioni e confronti multipli
6.8. Il test Q di Cochran
6.9. Il test di Bowker per la simmetria o estensione del test di McNemar
6.10. Il test di Friedman o analisi della varianza per ranghi a due criteri di
classificazione, con una e con
k repliche
6.11. Confronti multipli tra medie di ranghi nell’analisi della varianza non
parametrica, a due criteri di
classificazione
6.12. Il test di Quade
6.13. L’esempio di Koch: uso di metodi non parametrici, nell’analisi statistica
di un esperimento complesso
con k fattori
CAPITOLO VII: TEST NON PARAMETRICI PER IL TREND
7.1. Serie storiche, media
mobile e scelta del test per la tendenza
7.2. Il test di Cox e Stuart con le sue varianti, per il trend delle misure
di posizione e di dispersione
7.3. Il test di Jonckheere o Jonckheere-Terpstra per alternative ordinate
in k campioni indipendenti
7.4. Il test di Mack-Wolfe o Umbrella test
7.5. Il test di Page o delle alternative ordinate in k campioni dipendenti
CAPITOLO VIII: COEFFICIENTI DI ASSOCIAZIONE, COGRADUAZIONE E ACCORDO;
RISCHIO RELATIVO E ODDS RATIO
8.1. I coefficienti
d’associazione o d’indipendenza
8.2. Associazione fra variabili categoriali o qualitative: il c con la
correzione di Sakoda
e il φ di Pearson, il
φc o v di Cramer, il dt o t di Tschuprow
8.3. Altri indici di associazione per variabili dicotomiche o tabelle 2 x 2:
q e y di Yule, dsim e dxy
di Somers; cenni sul τb
di Kendall
8.4. Associazione per variabili categoriali in tabelle r x c: la pre, il λ
simmetrico
ed asimmetrico di Goodman e
Kruskal, cenni su la uc o u di Theil
8.5. Cograduazione per variabili
ordinali in tabelle r x c: il γ di
Goodman e Kruskall,
il τc di Kendall-Stuart, il dba e dab
di Somers
8.6. Il Kappa di Cohen: stima dell’accordo (agreement) tra due valutatori con
scala nominale
8.7. Differenza tra rischi e rischio relativo, con intervalli di confidenza
8.8. Odds ratio e cross product ratio; intervallo di confidenza;
test di significatività per uno
e tra due odds ratio
8.9. Lettura dei tabulati di un pacchetto statistico sulle misure di
associazione
CAPITOLO IX: TEST NON PARAMETRICI PER CORRELAZIONE, CONCORDANZA,
REGRESSIONE
MONOTONICA E REGRESSIONE LINEARE
9.1. La correlazione non
parametrica ρ di Spearman e
la distribuzione di
Hotelling-Pabst
9.2. Il coefficiente di correlazione τ (tau) di Kendall; il τa e τb di Kendall con i ties
9.3. Confronto tra ρ e τ ; potenza del test e numero di osservazioni
necessarie per la significativita
9.4. Altri metodi per la correlazione non parametrica: il test di Pitman
con le permutazioni e il test
della mediana di Blomqvist
9.5. Il test di Daniels per il trend
9.6. Significativita’ della regressione e della correlazione lineare parametrica
con i test nonparametrici ρ
e τ
9.7. Il coefficiente di correlazione
parziale: τ12,3 di
Kendall, ρ12,3 di
Spearman
9.8. Il coefficiente di concordanza tra valutatori: la W di Kendall.
Sue relazioni con la correlazione
non parametrica e con il test di Friedman
per k campioni dipendenti. Cenni
sulla Top-Down concordance
9.9. Cenni sul coefficiente di concordanza u di Kendall, in confronti
appaiati
9.10. La regressione lineare non parametrica
9.11. Calcolo della retta di regressione non parametrica con
il metodo di Theil o test di
Theil-Kendall
9.12. Confronto tra la retta parametrica e la retta di Theil
9.13. Significativita’ di b con il
τ di Kendall
9.14. Il test di Hollander per il confronto tra due coefficienti angolari
9.15. La regressione monotonica di Iman-Conover
9.16. Trend lineare di Armitage per le proporzioni e le frequenze
CAPITOLO X: ALTRI METODI INFERENZIALI NON PARAMETRICI
10.1. I normal scores di van der Warden; cenni su
random normal deviates
e su expected normal scores
10.2. Applicazioni dei normal scores di van der Waerden
ai test sulla mediana per uno,
due e più campioni
10.3. Applicazioni dei normal scores di van der Waerden
a test per omoschedasticità, regressione e correlazione
semplici
10.4. Metodi nuovi per l’inferenza: Monte Carlo e principio plug-in
10.5. Il jackknife
10.6. Il bootstrap