MANUALE  DI  STATISTICA

PER  LA RICERCA  E  LA  PROFESSIONE

 

STATISTICA UNIVARIATA  E  BIVARIATA

PARAMETRICA  E  NON-PARAMETRICA

PER LE  DISCIPLINE  AMBIENTALI  E  BIOLOGICHE

 

EDIZIONE APRILE 2005

 

 

ULTIMA EDIZIONE 2010

Corretta e ampliata:
4200 pagine in 29 capitoli

www.dispensestatistica.com

 

 

TESTO DI STATISTICA NON PARAMETRICA

EDIZIONE 2008

www.dsa.unipr.it/soliani/indice.pdf

 

 

TESTO DI STATISTICA APPLICATA

EDIZIONE 2008

http://www.libriscientifici.com/store/dettview.php?id=19810

Lamberto Soliani

con la collaborazione di

Franco Sartore  e  Enzo Siri

 

 

Email:  lamberto.soliani@unipr.it

Tel.0521/905662     Fax 0521/905402

 

Le dispense (quasi 2500 pagine in 24 capitoli, più allegati) possono essere utilizzate gratuitamente.

E' sufficiente cliccare il titolo del capitolo. Compare l’indice e il testo. Salvare sul file desiderato.

A coloro che le utilizzano, l’autore chiede un favore

-  senza alcun impegno, ma solo per facilitare la raccolta di informazioni sul tipo di utenti e quindi adattare la scelta degli argomenti per edizioni future, è gradito l’invio di una e-mail, all’indirizzo:  lamberto.soliani@unipr.it

Chi desidera seguire eventuali corsi e chi non trova l’argomento desiderato può inviare la sua richiesta, con un minimo di dettagli.

 

 

 

PRESENTAZIONE

 

Più che creare, trasmetto.

CONFUCIO

 

Even more important than learning about statistical techniques is the development of what might be called a capability for statistical thinking.

(Dal Preface di G. E. P. Box, W. G. Hunter e J. S. Hunter del 1978 Statistics for Experimenters. An Introduction to Design, Data Analysis, and Model Building, John Wiley and Sons, Inc., New York).

 

Con intensità crescente negli ultimi anni, i tecnici, i ricercatori e i responsabili di strutture impegnate nei problemi ambientali,  biologici e della sanità chiedono gli strumenti per una conoscenza operativa delle metodologie statistiche. La diffusione dell’informatica e lo sviluppo delle tecnologie permettono di raccogliere con facilità molti dati.

I corsi di laurea in Biologia, Scienze Naturali e Geologia, Agraria e Biotecnologia, quelli di Chimica, di Ingegneria del territorio e di Medicina, dai quali provengono molti degli operatori attuali, sovente forniscono una preparazione teorica che si dimostra inadeguata, per i problemi della professione. Anche agli studenti dei corsi di diploma, di laurea, dei master e dei dottorati, appare utile una spiegazione semplice dei concetti fondamentali e dei metodi più importanti. Per tutti coloro che ricorrono alla statistica applicata, hanno un’importanza relativa le dimostrazioni matematiche, mentre è necessaria un’illustrazione chiara e semplice dei test più diffusi. Quando utilizzano programmi informatici, essi trovano numerose opzioni; ma quasi mai i manuali riportano spiegazioni chiare, che siano comprensibili anche alle persone prive di una esperienza specifica.

L’autore ha cercato di rispondere a questa domanda così diversificata, con una presentazione elementare ma completa dei concetti e dei metodi dell’inferenza statistica univariata e bivariata, sia parametrica che non parametrica, con numerose applicazioni. Prendendo come punti di riferimento da una parte i testi di statistica applicata e di biometria a maggior diffusione internazionale, di riconosciuta validità scientifica e maggiormente citati nelle pubblicazioni, dall’altra i programmi informatici più utilizzati, ha cercato di spiegare le metodologie che più frequentemente trovano applicazione nella ricerca sull’ambiente e nell’analisi delle popolazioni.

Nella stesura di questo testo-manuale, le linee guida sono state la completezza e l’operatività, da raggiungere con un linguaggio e una simbologia semplici, a volte perfino banali e non sempre rigorosi, come può succedere anche nelle lezioni universitarie, quando l’obiettivo primario è favorire la comprensione dei concetti di base.

La riforma degli ordinamenti didattici, in atto nelle Università italiane, esige programmi strutturati in moduli, per una preparazione culturale più completa da fornire nei corsi di laurea specialistici, per un approccio rapidamente operativo nei corsi triennali. Il testo, che fornisce argomenti ed esempi per quasi 120 ore di lezione, può essere scisso con facilità in parti indipendenti di circa 30-40 ore, che sono ugualmente di semplice comprensione: i concetti più importanti sono ripetuti in numerosi esempi, in modo volutamente ridondante, con estrema attenzione alle applicazioni.

Ideato e scritto per la formazione e l’aggiornamento, questo manuale si è dimostrato utile sia per la preparazione di base nel primo anno di Università, sia per chi ha pratica di gestione scientifica e di ricerca nelle Università e nelle Aziende, ma cerca un approfondimento su alcuni metodi statistici più recenti o meno noti.

Per una visione complessiva della disciplina, per la scelta ragionata dei metodi e l’interpretazione corretta degli output dei programmi informatici, lo studio personale non è sufficiente, ma è indispensabile seguire un corso impostato su queste finalità. Serve una guida esperta, che illustri le possibilità di scelta tra le varie opzioni.

Corretto, aggiornato ed ampliato attraverso il dibattito con gli utenti, questo testo ha una edizione nuova quasi ogni anno. Per questo permangono errori, di cui l’autore si scusa.

 

Da quanto in rete è stata tratta una versione abbreviata e una versione per la sola statistica non parametrica.

Il testo nella versione abbreviata, di circa 550 pagine, è per un corso universitario di circa 40 ore o un corso di formazione che parta dal livello 0.

 

Il testo di statistica non parametrica, di circa 770 pagine, è per corsi universitari di secondo livello o per corsi di aggiornamento per aziende e professionisti. Sono presentati molti metodi non parametrici, tutti quelli utilizzati nelle maggiori librerie informatiche e di uso comune nella ricerca biologica, ambientale, medica, sociologica e psicologica.

 

Entrambi i testi, con la forma grafica della dispensa, sono venduti a un prezzo politico, inferiore a quello di stampa con un computer, presso la casa editrice di Parma, specializzata in testi universitari,

 -  UNI.NOVA di Pietro Lia – Via Fleming,7  -  431000 Parma 

 -   tel.: 0521-290245   cell. 335-8385704

 

Presso la stessa casa editrice, è possibile chiedere la stampa della versione estesa riportata in rete e il CD sia in formato pdf sia in word.

 

Lamberto Soliani

Attualmente, professore ordinario di “Fondamenti di analisi dei sistemi ecologici” (gruppo BIO 7).

Già prof. ordinario di Demografia Investigativa.

Docente di Statistica applicata nei corsi di laurea in Scienze Ambientali, Scienze Biotecnologiche e Biologia Ecologica, Scienze Naturali, Chimica

Responsabile della formazione in statistica applicata in vari master (Scienze Forensi, Analisi chimiche per gli alimenti e l’inquinamento, ecc. …), in corsi per laureati finanziati dal Fondo Sociale Europeo, in corsi di formazione - aggiornamento presso aziende ed associazioni professionali  (quali APAT, CTN,  ARPA regionali, Aziende Farmaceutiche Italiane).

 

 Dipartimento di Scienze Ambientali, Università di Parma

Viale delle Scienze 11/A (Campus)

43100 Parma

Per qualsiasi informazione è possibile contattare l'autore.

 

Email:  :  lamberto.soliani@unipr.it             Tel.0521/905662     Fax 0521/905402

 


I  N  D  I  C  E 

 

INDICE GENERALE

 

TESTI CITATI

 

1.   ELEMENTI DI STATISTICA DESCRITTIVA PER DISTRIBUZIONI UNIVARIATE                             

 

2.   DISTRIBUZIONI e leggi di probabilitA’

 

3.   ANALISI DELLE FREQUENZE

 

4.   VERIFICA DELLE IPOTESI TEST PER UN CAMPIONE SULLA TENDENZA CENTRALE

      CON VARIANZA NOTA E TEST SULLA VARIANZA CON INTERVALLI DI CONFIDENZA

 

5.   PROPORZIONI E PERCENTUALI RISCHI, ODDS E TASSI

 

6.   INFERENZA SU UNA O DUE MEDIE CON IL TEST t DI STUDENT

 

7.   METODI NON PARAMETRICI PER UN CAMPIONE

 

8.   METODI NON PARAMETRICI PER DUE CAMPIONI DIPENDENTI

 

9.   METODI NON PARAMETRICI PER DUE CAMPIONI INDIPENDENTI

 

10.   ANALISI DELLA VARIANZA (ANOVA I) A UN CRITERIO DI CLASSIFICAZIONE E

        CONFRONTI TRA PIU’ MEDIE

 

11.   ANALISI DELLA VARIANZA A PIU' CRITERI DI CLASSIFICAZIONE

 

12.   analisi FATTORIALE, disegni complessi CON FATTORI INCROCIATI

 

13.   TRASFORMAZIONI DEI DATI CON TEST PER NORMALITA’ E PER OUTLIER

 

14.   L’ANALISI GERARCHICA E LE COMPONENTI DELLA VARIANZA

 

15.   TEST NON PARAMETRICI PER PIU' CAMPIONI 

 

16.   REGRESSIONE LINEARE SEMPLICE

 

17.   CONFRONTI TRA RETTE, CALCOLO DELLA RETTA CON Y RIPETUTE, CON VERIFICA DI

         LINEARITA’ E INTRODUZIONE ALLA REGRESSIONE LINEARE MULTIPLA

 

18.   CORRELAZIONE E COVARIANZA

 

19.   TEST NON PARAMETRICI PER IL TREND

 

20.   COEFFICIENTI DI ASSOCIAZIONE, DI COGRADUAZIONE E DELL’ACCORDO RISCHIO

         RELATIVO E ODDS RATIO

 

21.   TEST NON PARAMETRICI PER CORRELAZIONE, CONCORDANZA, REGRESSIONE

         MONOTONICA E REGRESSIONE LINEARE

 

22.   ALTRI METODI INFERENZIALI: NORMAL SCORES E RICAMPIONAMENTO

 

23.   IL DISEGNO SPERIMENTALE: CAMPIONAMENTO, PROGRAMMAZIONE DELL’ESPERIMENTO

        E POTENZA

 

24.   LA REGRESSIONE LINEARE MODELLO II E LEAST PRODUCTS. IL CONFRONTO TRA DUE METODI QUANTITATIVI.

        IL SEI-SIGMA NEL CONTROLLO DI QUALITA’

 

ALLEGATI

 

R: UN AMBIENTE OPENSOURCE PER L'ANALISI STATISTICA DEI DATI

 

RAPPRESENTAZIONE ANALITICA DELLE DISTRIBUZIONI

 

 ANALISI SERIE STORICHE CON R

 

 PRINCIPALI TECNICHE DI REGRESSIONE CON R

 

ALFABETO  -  LETTERE DELL’ALFABETO GRECO ANTICO

 


 

 

 

 

 

 

 

VERSIONE RIDOTTA

PER UN CORSO DI PRIMO LIVELLO

 

CAPITOLO I: ELEMENTI DI STATISTICA DESCRITTIVA PER DISTRIBUZIONI UNIVARIATE

1.1.  La statistica nella ricerca ambientale e biologica
1.2.  Il disegno sperimentale, il campionamento e l’inferenza
1.3.  Tipi di dati e scale di misurazione
1.4.  Classificazione in tabelle
1.5.  Rappresentazioni grafiche di distribuzioni univariate
1.6.  Le misure di tendenza centrale
1.7.  Le misure di dispersione o variabilità
1.8.  Indici di forma: simmetria e curtosi
1.9.  Accuratezza, precisione e scelta del numero di cifre significative
1.10. Rappresentazioni semi-grafiche delle distribuzioni: box-and-whisker e  stem-and-leaf
1.11. Esempi di misure di tendenza centrale, dispersione, simmetria  e curtosi
 

CAPITOLO II: DISTRIBUZIONI E LEGGI DI PROBABILITÀ

2.1.  Elementi di calcolo combinatorio semplice
2.2.  Definizioni di probabilità: matematica, frequentista e soggettiva, con elementi di
        statistica bayesiana
2.3.  Alcune distribuzioni discrete

2.3 1. Distribuzione binomiale
2.3.2. Distribuzione poissoniana
2.3.3. Distribuzione ipergeometrica
2.3.4. Distribuzione binomiale negativa

2.4.  Alcune distribuzioni continue

2.4.1. Distribuzione normale o di Gauss
2.4.2. Distribuzioni asintoticamente normali, con approssimazioni e trasformazioni
2.4.3. Dalla disuguaglianza di Chebyshev alla distribuzione normale
2.4.4. Approssimazioni e correzioni per la continuità

2.5.  Distribuzioni campionarie derivate dalla normale e utili per l’inferenza

2.5.1. La distribuzione χ 2
2.5.2. La distribuzione t di Student
2.5.3. La distribuzione F di Fisher

Tabelle della curva normale standardizzata
 

CAPITOLO III: CONFRONTI TRA FREQUENZE: TEST PER LA BONTÀ  DELL’ADATTAMENTO E TABELLE DI CONTINGENZA

3.1.  Confronti tra distribuzioni osservate e distribuzioni attese
3.2.  Condizioni di validità del χ 2 e correzione di Yates
3.3.  Le tabelle di contingenza 2 x 2 (fourfold tables)
3.4.  Correzioni per la continuità in tabelle 2 x 2
3.5.  Confronti tra frequenze relative con la distribuzione normale e correzione per la continuità
3.6.  Confronto tra test χ2 per tabelle 2 x 2 e test Z, senza e con le correzioni per la continuità
3.7.  Confronto di una proporzione osservata con una attesa:  il test Z per grandi campioni e
         la distribuzione binomiale per piccoli campioni
3.8.  Tabelle di contingenza 2 x 2 in piccoli campioni: il metodo esatto di Fisher
3.9.   Le tabelle 2 x N con la formula generale e quella di  Brandt-Snedecor. Le tabelle M x N
3.10. Esempi di tabelle di contingenza
Tabelle della distribuzione χ2
 

CAPITOLO IV: INFERENZA SU UNA O DUE MEDIE  CON IL TEST t DI STUDENT

4.1.  La distribuzione t di Student
4.2.  Confronto tra una media osservata e una media attesa, con calcolo dei limiti
        di confidenza di una media, con  ignota
4.3.  Confronto tra una osservazione e la media di un campione
4.4.  Il confronto tra le medie di due campioni
4.5.  Il test t per 2 campioni dipendenti o per dati appaiati, con intervallo
        di confidenza della media delle differenze
4.6.  Il test t per 2 campioni indipendenti o per dati non appaiati
4.7.  Test F, test di Levene e test di Bartlett per ipotesi bilaterali e unilaterali
        sull’uguaglianza di due varianze
4.8.  Significatività e intervallo di confidenza di una differenza
4.9.  Potenza a priori e a posteriori del test t con un campione
4.10. Dimensione del campione e precisione nella stima sia di una media
         sia della differenza tra due medie
4.11. Il bilanciamento di 2 campioni indipendenti: vantaggi e costi
Tabelle della distribuzione t di Student
 

CAPITOLO V: ANALISI DELLA VARIANZA

5.1.  Analisi della varianza a un criterio di classificazione o a campionamento
        completamente randomizzato
5.2.  Confronto tra l’analisi della varianza e il test t di Student
        con due campioni indipendenti
5.3.  Test per l’omogeneità della varianza tra più campioni: test di
        Hartley, Cochran, Bartlett, Levene
5.4.  I confronti a priori o pianificati tra più medie
5.5.  I confronti multipli a posteriori o post-hoc (UMCP)
5.6.  Il principio di Bonferroni e il metodo di Dunn-Sidak
Tabelle della distribuzione F di Fisher
 

CAPITOLO VI: LE TRASFORMAZIONI DEI DATI

6.1.  Assunzioni di validità dei test parametrici
6.2.  Trasformazioni dei dati
6.3.  La scelta della trasformazione idonea: il metodo di Box-Cox
6.4.  Effetti delle trasformazioni sui risultati dell’ANOVA
 

CAPITOLO VII: ANALISI DELLA VARIANZA CROSSED A PIU’ CRITERI
                              E ANALISI DELLA VARIANZA NESTED

7.1.  Analisi della varianza a due criteri di classificazione o a blocchi randomizzati,
        con una sola osservazione per casella
7.2.  Confronto tra analisi della varianza a due criteri e test t di Student
        per 2 campioni dipendenti
7.3.  Analisi della varianza a tre o più criteri
7.4.  Quadrati latini e greco-latini
7.5.  Dati mancanti o anomali in disegni a più fattori
7.6.  Efficienza relativa (E.R.) e capacità predittiva (R2)
7.7.  Analisi gerarchica o nested in ANOVA I, II, III
7.8.  Nested ANOVA I o a effetti fissi
 

CAPITOLO VIII: REGRESSIONE LINEARE SEMPLICE

8.1.  Regressione o correlazione?
8.2.  Descrizione di una distribuzione bivariata
8.3.  Modelli di regressione
8.4.  La regressione lineare semplice
8.5.  Valore predittivo della regressione
8.6.  Significatività dei parametri β e α della retta di regressione
8.7.  Il coefficiente di determinazione: R2 e R2adj
8.8.  Analisi della relazione dose-effetto nel caso di Y ripetute:
         test per la linearità e calcolo della retta di regressione
8.9.  Condizioni di validità della regressione con l’analisi dei residui;
         test per la costanza della varianza d’errore
 

CAPITOLO IX: CORRELAZIONE SEMPLICE E PARZIALE

9.1.  La correlazione: generalità e calcoli
9.2.  Condizioni di validità e significatività di r con ρ = 0  e  ρ ≠ 0
9.3.  Significatività della linearità con R2?
9.4.  Intervallo di confidenza di ρ
9.5.  La correlazione parziale o netta di primo ordine e di ordine superiore;
        la correlazione semiparziale
 

CAPITOLO X: VERIFICA DELLE IPOTESI

10.1.  Risultati significativi e non-significativi
10.2.  Procedura di verifica  delle ipotesi: Vero o falso? Utile o dannoso?
10.3.  Potenza di un test
10.4.  Numero di dati necessari in rapporto alla potenza, alla significatività del test
          e alla direzione dell’ipotesi. Il criterio di Cohen per la scelta di α e β
10.5.  Intervallo di confidenza di una media con 2 nota
10.6.  Intervallo di confidenza di una varianza
10.7.  Parametri e statistiche: correttezza, efficienza, consistenza, sufficienza

 

 

 

STATISTICA NONPARAMETRICA

PER LA PROFESSIONE

Lamberto Soliani

con la collaborazione di

Franco Sartore  e  Enzo Siri


INDICE


CAPITOLO I:  TEST PER LA BONTA’ DELL’ADATTAMENTO E
TABELLE DI CONTINGENZA

1.1. Confronti tra distribuzioni osservate e distribuzioni attese  
1.2. Condizioni di validità del χ 2 e correzione di Yates
1.3. Le tabelle di contingenza 2 x 2 (fourfold tables)
1.4. Correzioni per la continuità in tabelle 2 x 2: Yates e Haber
1.5. Confronti tra frequenze relative, con la distribuzione normale
        e con la correzione per la continuità 
1.6. Confronto tra test χ 2 per tabelle 2 x 2 , senza e con le correzioni per la continuità 
1.7. Confronto di una proporzione osservata con una attesa: il test z per grandi campioni
         e la distribuzione binomiale per piccoli campioni 
1.8. Tabelle di contingenza 2 x 2 in piccoli campioni: il metodo esatto di Fisher
1.9. La tabelle 2 x n con la formula generale e quella di Brandt-Snedecor. Le tabelle m x n
1.10. Il log lokelihood ratio o metodo G 
1.11. Il chi quadrato con i metodi di Cochran e di Mantel-Haenszel 
             

CAPITOLO II: ANALISI DELLE PROPORZIONI E DEI RISCHI

2.1. La varianza di una proporzione e stima del rischio aggiuntivo 
2.2. Intervallo di confidenza di una probabilità o frequenza relativa, secondo
        il metodo di Clopper e Pearson 
2.3. Intervalli di confidenza non parametrici e intervalli di tolleranza
2.4. Intervallo di confidenza di una proporzione in una popolazione infinita e
       in una popolazione finita 
2.5. Campione necessario per la stima di una proporzione con errore prefissato
2.6. Test per la bontà dell’adattamento, con una proporzione nota oppure ignota
2.7. Test per una proporzione e sua potenza, con uso della distribuzione binomiale
        e della distribuzione normale 
2.8. Differenza tra due proporzioni: significatività e intervallo di confidenza,
        con metodo di Fisher e calcolo di Feldman e Kluger
2.9. Potenza a posteriori (1- β ) e a priori (n) dei test sulla differenza tra due proporzioni
  

CAPITOLO III: METODI NON PARAMETRICI PER UN CAMPIONE

3.1. Le caratteristiche dei test non parametrici
3.2. Il test delle successioni per un campione
3.3. Il test dei segni per un campione  
3.4. Intervallo di confidenza della mediana, con il test dei segni
3.5. Il test di Wilcoxon
3.6. Differenze nulle e ties nel test di Wilcoxon 
3.7. Teoria del test di Wilcoxon e della correzione per i ties 
3.8. Intervalli di confidenza della locazione(mediana) con il test di Wilcoxon; medie di Walsh
        o quasimedians, stimatore di Hodges-Lehmann o pseudomedian
3.9. Il test di casualizzazione (raw scores test, Pitman test, Fisher’s ramdomization test)
3.10.
Il test di Wilcoxon per la simmetria 
3.11. Il test di Gosset (Student) per la eterogeneità di Poisson in conteggi
3.12. Il metodo di Kolmogorov-Smirnov per un campione, con dati ordinali discreti
         e con dati continui  
3.13. Il dibattito sulla significatività dei test per la bontà dell’adattamento,
         rispetto a quelli per un parametro 
3.14. Rinvio a altri test per un campione
                          

CAPITOLO IV: METODI NON PARAMETRICI PER DUE CAMPIONI DIPENDENTI

4.1. I test per due campioni dipendenti o per dati appaiati
4.2. Il test di McNemar, con la correzione di Edward e con stime della potenza
4.3. Intervallo di confidenza per la differenza tra le proporzioni di due campioni dipendenti
4.4. Il test dei segni con stima della potenza 
4.5. Il test di Wilcoxon o test dei segni per ranghi, con stima della potenza
4.6. Intervallo di confidenza di una differenza, con il test dei segni e il test di Wilcoxon 
4.7. Il test di casualizzazione per due campioni dipendenti o Fisher’s randomization test
     

CAPITOLO V: METODI NON PARAMETRICI PER DUE CAMPIONI INDIPENDENTI

5.1. I test per due campioni indipendenti
5.2. Il test per l’effetto dell’ordine dei trattamenti o test di Gart
5.3. Il test della mediana 
5.4. Intervallo di confidenza per una differenza mediana, con il metodo esatto di Fisher
5.5 Il test T di Wilcoxon-Mann-Whitney della somma dei ranghi
5.6. Calcolo delle probabilità associate ai valori di T, potenza e robustezza
       del test di Wilcoxon-Mann-Whirney 
5.7. Il test U di Mann-Whitney o dell’ordine robusto dei ranghi
5.8. Intervallo di confidenza della differenza tra due mediane, con
        l’indice U di Mann-Whitney 
5.9. Il test S di Kendall e suoi rapporti con il test T e il test U; potenza-efficienza
         dei tre test e confronti tra i metodi 
5.10. Il test di casualizzazione per due campioni indipendenti 
5.11. Il test delle successioni per due campioni indipendenti o test di Wald-Wolfowitz
5.12. Il test di Siegel-Tukey per l’uguaglianza della varianza; cenni del test
         di Freund-Ansari-Bradley e del test di Conover
5.13. Il test dei ranghi equivalenti di Moses per le differenze nella dispersione o variabilità 
5.14. Confronto tra due distribuzioni osservate: il metodo di Kolmogorov-Smirnov per
         due campioni indipendenti con dati ordinali discreti o raggruppati e con dati continui


CAPITOLO VI: TEST NON PARAMETRICI PER PIU’ CAMPIONI

6.1. I test non parametrici più utilizzati per k campioni
6.2. L’estensione del test della mediana
6.3. Cenni sul test di Nemenyi e altri test per la mediana in k gruppi
6.4. L’analisi della varianza per ranghi a un criterio di classificazione:
        il test di Kruskal-Wallis
6.5. Confronto del test di Kruskal-Wallis con il test F e confronti multipli con i ranghi
6.6. Alcuni test per l’eterogeneità della varianza con k campioni
6.7. Confronti tra più proporzioni e confronti multipli
6.8. Il test Q di Cochran
6.9. Il test di Bowker per la simmetria o estensione del test di McNemar
6.10. Il test di Friedman o analisi della varianza per ranghi a due criteri di
         classificazione, con una e con k repliche
6.11. Confronti multipli tra medie di ranghi nell’analisi della varianza non
         parametrica, a due criteri di classificazione 
6.12. Il test di Quade
6.13. L’esempio di Koch: uso di metodi non parametrici, nell’analisi statistica
          di un esperimento complesso con k fattori 


CAPITOLO VII: TEST NON PARAMETRICI PER IL TREND

7.1. Serie storiche, media mobile e scelta del test per la tendenza
7.2. Il test di Cox e Stuart con le sue varianti, per il trend delle misure
       di posizione e di dispersione
7.3. Il test di Jonckheere o Jonckheere-Terpstra per alternative ordinate
        in k campioni indipendenti 
7.4. Il test di Mack-Wolfe o Umbrella test 
7.5. Il test di Page o delle alternative ordinate in k campioni dipendenti
              

CAPITOLO VIII: COEFFICIENTI DI ASSOCIAZIONE, COGRADUAZIONE E ACCORDO;
                               RISCHIO RELATIVO E ODDS RATIO

8.1. I coefficienti d’associazione o d’indipendenza
8.2. Associazione fra variabili categoriali o qualitative: il c con la correzione di Sakoda
        e il φ di Pearson, il φc o v di Cramer,  il dt o t di Tschuprow
8.3. Altri indici di associazione per variabili dicotomiche o tabelle 2 x 2:
        q e y di Yule, dsim e dxy di Somers; cenni sul τb di Kendall
8.4. Associazione per variabili categoriali in tabelle r x c: la pre, il λ simmetrico
        ed asimmetrico di Goodman e Kruskal, cenni su la uc o u di Theil
8.5.  Cograduazione per variabili ordinali in tabelle r x c:  il γ di Goodman e Kruskall,
         il τc di Kendall-Stuart, il dba e dab di Somers
8.6. Il Kappa di Cohen: stima dell’accordo (agreement) tra due valutatori con scala nominale
8.7. Differenza tra rischi e rischio relativo, con intervalli di confidenza
8.8. Odds ratio e cross product ratio; intervallo di confidenza;
         test di significatività per uno e tra due odds ratio
8.9. Lettura dei tabulati di un pacchetto statistico sulle misure di associazione
 

CAPITOLO IX: TEST NON PARAMETRICI PER CORRELAZIONE, CONCORDANZA,
                            REGRESSIONE MONOTONICA E REGRESSIONE LINEARE

9.1. La correlazione non parametrica  ρ di Spearman e
       la distribuzione di Hotelling-Pabst
9.2. Il coefficiente di correlazione τ (tau) di Kendall; il τa e τb di Kendall con i ties
9.3. Confronto tra ρ e τ ; potenza del test e numero di osservazioni necessarie per la significativita
9.4. Altri metodi per la correlazione non parametrica: il test di Pitman
       con le permutazioni e il test della mediana di Blomqvist
9.5. Il test di Daniels per il trend
9.6. Significativita’ della regressione e della correlazione lineare parametrica
        con i test nonparametrici ρ e τ
9.7.   Il coefficiente di correlazione parziale: τ12,3 di Kendall, ρ12,3 di Spearman  
9.8. Il coefficiente di concordanza tra valutatori: la W di Kendall.
       Sue relazioni con la correlazione non parametrica e con il test di Friedman
        per k campioni dipendenti. Cenni sulla Top-Down concordance 
9.9. Cenni sul coefficiente di concordanza u di Kendall, in confronti appaiati 
9.10. La regressione lineare non parametrica 
9.11. Calcolo della retta di regressione non parametrica con
          il metodo di Theil o test di Theil-Kendall 
9.12. Confronto tra la retta parametrica e la retta di Theil
9.13.  Significativita’ di b con il τ di Kendall
9.14. Il test di Hollander per il confronto tra due coefficienti angolari               
9.15. La regressione monotonica di Iman-Conover
9.16. Trend lineare di Armitage per le proporzioni e le frequenze
               

CAPITOLO X: ALTRI METODI INFERENZIALI NON PARAMETRICI

10.1. I normal scores di van der Warden; cenni su random normal deviates
          e su expected normal scores
10.2. Applicazioni dei normal scores di van der Waerden
         ai test sulla mediana per uno, due e più campioni
10.3. Applicazioni dei normal scores di van der Waerden
         a test per omoschedasticità, regressione e correlazione semplici 
10.4. Metodi nuovi per l’inferenza: Monte Carlo e principio plug-in 
10.5. Il jackknife 
10.6. Il bootstrap