2.5 Lavoro applicativo

2.5 • Lavoro applicativo


Per meglio comprendere la risoluzione degli indici di lavoro possiamo ora analizzare un esempio applicativo con relativo commento statistico. L’esempio vuole chiarire il legame esistente fra una prova e l’elaborazione dei dati ottenuti. L’esempio è tratto da: D.D. Paterson, Statistical technique in agricoltural research. Mc Graw. Hill Book Company, N.Y., 1939. Si esegua (Tab. 2) il confronto di produttività fra tre cultivar di frumento A, B, C adottando particelle di 50 m2 di superficie che si ripeteranno 6 volte per ogni varietà. La superficie totale sarà, dunque, di 18 parcelle adottando il sistema della distribuzione a caso.

Tabella 2(A) • Confronto della produttività di tre cultivar di frumento.

Tabella 2(B) • Elaborazione finale del confronto.

Commento

A quale limite di probabilità occorre giungere per giudicare significativa una differenza? Esiste un accordo per ritenere che una probabilità di 0,05, ovvero 5 eventi contrari su 100 (possiamo anche dire 19 casi favorevoli contro 1 contrario), risulterebbe sufficiente a giudicare significativo un risultato. Questi valori di probabilità si riferiscono alla tavola della probabilità integrale, calcolata sulla curva normale di errore che prevede una grandissima popolazione di varianti. Quindi questi valori possono ritenersi ancora adoperabili quando i campioni di lavoro sono molto grandi, almeno superiori a 30 varianti.
Nei casi in cui le varianti siano inferiori a 30 non sono accettabili.
Questo perché la media ricavata da un piccolo campione si discosta molto dalla media vera, rispetto a quanto succede invece con un grande campione.
Esiste cioè la possibilità di interpretare scorrettamente i dati di una prova, quando si adottano i valori della tavola di probabilità integrale per piccoli campioni. Infatti, se per i dati rilevati su grandi campioni, una differenza può ritenersi significativa con P 5 0,05, operando su piccoli campioni bisogna avere una differenza grande più del doppio rispetto all’errore per poterla ritenere significativa.
I matematici hanno costruito una tavola di probabilità per l’analisi statistica di piccoli campioni detta tavola del t.
In base al numero dei gradi di libertà del campione, la tavola fornisce il valore di t in corrispondenza dei valori di probabilità. Il t rappresenta il valore che deve avere il rapporto fra la differenza di due campioni e il suo errore; in corrispondenza di un certo numero di gradi di libertà, si può avere una data probabilità che la differenza sia significativa.
Ad esempio dalla tavola del t rileviamo che per campioni con 10 gradi di libertà, una differenza è significativa con P 5 0,05 quando è 2,23 volte superiore all’errore, e inoltre, è significativa con P 5 0,01 quando è 3,17 volte più grande dell’errore.
Si nota subito che le medie differiscono fra loro. Se si prendono le medie due a due, per coppie, e si stabiliscono fra loro le differenze, avremo una serie di valori, provenienti dalle differenze, le cui frequenze si distribuiscono, anch’esse, secondo una curva normale. Ovviamente le maggiori frequenze si avranno per i valori minimi, cioè per quelli che tendono a zero, e le minori frequenze per i valori massimi, negativi o positivi. La media dei valori di queste differenze cadrà sullo zero e in corrispondenza di esso si avranno i massimi valori di frequenza.
È stato dimostrato che la dispersione, o deviazione standard, di una serie di differenze può essere calcolata dai valori dell’errore di due medie.

Ognuna delle medie ha sei varianti, cioè 5 gradi di libertà, perciò la differenza fra due medie si basa su 10 gradi di libertà. Nella tavola del t, per 10 gradi di libertà, il t per assicurare una probabilità del 95% (P 5 0,05) è 2,23.
Ora se le nostre differenze fra le medie sono 2,23 volte maggiori dei rispettivi errori, tali differenze sono attendibili con 19 probabilità contro 1.
Quindi avremo:
• per A 2 B 5 2,23 3 1,31 5 2,92 maggiore della differenza fra le medie che è 2,00;
• per C 2 B 5 2,23 3 1,04 5 2,32 minore della differenza fra le medie che è 5,50;
• per C 2 A 5 2,23 3 1,48 5 3,30 sostanzialmente uguale differenza fra le medie che è 3,50.
Si può concludere dicendo che la cultivar C è più produttiva della cultivar B e A, ma che la cultivar A pur avendo prodotto più di B non ha dato una differenza statisticamente significativa.

STOP E SINTESI
Lavoro applicativo
Come può presentarsi una distribuzione di dati?
Possiamo avere una distribuzione di tipo simmetrico, in cui media, moda e mediana coincidono e asimmetrico in cui non coincidono.
Che cos’è la curva di Gauss?
La curva di Gauss (o gaussiana) rappresenta la distribuzione normale di una popolazione. È una distribuzione simmetrica dove media, moda e mediana coincidono.

STOP AND SUMMARY
Work Application
What characteristics may be related to a data distribution?
We can have a symmetrical distribution, in which mode and median coincide and an asymmetric one where they don’t.
What is the Gauss Curve?
The Gauss curve (or Gaussian) represents the normal distribution of a population. We have a symmetrical distribution where average, mode and median coincide.

ECONOMIA E AGROSISTEMI
ECONOMIA E AGROSISTEMI
VOLUME 1