Professional Documents
Culture Documents
ISTOGRAMMI
E DISTRIBUZIONI
· Istogramma a barre
· Istogramma ad intervalli
Istogramma a barre
1
ISTOGRAMMI
E DISTRIBUZIONI
Istogramma ad intervalli
fk ∆k = Fk ,
dove Fk è la frazione di misure comprese nell'intervallo k-
esimo.
2
DISTRIBUZIONI
3
DISTRIBUZIONE LIMITE
4
DISTRIBUZIONE LIMITE
Calcolo della media delle misure, x̄
Fk = fk ∆k ,
dove Fk è la frazione di misure comprese nell'intervallo k-
esimo.
5
DISTRIBUZIONE LIMITE
Calcolo della media delle misure, x̄
6
LA DISTRIBUZIONE GAUSSIANA
· molti,
· piccoli,
· casuali,
e in assenza di errori sistematici, la distribuzione delle
misure tende ad assomigliare alla funzione Gaussiana
all'aumentare del numero degli errori.
−x 2
f (x) = e ,
che rappresenta la nota curva a campana, simmetrica
rispetto allo zero dove la funzione ha l'unico massimo.
Ad x = 0, f (x) = 1.
7
LA DISTRIBUZIONE GAUSSIANA
−(x−X) 2/2σ 2
f (x) = e .
Il coeciente viene introdotto in questa forma particolare,
2σ 2, in quanto, come vedremo, tale σ corrisponde proprio alla
deviazione standard delle misure, σx , denita in precedenza.
N, tale che
Z ∞
−(x−X) 2/2σ 2
Ne dx = 1 .
−∞
Risolvendo l'integrale con una semplice sostituzione, si ot-
tiene:
1
N = √ .
σ 2π
8
LA DISTRIBUZIONE GAUSSIANA
siana è quindi:
1 −(x−X) 2/2σ 2
GX,σ (x) = √ e .
σ 2π
I pedici X e σ nell'espressione GX,σ (x) indicano il centro e
l'ampiezza della distribuzione.
9
LA DISTRIBUZIONE GAUSSIANA
Calcolo del valore medio
Abbiamo visto che conoscendo la distribuzione limite è possi-
bile calcolare il valore medio, x̄, che si avrebbe dopo innite
misure, come
Z ∞
x̄ = x f (x) dx ,
−∞
1 √
x̄ = √ 0 + X σ 2π .
σ 2π
da cui
x̄ = X .
10
LA DISTRIBUZIONE GAUSSIANA
σx2 = σ 2 ,
σx = σ ,
ovvero, il parametro, σ , di ampiezza della Gaussiana, GX,σ (x),
rappresenta proprio la deviazione standard che si otterrebbe
con un numero innito di misure.
11
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
La distribuzione limite,f (x), di una serie di misure di una
certa quantità x, ci dà la probabilità di ottenere un particolare
valore di x.
Più precisamente, la probabilità, Pa,b , che una misura cada
nell'intervallo a 6 x 6 b è data da
Z b
Pa,b = f (x) dx . (2)
a
12
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
L'integrale 3 può essere semplicato con un cambio di vari-
abile, sostituendo
x−X
z = √ ,
2σ
da cui
x−X d x−X 1
dz = d √ = √ dx = √ dx ,
2σ dx 2σ 2σ
e quindi
√
dx = 2 σ dz .
I limiti di integrazione per la nuova variabile, z, si ottengono
x−X
sostituendo x = X − tσ o x = X + tσ nell'espressione √ ,
√ √ 2σ
da cui si hanno i nuovi limiti −t 2 e t 2.
In tal modo si ha
√
1
Z t 2
−z 2
√
Pt σ = √ √ e 2 σ dz ,
σ 2π −t 2 √
Z t 2
1 2
= √ √ e−z dz .
π −t 2
Dato che si tratta dell'integrale di una funzione simmetrica,
si ha che
√
Z t 2
2 −z 2
Pt σ = √ e dz .
π 0
Questo è un integrale notevole che compare nella denizione
della cosiddetta error function, erf(t),
Z t
2 −z 2
erf(t) = √ e dz , (4)
π 0
13
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
P1 σ = 68.3 . . . %,
P2 σ = 95.4 . . . %,
P3 σ = 99.7 . . . %.
Vediamo una rappresentazione graca di questo risultato.
14
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
DI UNA SINGOLA MISURA
15
LA DEVIAZIONE STANDARD
COME INTERVALLO DI CONFIDENZA
ESERCIZIO
Le misure di una certa grandezza, x, sono distribuite normal-
mente (distr. Gaussiana) con X = 10 e σ = 2.
Indicare la probabilità che una singola misura cada
nell'intervallo tra x=7 e x = 13
Indicare la probabilità che si trovi al di fuori dell'intervallo
713.
16
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
dell'intervallo dx1
1 −(x1−X)2/2σ2
Px 1 ∝ e .
σ
La probabilità, Px2 , di ottenere un secondo valore, x2, sarebbe
1 −(x2−X)2/2σ2
Px 2 ∝ e .
σ
Procediamo in questo modo no alla N -esima misura, xN , che
avrebbe probabilità, Px N
1 −(xN −X)2/2σ2
Px N ∝ e .
σ
17
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
singole probabilità
1 − P (xi−X)2/2σ2
PX,σ ∝ N e i . (6)
σ
Perché?
18
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
La procedura utilizzata per determinare la miglior stima di X
e σ è chiamata Metodo della massima verosimiglianza.
In breve: date N misure, x1 , x2 , . . . , xN , la miglior stima
di X e σ è rappresentata da quei valori, Xbest e σbest,
per cui le misure osservate sono maggiormente verosim-
ili, ovvero, sono le più probabili.
D'altra parte, se le misure osservate non fossero le più prob-
abili. . . non sarebbe verosimile aermare che le abbiamo
davvero osservate. . . Ne avremmo osservate altre.
1 − P (xi−X)2/2σ2
PX,σ ∝ N e i
σ
è massima.
la quantità
N
X (xi − X)2
2σ 2
i=1
è minima.
19
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
Per farlo, dierenziamo rispetto a X e poniamo la derivata
parziale uguale a zero
N
∂ X (xi − X)2
= 0.
∂X i=1 2σ 2
In generale, la derivata parziale rispetto a X del termine i-
esimo della sommatoria, sarà
∂ (xi − X)2 1
= 2 (X − xi) .
∂X 2σ 2 σ
Sommando su tutti i termini si ha
N
1 X
(X − xi) = 0 ,
σ 2 i=1
N
X
(X − xi) = 0 .
i=1
da cui
N
X
NX = xi ,
i=1
e inne
P
i xi
Xbest = .
N
20
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
Ovvero
Xbest = x̄ .
1 − P (xi−X)2/2σ2
PX,σ ∝ N e i (7)
σ
è massima.
Anche qui dovremo dierenziare rispetto a σ e porre la
derivata uguale a zero.
21
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
Dato che non conosciamo il valore vero, X, lo possiamo sos-
tituire con la sua miglior stima, x̄, ottenendo
rP
− x̄)2
i (xi
σbest = . (9)
N
Abbiamo quindi dimostrato che la miglior stima, σbest, per
l'ampiezza della distribuzione limite, σ, corrisponde proprio
alla denizione della deviazione standard delle misure, σx,
vista in precedenza.
Riassumendo
1. Da una serie nita di misure otteniamo la media, x̄, e la de-
viazione standard, σx.
2. Abbiamo dimostrato che tali valori corrispondono proprio alle
stime migliori, Xbest e σbest, del valore vero, X , e della devi-
azione standard, σ , della distribuzione limite.
22
GIUSTIFICAZIONE DELLA MEDIA
COME “MIGLIOR STIMA”
è minima.
Di conseguenza, si ha anche
rP rP
−
i (xi x̄)2 i (xi− X)2
6 .
N N
Quindi la denizione di σbest che utilizza la media delle mis-
ure, x̄, tende a sottostimare la deviazione standard.
Si può dimostrare che tale sottostima viene corretta sos-
tituendo N con N − 1:
rP
− x̄)2
i (xi
σbest = .
N −1
23
LEGGE DI PROPAGAZIONE
DEGLI ERRORI
Il problema della propagazione degli errori si ha quando i val-
ori di una o più grandezze misurate, x, y, . . . , z , ognuna
con la propria incertezza, σx , σy , . . . , σz , vengono usati per
calcolare una nuova grandezza, q(x, y, . . . , z), funzione delle
grandezze misurate.
ESEMPIO 1:
Grandezza misurata più quantità fissa
Supponiamo di aver misurato la grandezza x e di voler calco-
lare la quantità
q = x + A, (10)
dove A è una quantità ssa che assumiamo di conoscere pre-
cisamente, senza incertezza.
−(x−X) 2/2σ 2
Px ∝ e x. (11)
24
LEGGE DI PROPAGAZIONE
DEGLI ERRORI
Dalla eq. 10 si ha che
x = q − A.
Sostituendo tale valore a x nella eq. 11, è possibile esprimere
q come
−[(q−A)−X]2/2σ 2
Pq ∝ e x,
da cui
−[q−(X+A)] 2/2σ 2
Pq ∝ e x.
q = Bx,
dove B è una quantità ssa, senza incertezza. Analogamente
25
LEGGE DI PROPAGAZIONE
DEGLI ERRORI
da cui
−(q−B X) 2/2 B 2 σ 2
Pq ∝ e x.
ESEMPIO 3:
Somma di due grandezze misurate
Supponiamo di aver misurato due grandezze x, y e di voler
calcolare la loro somma x + y.
Supponiamo che i valori delle misure di x e y abbiano entrambi
distribuzione Gaussiana, centrata sui rispettivi valori veri X
e Y, e di ampiezze σx e σy .
Vogliamo determinare la distribuzione dei valori calcolati
x + y.
Procediamo come già visto e semplichiamo ulteriormente
l'espressione, assumendo che i valori veri X e Y, siano en-
trambi zero.
Le probabilità, Px e Py , di ottenere un certo valore delle
grandezze x e y possono essere espresse come
2
−x
Px ∝ exp 2
,
2σ
x2
−y
Py ∝ exp .
2σy2
26
LEGGE DI PROPAGAZIONE
DEGLI ERRORI
1 x2 y 2
Px,y ∝ exp − + , (12)
2 σx2 σy2
Per procedere, riscriviamo l'espressione precedente mettendo
in evidenza la quantità (x + y). Per farlo, utilizziamo la
seguente identità
2
(σy2 x − σx2 y)2
z = 2 2 2 .
σx σy (σx + σy2)
da cui
x2 y 2 (x + y)2 2
2
+ 2
= 2 2
+ z . (13)
σx σy σx + σy
Sostituiamo la 13 nella 12, ottenendo
(x + y)2 z2
Px,y ∝ exp − − .
2 (σx2 + σy2) 2
Separiamo l'esponenziale nel prodotto di due termini
2 2
−(x + y) −z
Px,y ∝ exp exp .
2 (σx2 + σy2) 2
27
LEGGE DI PROPAGAZIONE
DEGLI ERRORI
2 2
−(x + y) −z
P(x+y), z ∝ exp exp . (14)
2 (σx2 + σy2) 2
Ovvero, l'eq. 14 può anche essere considerata come la prob-
abilità,P(x+y), z , di ottenere una certa combinazione delle
grandezze (x + y) e z .
da cui
∞
−(x + y)2
2
−z
Z
P(x+y) ∝ exp exp dz .
−∞ 2 (σx2 + σy2) 2
2
Z ∞ 2
−(x + y) −z
P(x+y) ∝ exp exp dz .
2 (σx2 + σy2) −∞ 2
√
Integrare sulla grandezza z introduce il fattore 2π
nell'espressione di proporzionalità, quindi si ha sempre
2
−(x + y)
P(x+y) ∝ exp 2 2
.
2 (σx + σy )
28
LEGGE DI PROPAGAZIONE
DEGLI ERRORI
CASO GENERALE
Abbiamo visto degli esempi di propagazione degli errori in
alcuni casi particolari.
29