Professional Documents
Culture Documents
PROPAGAZIONE DEGLI
ERRORI
La misura della grandezza sica `e generalmente accompagnata dalla stima
dellerrore ad essa associato. Sappiamo come stimare lerrore nel caso di una
misura diretta, ma che cosa accade quando la grandezza sica in esame `e
legata matematicamente ad una o pi` u altre grandezze, ciascuna con il proprio
errore? Si consideri ad esempio lequazione del moto uniforme:
s = v t (9.1)
Supponiamo di voler misurare la velocit`a media di un corpo:
v =
s
t
(9.2)
Entrambe le grandezze s e t sono misurate con una certo errore s e t.
Che errore v dovremo associare alla velocit`a? In che modo gli errori delle
grandezze coinvolte si ripercuotono sullerrore della quantit`a che vogliamo
determinare?
Possiamo aermare quindi che nella maggior parte dei casi lo sperimen-
tatore utilizza un metodo di misura indiretto: il valore della grandezza sica
deriva da misure di altre grandezze, misurate o direttamente o con strumenti
tarati, legate ad essa da una qualche relazione funzionale.
Vediamo un esempio semplice:
Vogliamo calcolare larea di una supercie S rettangolare conoscendo i
suoi lati a e b e vedere come si propagano gli errori a e b.
Se S = a b, lerrore massimo che possiamo compiere su S `e dato da:
S + S = (a + a) (b + b) = a b + a b + b a + ab (9.3)
89
90 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
Se a a e b b allora il termine a b `e piccolo rispetto agli altri
termini e si pu`o trascurare, cio`e se ci fermiamo ai termini al primo ordine
possiamo scrivere:
S = a b + b a (9.4)
Vediamo adesso in dettaglio come si propagano gli errori in vari sottocasi,
supponendo di aver misurato una o pi` u grandezze a, b, c,... aventi errori a,
b, c, ... Chiamiamo x la quantit`a di cui vogliamo ottenere la misura e
lindeterminazione per via indiretta.
9.1 Somme e dierenze
Sia x = a+b. Il pi` u alto valore probabile di a `e a+a, mentre di b `e b +b,
quindi il pi` u alto valore probabile per x sar`a:
x + x = (a + a) + (b + b) = (a + b) + (a + b)
Mentre il pi` u basso sar`a:
x x = (a a) + (b b) = (a + b) (a + b)
da cui ricaviamo che:
x = a + b
Analogamente, nel caso x = a b, il pi` u alto valore probabile per x sar`a:
x + x = (a + a) (b b) = (a b) + (a + b)
Mentre il pi` u basso sar`a:
x x = (a a) (b + b) = (a b) (a + b)
da cui ricaviamo ancora che:
x = a + b
Quindi, generalizzando possiamo dire che:
lerrore massimo associato a una grandezza sica che `e il risultato della
somma, o della dierenza o di una combinazione di esse, fra due o pi` u gran-
dezze, ciascuna misurata con la propria incertezza, si ottiene sommando gli
errori delle singole grandezze.
x = a + b c + .... (9.5)
x = a + b + c + .... (9.6)
9.2. PRODOTTI E QUOZIENTI 91
9.2 Prodotti e quozienti
Sia x = a b. Come prima, il pi` u alto valore probabile di a `e a + a, mentre
di b `e b + b, quindi il pi` u alto valore probabile per x sar`a:
x + x = (a + a) (b + b) = a b + a b + b a + a b
Nellipotesi che a a e b b, possiamo ragionevolmente assumere
che a b si possa trascurare.
Da cui ricaviamo che:
x = a b + b a
Conviene in questo caso introdurre il concetto di errore relativo x/x:
x
x
=
a b + b a
a b
=
a
a
+
b
b
In realt`a la notazione corretta `e la seguente:
x
|x|
=
a b + b a
a b
=
a
|a|
+
b
|b|
questo perche lerrore relativo deve essere comunque una quantit`a positi-
va, a prescindere dal valore della grandezza sica a cui `e associato.
Nel caso in cui x = a/b, il pi` u alto valore probabile per x sar`a:
x + x =
a + a
b b
Introducendo anche qui lerrore relativo si ha:
x + x =
a
b
1 +
a
|a|
1
b
|b|
Moltiplicando numeratore e denominatore per 1 +
b
|b|
, e trascurando i
termini (b/|b|)
2
e (a/|a|)(b/|b|), si ottiene:
x + x =
a
b
(1 +
a
|a|
+
b
|b|
)
Sviluppando questa relazione si ricava:
1 +
x
|x|
= 1 +
a
|a|
+
b
|b|
92 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
E inne:
x
|x|
=
a
|a|
+
b
|b|
Quindi, generalizzando possiamo dire che:
lerrore relativo associato a una grandezza sica che `e il risultato del pro-
dotto, o del quoziente o di una combinazione di essi, fra due o pi` u grandezze,
ciascuna misurata con la propria incertezza, si ottiene sommando gli errori
relativi delle singole grandezze.
x =
a b
c d
(9.7)
x
|x|
=
a
|a|
+
b
|b|
+
c
|c|
+
d
|d|
(9.8)
9.3 Prodotto per una costante
Consideriamo adesso il caso in cui la grandezza di cui vogliamo stimare ler-
rore sia il risultato del prodotto di unaltra grandezza che misuriamo con una
costante priva di indeterminazione. Sia cio`e: x = k b, con k costante.
Utilizziamo la formula trovata nella sezione precedente:
x
|x|
=
k
|k|
+
b
|b|
Poiche k non ha un errore associato, la quantit`a k = 0. Quindi:
x
|x|
=
b
|b|
E inne:
x = |k| b
9.4 Potenza
Consideriamo inne il caso in cui la grandezza di cui vogliamo determinare
lincertezza `e legata alla grandezza misurata, o alle grandezze misurate, da
una legge di potenza. Sia cio`e: x = a
n
.
E suciente scrivere la precedente espressione nella forma:
x = a
1
a
2
a
3
... a
n
9.5. CASO GENERALE 93
con
a
1
= a
2
= a
3
= ... = a
n
= a
Per cui, lerrore `e dato da:
x
|x|
= n
a
|a|
Nel caso di espressioni pi` u complesse che includono prodotti di potenze
di pi` u variabili, come ad esempio:
x = a
n
b
k
si applica una combinazione della regola del prodotto e della potenza,
cio`e:
x
|x|
= |n|
a
|a|
+|k|
b
|b|
9.5 Caso generale
Supponiamo di aver misurato una grandezza x
0
e aver determinato il suo
errore x. Ora vogliamo sapere come si propagher`a lincertezza di x
0
sulla
grandezza y = f(x).
x x +
0 0
x
0
x x
x
0
x) ( f
f (
0
x )
f (
0
x +x)
Il pi` u grande valore probabile di x
0
`e x
0
+x, mentre il pi` u piccolo valore
probabile `e x
0
x. Dal graco si pu`o facilmente vedere che il pi` u grande
e il pi` u piccolo valore probabile di y saranno f(x
0
+ x) e f(x
0
x).
Se lerrore x `e sucientemente piccolo rispetto a x
0
, allora il tratto
di curva compreso fra x
0
x e x
0
+ x si pu`o approssimare con la retta
94 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
tangente in x
0
e assumere che, essendo uguale lampiezza degli intervalli
[x
0
x, x
0
] e [x
0
, x
0
+ x] :
f(x
0
+ x) f(x
0
) = f
f(x
0
) f(x
0
x) = f
Da cui, sommando membro a membro, si ricava che lindeterminazione
da associare alla funzione y `e:
f(x
0
+ x) f(x
0
x) = 2f
ossia:
f =
f(x
0
+ x) f(x
0
x)
2
Poiche in generale f(x
0
+x) e f(x
0
x) sono spesso incogniti o dicili
da derivare, si deve ricorrere a qualche approssimazione. Consideriamo quindi
lespressione:
f = f(x
0
+ x) f(x
0
)
Essendo x piccolo, possiamo espandere la funzione y in serie di Taylor
al primo ordine e scrivere:
f(x
0
+ x) = f(x
0
) +
df
dx
x=x
0
(x
0
+ x x
0
) = f(x
0
) +
df
dx
x=x
0
x
E quindi:
f =
df
dx
x=x
0
x
cio`e per trovare lerrore associato alla funzione y = f(x) dobbiamo cal-
colare la derivata
df
dx
e moltiplicarla per lerrore x. Resta inteso che la
derivata
df
dx
deve essere non nulla o prossima a zero per x = x
0
.
Si faccia inoltre attenzione che non necessariamente (x+x) > (xx)
implica f(x + x) > f(x x). Nel caso in cui la pendenza della retta sia
negativa, si avr`a:
f =
df
dx
x=x
0
x
9.5. CASO GENERALE 95
E quindi generalizzando:
f =
df
dx
x=x
0
x
Se adesso la grandezza y `e funzione di k grandezze x
j
misurate diret-
tamente, cio`e y = f(x
1
, x
2
, x
k
), allora dovremo fare uso del concetto di
dierenziale di una funzione di pi` u variabili: per variazioni innitesime dx
j
la variazione di y `e data dal dierenziale di f(x):
df =
k
j=1
f
x
j
dx
j
Se gli errori x
j
sono sucientemente piccoli da giusticare lapprossi-
mazione lineare e le derivate sono non nulle, lerrore massimo di y `e da-
to dal dierenziale della funzione f(x
1
, x
2
, x
k
), prendendo i moduli delle
derivate:
f =
k
j=1
f
x
j
x
j
=x
jo
x
j
La propagazione degli errori massimi mediante luso del dierenziale si
basa sullassunzione che le variazioni innitesime delle variabili siano date dai
rispettivi errori. Poiche si vuole stimare lerrore massimo per y `e opportuno
sommare tutti i termini coerentemente, ovvero si prendono i moduli delle
derivate parziali. Di solito viene considerato lerrore massimo nei casi in cui:
(1) il metodo di misura sia grossolano, la ripetizione delle misure porti sempre
allo stesso risultato entro lerrore di sensibilit`a dello strumento o del metodo;
(2) non ci sia stata la possibilit`a di ripetere un numero sucientemente alto
di misure (n 10) per poter stimare lerrore quadratico medio; (3) si possa
approssimare f(x) 3 f(x) per n 10.
96 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
9.6 Esempi in sica
9.6.1 Legge di Snell
n1
n2
r
i
Quando un fascio di luce attraversa due mezzi aventi indice di rifrazione
diverso, subisce una deviazione nella sua direzione di propagazione, secondo
la famosa Legge di Snell:
n
1
sini = n
2
sinr
Dove n
1
e n
2
sono gli indici di rifrazione dei due mezzi, i `e langolo di
incidenza e r `e langolo di rifrazione, entrambi misurati rispetto alla verticale
alla supercie di separazione dei due mezzi. Se assumiamo che il primo mezzo
sia laria, allora n
1
= 1, e possiamo calcolare n
2
= n misurando i due angoli
i ed r:
n =
sini
sinr
Alla misura di questi angoli sar`a associato un errore, rispettivamente i
e r. Applicando la formula generale della propagazione degli errori, si
ottiene:
n =
n
i
i +
n
r
r
Da cui:
9.6. ESEMPI IN FISICA 97
n =
1
sinr
sini
i
i +
sini
r
1
sinr
r
n =
cos i
sinr
i +
sini cos r
(sinr)
2
r
Dividendo ambo i membri per n si ricava lerrore relativo:
n
n
=
i
tani
r
tanr
`
E possibile raggiungere il medesimo risultato applicando lespressione del-
la propagazione degli errori nel caso del quoziente. Si scriva X = sini e
Y = sinr, allora sar`a:
n =
X
Y
e lerrore relativo sar`a:
n
n
=
X
X
Y
Y
cos i i
sini
cos r r
sinr
E inne:
n
n
=
i
tani
r
tanr
f
p
p +
f
q
q
Ora, la derivata parziale di f rispetto a p vale:
f
p
=
(p + q)
(pq)
p
(pq)
(p+q)
p
(p + q)
2
=
q
2
(p + q)
2
Mentre la derivata parziale di f rispetto a q vale:
f
q
=
p
2
(p + q)
2
E quindi sostituendo e calcolando lerrore relativo si ottiene:
9.6. ESEMPI IN FISICA 99
f
f
=
q
p + q
p
p
p
p + q
q
q
X
X
Y
Y
qp + pq
pq
p + q
p + q
f
f
=
p
p
q
q
p + q
p + q
dm
df
f
9.7. ESEMPI IN ASTROFISICA 101
m =
d
df
(m
0
2.5 log
10
f)
f
m =
d
df
m
0
f + 2.5
d
df
log
10
f
f
Convertendo il logaritmo decimale in logaritmo naturale, e considerando
che m
0
`e una costante, si ha:
m =
2.5
ln10
d
df
lnf
f
m = 1.086
f
f
In questo caso, poiche f `e una quantit`a sicuramente positiva, il modulo
non `e necessario. Un errore del 20% sulla misura del usso, si traduce in
circa 0.2 mag di errore. Si consideri che la tecnica dei transiti, utilizzata
per identicare candidati pianeti extrasolari, ossia pianeti in orbita attorno
a stelle diverse dal Sole, richiede una precisione dellordine del millesimo di
magnitudine, che signica un errore nella misura del usso dellordine dello
0.1%.
9.7.2 Flusso di una riga spettrale
Supponiamo di osservare una nebulosa della Via Lattea attraverso un tele-
scopio dotato di uno spettrografo. Lo spettro I() risultante mostrer`a una
serie di righe spettrali in emissione che rappresentano la distribuzione di
energia in funzione della lunghezze donda. Ogni riga spettrale corrisponde
a un determinato salto di energia degli elettroni di un atomo o di una specie
atomica.
102 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
Per ottenere il usso di una riga bisogna integrare il suo prolo nella dire-
zione delle lunghezze donda. Il prolo ha una forma che ricorda la funzione
gaussiana e quindi si pu`o usare lapprossimazione:
f(
0
) =
_
I
0
e
(
0
)
2
2
2
d
dove
0
`e la lunghezza donda della riga spettrale considerata, I
0
`e lin-
tensit`a della riga a =
0
e inne `e un parametro che da la larghezza
della riga. Il calcolo di questo integrale non `e immediato, mentre il risultato
`e molto semplice:
f(
0
) =
2I
0
f
I
0
I
0
+
Da cui si ottiene:
f =
2I
0
+
2I
0
2I
0
+
2I
0
2I
0
E inne:
f
f
=
I
0
I
0
+
R
1
f
1
f
1
+
R
2
f
2
f
2
Da cui:
R
1
=
f
1
f
2
f
1
f
2
2
f
2
E inne:
R
1
R
1
=
f
1
f
1
f
2
f
2
R
2
f
1
f
1
+
R
2
f
2
f
2
+
R
2
f
3
f
3
R
2
=
f
1
f
3
+
f
2
f
3
+
f
1
+ f
2
f
2
3
f
3
R
2
R
2
=
f
1
+ f
2
f
1
+ f
2
+
f
3
f
3
9.7.4 Legge di Hubble
Proviamo ad applicare la propagazione degli errori ad una delle leggi astro-
nomiche pi` u importanti e famose, la legge di Hubble:
v = H
0
d
9.7. ESEMPI IN ASTROFISICA 105
Vogliamo calcolare la distanza d di una galassia e per farlo dobbiamo sti-
mare la sua velocit`a di recessione v v, sapendo che la costante di Hubble
vale H
0
= 72 3 kms
1
Mpc
1
. Per farlo puntiamo un telescopio dota-
to di uno spettrografo nella direzione della galassia in esame e acquisiamo
uno spettro, il quale per eetto dellespansione delluniverso e quindi del-
lallontanamento delle galassie dalla nostra posizione di osservatori, avr`a le
righe spettrali spostate a lunghezze donda maggiori rispetto al valore che
avrebbero se questo allontanamento non ci fosse (redshift).
Consideriamo una riga spettrale di lunghezza donda
0
, per eetto del
redshift essa si trover`a a lunghezza donda , con >
0
. Dalla misura
della posizione della riga spettrale nello spettro della galassia osservata si
determina il redshift z e la velocit`a di recessione:
z =
0
0
v = c z
con c velocit`a della luce.
Quindi possiamo esprimere la distanza d in questi termini:
106 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
d =
c
H
0
_
0
1
_
Il valore della lunghezza donda misurata della riga spettrale in esame
avr`a una certa incertezza , quindi lerrore sulla distanza sar`a inuenzato
sia da che da H
0
. Applicando la propagazione degli errori si ottiene:
d =
d
H
0
H
0
d =
_
c
H
0
0
c
H
0
_
H
0
_
c(
0
)
0
1
H
0
_
H
0
d =
c
H
0
c(
0
)
0
1
H
2
0
H
0
E passando allerrore relativo:
d
d
=
(
0
)
+
H
0
H
0
9.8. PROPAGAZIONE DEGLI ERRORI STATISTICI OQUADRATICI107
Essendo lerrore su H
0
relativamente piccolo, `e facile capire che la prin-
cipale sorgente di errore nella determinazione della distanza sta nella misura
accurata delle posizioni delle righe spettrali.
Possiamo arrivare allo stesso risultato ponendo d = X Y , dove X =
c
H
0
e
Y = (
0
1).
Infatti:
d
d
=
X
X
Y
Y
X
X
=
c
c
+
H
0
H
0
=
H
0
H
0
perche c `e una costante priva di errore.
Inoltre:
Y =
0
e
Y
Y
=
0
Quindi, concludendo:
d
d
=
H
0
H
0
n
i=1
f(x
i
)
n
Ricordiamo che una funzione f(x) si pu`o sviluppare in serie di Taylor
nellintorno di un punto x
0
arbitrario:
f(x) = f(x
0
) +
df
dx
x=x
0
(x x
0
) +
1
2
d
2
f
dx
2
x=x
0
(x x
0
)
2
+
Particolarizziamo lo sviluppo in serie ad un intorno del punto x e trascu-
riamo i termini di ordine superiore al primo. Otteniamo cos`:
y
i
= f(x
i
) f( x) +
df
dx
x= x
(x
i
x)
Ci`o pu`o essere fatto per ogni misura diretta della variabile x
i
. La media
aritmetica delle quantit`a y
i
pu`o essere scritta nella forma:
y =
nf( x) +
df
dx
x= x
n
i=1
(x
i
x)
n
Poiche la somma degli scarti rispetto alla media `e nulla, cio`e
n
i=1
(x
i
x) = 0
Si ottiene:
y = f( x)
cio`e il valor medio di una funzione coincide con il valore della funzione in
corrispondenza al valore medio dellargomento. Tale risultato `e valido solo
approssimativamente, dato che nello sviluppo in serie di Taylor sono stati
trascurati i termini di grado superiore al primo. I termini dello sviluppo in
serie contengono le potenze (x
i
x)
i
, quindi poterli trascurare `e giusticato
se gli errori delle misure dirette sono piccoli. Il risultato `e valido esattamente
se la funzione y dipende linearmente dalle altre grandezze.
Calcoliamo adesso lo scarto quadratico medio di y:
9.8. PROPAGAZIONE DEGLI ERRORI STATISTICI OQUADRATICI109
2
(y) =
n
i=1
[f(x
i
) f( x)]
2
n 1
=
=
n
i=1
_
f( x) +
df
dx
x= x
(x
i
x) f( x)
_
2
n 1
=
=
n
i=1
_
df
dx
_
2
x= x
(x
i
x)
2
n 1
=
_
df
dx
_
2
2
(x)
Quindi lo scarto quadratico medio risulta:
[f(x)] =
df
dx
(x)
Risultato formalmente identico a quello trovato per gli errori massimi,
sostituendo (x) al posto di x.
Vediamo di seguito alcune applicazioni di uso frequente.
Moltiplicazione per una costante: y = x
2
(y) =
2
(x)
2
(x) (y) = || (x)
Logaritmo naturale: y = ln(x)
2
(y) =
2
(x)
x
2
(y) =
(x)
x
Elevamento a potenza: y = x
2
(y)
y
2
=
2
2
(x)
x
2
(y)
y
= ||
(x)
x
110 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
9.8.2 Caso 2
Consideriamo adesso un caso pi` u generale, cio`e sia y = f(x
1
, x
2
, x
k
), una
funzione di k grandezze misurate direttamente ed aette da errori accidenta-
li, di entit`a
1
,
2
,
k
. Siamo in una situazione diversa rispetto agli errori
massimi. In questultimo caso era suciente sommare coerentemente tutti i
contributi, presi in modulo. Nel caso degli errori accidentali ad ogni misu-
ra essi si combinano in modo imprevedibile, potendo portare anche ad una
parziale o totale compensazione.
Ripetendo n misure dirette per le k variabili si ottiene una distribuzione
di valori di y, data da tutte le possibili combinazioni degli errori accidentali
sulle x
j
. Tale distribuzione `e rappresentata da un istogramma di frequenza,
con valori di y pi` u frequenti di altri corrispondenti alle combinazioni pi` u
frequenti di errori, e con larghezza determinata oltre che dallentit`a dei x
j
anche dalle modalit`a di dette combinazioni.
Calcoliamo adesso il valore medio.
Sia y = f(x
1
, x
2
, x
k
) e si eettuino n misure per ciascuna delle k
variabili. Sia inoltre x
ji
la misura i-esima della variabile j-esima.
Analogamente al caso di una sola variabile sviluppiamo in serie di Taylor
arrestandoci al termine di primo grado:
f(x
1i
, x
2i
, x
ki
) = f( x
1
, x
2
, x
k
) +
k
j=1
_
f
x
j
_
x
j
= x
j
(x
ji
x
j
)
Quindi, dalla denizione di valore medio di y si ottiene:
y =
n
i=1
f(x
1i
, x
2i
, x
ki
)
n
=
nf( x
1
, x
2
, x
k
) +
n
i=1
k
j=1
_
f
x
j
_
x= x
(x
ji
x
j
)
n
Dalla propriet`a della media aritmetica per cui la somma degli scarti `e
identicamente nulla,
n
i=1
(x
ji
x
j
) = 0; j = 1, 2, k
otteniamo:
9.8. PROPAGAZIONE DEGLI ERRORI STATISTICI OQUADRATICI111
y = f( x
1
, x
2
, x
k
)
Calcoliamo ora lo scarto quadratico medio.
Espandiamo la i-esima determinazione y
i
in serie di Taylor nellintorno
del valore medio y arrestata ai termini di primo ordine (approssimazione di
linearit`a):
y
i
= f(x
1i
, x
2i
, x
ki
) = f( x
1
, x
2
, x
k
) +
k
j=1
_
f
x
j
_
x
j
= x
j
(x
ji
x
j
)
Valutiamo lo scarto i-esimo rispetto alla media:
y
i
y =
k
j=1
_
f
x
j
_
x
j
= x
j
(x
ji
x
j
)
Calcoliamo la varianza di y:
2
(y) =
n
i=1
(y
i
y)
2
n 1
2
(y) =
n
i=1
_
k
j=1
_
f
x
j
_
(x
ji
x
j
)
_
2
n 1
=
=
n
i=1
_
k
j=1
_
f
x
j
_
2
(x
ji
x
j
)
2
+ 2
k1
l=1
k
m=l+1
_
f
x
l
__
f
x
m
_
(x
li
x
l
)(x
mi
x
m
)
_
n 1
Si pu`o vedere che (y)
2
`e dato dalla somma di due componenti, la prima
contenente termini quadratici del tipo (x
ji
x
j
)
2
, la seconda contenente
termini misti del tipo (x
li
x
l
)(x
mi
x
m
). La prima parte pu`o essere riscritta
come:
k
j=1
_
f
x
j
_
2 n
i=1
(x
ji
x
j
)
2
n 1
112 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
Quindi si pu`o scrivere:
2
(y) =
k
j=1
_
f
x
j
_
2
2
(x
j
)
a cui vanno aggiunti termini misti contenenti i prodotti
_
f
x
l
__
f
x
m
_
(x
li
x
l
)(x
mi
x
m
)
detti termini di covarianza.
Si dimostra che se le variabili sono indipendenti i termini di covarianza
sono piccoli e tendono a zero quando il numero di misure tende allinnito. In
queste condizioni la legge di propagazione degli errori quadratici o statistici
diventa:
2
(y) =
k
j=1
_
f
x
j
_
2
2
(x
j
)
Quindi in pratica si eettua la somma in quadratura dei prodotti delle
derivate parziali per gli errori statistici delle singole variabili.
Ricordiamo che tale trattazione approssimata vale quando: (1) le mi-
sure dirette sono aette da errori sucientemente piccoli da legittimare la
linearizzazione della grandezza y (sviluppo in serie di Taylor arrestato al
primo ordine); (2) le grandezze misurate direttamente siano variabili indi-
pendenti, cio`e se in pratica non vi `e inuenza reciproca tra le misure delle
diverse grandezze. Il procedimento `e esatto nel caso in cui la grandezza y sia
combinazione lineare di varibili indipendenti.
Vediamo di seguito alcune applicazioni di uso frequente.
Somma o dierenza : g = x y
2
(g) =
2
(x) +
2
(y)
Combinazioni lineari: g = a x b y
2
(g) = a
2
2
(x) + b
2
2
(y) +
Moltiplicazione o divisione: g = x y o g = x/y
passando ai logaritmi ln(g) = ln(x) ln(y) e dierenziando
9.8. PROPAGAZIONE DEGLI ERRORI STATISTICI OQUADRATICI113
2
(g)
g
2
=
2
(x)
x
2
+
2
(y)
y
2
Combinazioni del tipo: g = Ax
2
(g)
g
2
=
2
2
(x)
x
2
+
2
2
(y)
y
2
Applicando quanto sopra agli errori accidentali risulta che: (1) in caso di
somme o sottrazioni lerrore assoluto nale `e la radice quadrata della somma
in quadratura dei singoli errori assoluti; (2) in caso di moltiplicazioni o divi-
sioni lerrore relativo nale `e la radice quadrata della somma in quadratura
dei singoli errori relativi.
9.8.3 Combinazione di errori massimi e statistici
Consideriamo il caso misto in cui la misura di una grandezza sica dipenda
da altre grandezze aette da errori sia massimi che statistici. Si pu`o operare
in modo diverso a seconda dello scopo della nostra misura.
Se vogliamo sapere con certezza in quale intervallo cada il valor ve-
ro della grandezza in esame dobbiamo usare la trattazione degli errori
massimi.
Consideriamo il caso di un singolo errore massimo e di un singolo errore
statistico, situazione cui sempre ci si pu`o ricondurre combinando prima tutti
gli errori massimi e poi tutti quelli statistici. Si trasforma lerrore statistico
in massimo
m 3
m
dove
m
`e lo scarto quadratico medio della serie di determinazioni per m.
Infatti, nel caso ideale della distribuzione gaussiana degli errori accidentali
la probabilit`a di osservare uno scarto dalla media maggiore in modulo di 3
`e inferiore allo 0.3% (molto piccola).
Se vogliamo ottenere una stima realistica ma probabilistica dellerrore
dobbiamo usare la trattazione degli errori quadratici.
Se una grandezza m `e misurata con errore massimo m, possiamo pro-
cedere in due modi:
Assumere una distribuzione uniforme, ovvero costante (misure equi-
probabili) entro lintervallo [m m, m + m] e nulla al di fuori. Si
114 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI
dimostra che tale distribuzione ha varianza
2
(m) =
(2m)
2
12
e quindi
l errore quadratico medio `e
(m) =
m
3
0.577 m
Assumere una distribuzione gaussiana, con picco centrato nel va-
lor medio dellintervallo ed errore quadratico medio tale che 6 (m)
copra lintera larghezza dellintervallo. Sotto queste ipotesi l errore
quadratico medio `e
(m) =
m
3
0.333 m
9.8.4 Lo scarto quadratico medio della media
Lindeterminazione statistica della media, o meglio la larghezza della distri-
buzione relativa alle medie di una serie di misure eettuate in condizioni
identiche, si pu`o ottenere applicando la propagazione degli errori statistici.
Se n `e il numero totale di misure e m
i
la misura i-esima:
m =
n
i=1
m
i
n
m
=
_
n
i=1
_
m
m
i
(m
i
)
_
2
Poiche le m
i
sono misure della stessa grandezza si pu`o associare ad esse
(m
i
) = ; inoltre si ha
m
m
i
=
1
n
.
Quindi lo scarto quadratico medio della media `e:
m
=
_
n
2
n
2
=
m
=
_
1
n(n 1)
n
i=1
(m
i
m)
2
9.8. PROPAGAZIONE DEGLI ERRORI STATISTICI OQUADRATICI115
La dipendenza da
1
n
rende sempre pi` u dicile diminuire
m
aumen-
tando il numero di misure. Anche se si potesse realizzare un numero eleva-
tissimo di misure, diventerebbe impossibile mantenere costanti le condizioni
sperimentali. Lusura degli strumenti potrebbe introdurre errori sistematici.
116 CAPITOLO 9. PROPAGAZIONE DEGLI ERRORI