Professional Documents
Culture Documents
18 Novembre 2009
Prefatio
i
ii Prefatio
Indice delle Lezioni
Prefatio i
2 La convessita 11
7 Metodo di penalita 43
iii
iv Indice delle Lezioni
Lezione 1
E curioso a vedere che gli uomini di molto merito hanno sempre le maniere sem-
plici, e che sempre le maniere semplici sono prese per indizio di poco merito.
Giacomo Leopardi
Nel seguito vengono presentati alcuni esempi nello spazio a due dimensioni.
1
2 Lezione 1. Richiami sulle proprieta delle funzioni reali
f 1 1 x1
= (x21 + x22 ) 2 2x1 = p 2
x1 2 x1 + x22
e quella rispetto ad x2
f x2
=p 2
x2 x1 + x22
Si consideri il punto (0, 0) e, in corrispondenza di esso, si scriva il rapporto
incrementale:
f (0 + t, 0) f (0, 0) t2
=
t t
Come e noto, il limite di questo rapporto per t 0, qualora esista, e la derivata
parziale nel punto (0, 0) rispetto
alla variabile x1 . Tale limite pero non e definito nel
t2
caso considerato, in quanto vale +1 o 1 a seconda che t sia > 0 o < 0. Con-
t
siderazioni analoghe valgono anche per la derivata parziale nel punto (0, 0) rispetto
alla variabile x2 .
E noto che per funzioni reali di una sola variabile la continuita e condizione
necessaria (non sufficiente!) per la derivabilita. Lesempio successivo mostra che,
per funzioni di piu variabili, la continuita non e nemmeno condizione necessaria per
lesistenza delle derivate parziali.
Si consideri la funzione nel punto (0, 0), in cui e f (0, 0) = 0. Si osservi che in
tutti i punti della retta di equazione x1 = x2 (e quindi anche in punti infinita-
mente vicini al punto (0, 0)), vale f (x1 , x2 ) = 12 . Cio implica che non puo essere
lim f (x1 , x2 ) = f (0, 0) e che, quindi, la funzione non e continua in (0, 0).
(x1 ,x2 )(0,0)
Daltra parte e facile verificare che in tale punto esistono entrambe le derivate
parziali. Relativamente alla variabile x1 , si scriva il rapporto incrementale:
(0 + t)0
f (0 + t, 0) f (0, 0) 2
0 0
= t +0 = =0
t t t
Tale rapporto e costante e vale 0, quindi il suo limite per t 0 esiste e vale 0. Si ha,
f f
quindi, = 0. Analogamente si verifica = 0. In forma compatta,
x1 (0,0) x2 (0,0)
facendo riferimento al vettore gradiente, possiamo dire che esso esiste nel punto
(0, 0) e vale f = (0, 0)T .
1.1. Differenziabilita delle funzioni di piu variabili 3
Nel caso di funzioni di una sola variabile, lesistenza della derivata e garanzia
della possibilita di approssimare localmente la funzione per il tramite di una funzione
affine. Lesempio appena sviluppato mostra invece che, nel caso di funzioni di
piu variabili, lesistenza del gradiente non garantisce tale possibilita. La funzione
dellesempio, infatti, non essendo continua nel punto (0, 0), non e nellintorno di
esso approssimabile mediante alcuna funzione affine. Tuttavia, le derivate parziali
in tale punto esistono.
Si noti che la proprieta ii) puo essere alternativamente scritta nella forma:
f (x + tej ) f (x)
lim
t0 t
E evidente quindi che lesistenza della j-ma derivata parziale implica lesistenza
delle derivate direzionali lungo le direzioni ej ed ej . In particolare vale f 0 (x, ej ) =
f (x) f (x)
e f 0 (x, ej ) = .
xj xj
Nota, peraltro, che lesistenza delle derivate direzionali lungo ej e ej non
implica lesistenza della j-ma derivata parziale (vedi, ad esempio, il comportamento
della citata funzione |x| nellorigine).
E immediato verificare che se f e differenziabile in x, esiste la derivata di-
rezionale lungo qualsiasi direzione d Rn ed essa e una funzione lineare di d,
definita dal gradiente f (x). Vale infatti:
x21 x2
Esempio 1.3 f (x1 , x2 ) = se (x1 , x2 ) 6= (0, 0) e f (0, 0) = 0. Si calcoli la
x21+ x22
6 Lezione 1. Richiami sulle proprieta delle funzioni reali
1
f (x + d) = f (x) + f (x)T d + dT f (x)d + o(kdk2 ) (1.2)
2
4
F (t) = f (x + td)
1
F (t) = F (0) + tF 0 (0) + t2 F 00 (0) + o(t2 )
2
Tendendo conto della formula per le derivate delle funzioni composte, vale
n
X
0 f (x)
F (0) = di = f (x)T d,
i=1
xi
8 Lezione 1. Richiami sulle proprieta delle funzioni reali
In riferimento alle proprieta del secondo ordine, vale che se f e una funzione
due volte differenziabile, fissato un punto x, per ogni d Rn , esiste un punto
opportuno z = x + d, con (0, 1), che soddisfa la relazione (formula di Taylor):
1
f (x + d) = f (x) + f (x)T d + dT 2 f (z)T d. (1.3)
2
xT y
cos =
kxkkyk
Come e noto, se il prodotto scalare di due vettori non nulli e 0, i due vettori
si dicono ortogonali (in questo caso risulta risulta cos = 0).
Consideriamo una funzione f ed un generico punto x. Da esso possiamo pen-
sare di muoverci lungo una determinata direzione d Rn . Cio equivale a considerare
punti del tipo x + td al variare del parametro scalare t 0. Tali punti definiscono la
semiretta di direzione d applicata nel punto x. Dal punto di vista dellottimizzazione
numerica, risulta interessante valutare se gli spostamenti lungo tale semiretta sono
1.3. Direzioni di discesa e tangenti 9
Si noti che, affinche una direzione sia di discesa, non e necessario che sia
f (x + td) < f (x) per ogni t > 0. E sufficiente infatti che tale condizione sia
soddisfatta per spostamenti sufficientemente piccoli. Per le funzioni differenziabili,
la derivata direzionale costituisce un utile strumento per caratterizzare una direzione
come direzione di discesa. Vale, infatti, il seguente teorema.
x(t) = x + td + o(t) S,
f (x)T f (x)
cos = = 1
kf (x)k2
La convessita
11
12 Lezione 2. La convessita
Prova.
Essendo la f convessa, vale per (0, 1) la (2.1), che, ponendo = 1 ,
possiamo riscrivere come
e
f (x) f (y) + f (y)T (x y)
da cui segue che
f (x)T (y x) + f (y)T (x y) 0
e quindi la tesi.
Teorema 2.4. Tutti gli autovalori di una matrice A definita positiva sono positivi.
Si noti tra laltro, che la precedente proprieta implica che una matrice definita
positiva e non singolare, dal momento che altrimenti avrebbe tra i suoi autovalori
anche lo 0. Inoltre vale questaltra proprieta.
1
f (x + d) f (x) = f (x)T d + dT 2 f (x)d + o(kdk2 ).
2
15
1
Il segno di m (2 f (x))kdk2 + o(kdk2 ) e lo stesso di quello di
2
1 o(kdk2 )
m (2 f (x)) +
2 kdk2
che, per valori piccoli di kdk, e, a sua volta, lo stesso di m (2 f (x)), cioe positivo.
Esiste quindi un intorno di x in corrispondenza del quale vale:
f (x + d) f (x) f (x)T d
Prova.
Se f e convessa, vale
Poiche e anche
1
f (x + td) = f (x) + tf (x)T d + t2 dT 2 f (x)T d + o(t2 kdk2 ),
2
segue
1 2 T 2
t d f (x)T d + o(t2 kdk2 ) = f (x + td) f (x) tf (x)T d 0.
2
Cioe, per ogni t 6= 0:
1 T 2 o(t2 kdk2 )
d f (x)T d + 0.
2 t2
o(t2 kdk2 )
> 0,
t2
che contraddice il fatto che
o(t2 kdk2 )
lim = 0.
t0 t2
16 Lezione 2. La convessita
Condizioni di ottimalita
nella programmazione
non lineare
There are only two ways to live your life. One is as though nothing is a miracle.
The other is as though everything is a miracle.
Albert Einstein
Si consideri il problema:
min f (x).
xX
17
18 Lezione 3. Condizioni di ottimalita nella programmazione non lineare
4
n o
Cf (x(0) ) = x X : f (x) = f (x(0) ) (3.1b)
Nel caso di insiemi non limitati e possibile dare una condizione sufficiente di
esistenza:
Teorema 3.2. Se una funzione f e continua e almeno uno dei suoi insiemi di
livello e chiuso e limitato, allora f ammette un punto di minimo globale.
Prova. Sia x(0) un punto in corrispondenza del quale linsieme di livello Lf (x(0) )
sia chiuso e limitato. Per il teorema di Weierstrass la funzione ammette un punto
minimo x su Lf (x(0) ).
E evidente che x e anche punto di minimo globale per f . Vale, infatti, per
ogni x / Lf (x(0) ), f (x) > f (x(0) ) f (x ).
ha come punti di minimo tutti i punti della semiretta [1, +), ma nessuno dei suoi
insiemi di livello e chiuso e limitato.
Una classe di funzioni per le quali e possibile stabilire una condizione neces-
saria e sufficiente di esistenza di un punto di minimo globale e quella delle funzioni
coercive, caratterizzate da un crescita illimitata quando ci si allontani indefinita-
mente dallorigine.
Prova. La continuita di f assicura che, per ogni , linsieme Lf, e chiuso. Occorre,
quindi, dimostrare che esso e anche limitato. Si supponga, per assurdo, che esista
un valore tale che Lf, non sia limitato. Esiste, quindi, almeno una successione
di punti {x(k) }, con x(k) Lf, , tale che kx(k) k per k . Daltra parte, la
coercivita di f implica che
lim f (x(k) ) = +,
k
e cio contraddice lipotesi che tutta la sequenza {x(k) } sia contenuta in Lf, .
Il teorema 3.5 fornisce delle condizioni molto generali, dette condizioni del
primo ordine. Un punto che soddisfa tali condizioni si dice punto stazionario, e PS
indica linsieme dei punti stazionari per f , ossia
4
PS = {x : x Rn , f (x) = 0}
Se la f e due volte continuamente differenziabile, si possono enunciare anche
delle condizioni del secondo ordine.
Prova. La (3.2a) segue dal teorema 3.5. Data una direzione d Rn , poiche f e due
volte differenziabile, possiamo scrivere la formula di Taylor (1.2) con riferimento a
un punto incrementato x + td, ove d e una qualsiasi direzione:
1
f (x + td) = f (x ) + tf (x )T d + dT 2 f (x )d + o(ktdk2 )
2
e, poiche in x il gradiente si annulla,
f (x + td) f (x ) 1 o(ktdk2 )
2
= dT 2 f (x )d +
t 2 t2
dal momento che x e per ipotesi un minimo locale, per t sufficientemente piccolo
il termine di sinistra e sicuramente non negativo, e quindi risulta
1 T 2 o(ktdk2 )
d f (x )d + 0
2 t2
da cui, passando a limite per t 0+ , e osservando che d e una direzione qualsiasi,
segue la tesi.
Fin qui si sono viste condizioni necessarie di ottimalita. E possibile dare anche
una condizione sufficiente.
f (x ) = 0 (3.3a)
Si noti che il teorema 3.8 vale in ipotesi del tutto generali: non abbiamo
nemmeno supposto la f differenziabile. Se lo e, vediamo ora che la convessita
consente di dare una caratterizzazione dei punti di minimo piu forte di quanto
visto finora. Infatti, in generale, il soddisfacimento delle condizioni necessarie del
primo e del secondordine non basta a determinare la natura del punto in questione.
Invece, nel caso particolare che la f sia convessa, le sole condizioni del primo ordine
divengono necessarie e sufficienti.
Teorema 3.9. Si consideri una funzione f con gradiente continuo, e sia f convessa
in Rn . Condizione necessaria e sufficiente affinche x sia un punto di minimo
22 Lezione 3. Condizioni di ottimalita nella programmazione non lineare
Prova. La necessita deriva dal teorema 3.5. Per quanto concerne la sufficienza,
basta ricordare la (2.2), ove y e un qualunque punto in Rn :
f (y) f (x ) f (x )T (y x )
con f = f (x ) = f (x ).
I) aTi x > 0, i = 1, . . . , m
e
m
X
II) ai yi = 0, yi 0 i = 1, . . . , m ed almeno per un indice i con yi > 0
i=1
ammette soluzione.
3.3. Condizioni di ottimalita in problemi di programmazione non lineare vincolata 23
Prova. Dimostreremo solo che non e possibile che i due sistemi sono ammissi-
bili (ometteremo, cioe, la prova del fatto ch i due sistemi possono essere entrambi
inammissibili).
Definendo la matrice A (m n), le cui righe sono costruite dai vettori aTi ,
i = 1, . . . , m, i due sistemi I) ed II) possono scriversi come
* + * +
Ax > 0 AT y = 0, y Rm
I) II)
x Rn y 0, y 6= 0
0 < y T (|{z}
Ax ) = y T Ax = (AT y )T x = 0,
|{z} |{z}
0 >0 =0
6=0
che e un assurdo.
m
X
* T
+ * +
g d<0 g= i ai
I) II) i=1
aTi d 0, i = 1, . . . , m
i 0, i = 1, . . . , m
ammette soluzione.
Prova. Dimostriamo prima di tutto che I) e II) non possono essere entrambi
ammissibili. Supponiamo per assurdo che lo siano e siano d e i , i = 1, . . . , m
rispettivamente una soluzione di I) e di II). Dovrebbe valere:
m !T m
X X
0 > g T d = i ai d = i aTi d 0
|{z} |{z}
i=1 i=1 0
0
Per dimostrare che I) e II) non possono essere entrambi inammissibili, prove-
remo che linammissibilita di II) implica lammissibilita di I).
Sia II) inammissibile.
( Cio implica)che g non appartiene al cono chiuso e
X m
convesso C = v | v = i ai , i 0 . Dal teorema di separazione segue che
i=1
esiste d Rn tale che g T d < 0 e aTi d 0, i = 1, . . . , m, cioe che I) e ammissibile.
4
Si assume, senza perdita di generalita, che valga m = |E| n.
Si supponga che x sia un punto di minimo per (PE ) e si consideri un generico
vettore d Rn rappresentativo di uno spostamento rispetto a x .
Poiche, ovviamente, x e ammissibile, il punto x + d e ammissibile se e solo
se ai d = 0 i E. Se x e ottimo, non esiste alcuno spostamento ammissibile
T
e che comporti una riduzione della funzione obiettivo. In particolare, quindi, non
esiste alcuno spostamento d che soddisfi:
* f (x )T d < 0 +
(3.4)
aTi d = 0 i E
Prova.
m
X
Sia f (x ) = i ai allora per ogni d Rn tale che aTi d = 0, i = 1, . . . , m
i=1
vale !T
m
X m
X
T
f (x ) d = i a i d= i aTi d = 0
i=1 i=1
Supponiamo che (3.4) sia inammissibile. E noto che f (x ) puo essere espresso
come somma di due vettori, uno appartenente al sottospazio M generato dai
vettori a1 , . . . , am e laltro appartenente al sottospazio ortogonale M . Vale
cioe
m
X
f (x ) = i ai + ,
i=1
Nota 3.1. Eventuali vincoli di uguaglianza del tipo aTi x = bi possono essere sosti-
tuiti dalla coppia di vincoli
* aT x b +
i i
(PI )
aTi x bi
Prova.
26 Lezione 3. Condizioni di ottimalita nella programmazione non lineare
Nota 3.2. Gli unici vincoli rilevanti ai fini della definizione di una direzione
ammissibile sono quelli attivi.
i) aTi x bi i I (ammissibilita)
X
ii) Rm tale che: f (x ) = i ai (esistenza dei moltiplicatori)
iI
* min f (x) +
nxR
(P N L)
gi (x) 0, i I
con f e gi , i I differenziabili.
Sia x un punto di minimo per (P N L) s sia I(x ) linsieme dei vincoli attivi
4
in x (I(x ) = {i| i I, gi (x ) = 0}).
Costruiamo un nuovo problema con vincoli lineari, sostituendo ai vincoli gi (x)
le loro linearizzazioni radicate in x .
* min f (x) +
xRn
(P (x ))
T
gi (x ) + gi (x ) (x x ) 0, i I
* min f (x) +
nxR
(P (x ))
aTi x bi , i I
4 4
dove ai = gi (x ) e bi = gi (x ) + gi (x )T x .
Ovviamente x e ammissibile anche per (P (x )) ed il suo insieme dei vincoli
attivi in x coincide con I(x ). Se x continua ad essere ottimo anche per (P (x ))
28 Lezione 3. Condizioni di ottimalita nella programmazione non lineare
che possono essere riscritte, tenendo conto delle definizioni delle ai e delle bi , nella
forma
X
f (x ) = i gi (x )
iI
0
i gi (x ) = 0 i I
gi (x ) 0 i I
x2 g1 (x)
x1 = const.
x2
x1
0
g1 (x) =
1
1
f (x) =
g2 (x)
0 x1
0
g2 (x) =
1
(a) (b)
* min x1 +
x1 ,x2
x2 x21
x2 x21
3.3. Condizioni di ottimalita in problemi di programmazione non lineare vincolata 29
x2 x2
x1 + x2 = const.
2 2 x1 2 x1
0 0
(a) (b)
Dallo studio delle rette isocosto x1 +x2 = costante, si vede facilmente che il punto di
!
2
minimo e x = . I vincoli sono definiti dalle funzioni g1 (x) = x21 x22 + 2
0
eg2 (x) = x2 . Linsieme
dei vincoli attivi allottimo e I(x ) = {1, 2}; vale g1 (x) =
2x1 0
, g2 (x) = . Inoltre e b1 = 4 e b2 = 0.
2x2 1
Il problema (P (x )) si scrive
* min x1 + x2 + * min x1 + x2 +
2 2x1 4 cioe x1 2 (P (x ))
x2 0 x2 0
Personally, Im always ready to learn, although I do not always like being taught.
Winston Churchill
Si ottiene cos una successione x(0) , x(1) , . . . , x(k) , . . . di punti. A tale schema
generale di algoritmo ci si riferisce con il termine di metodo di discesa, a indicare
che a ogni passo risulta
Teorema 4.1. Sia f C 2 , la matrice Hessiana 2 f (x) definita positiva per ogni
x e con autovalore massimo M (2 f (x)) per ogni x Lf (x(0) ). Sia, inoltre,
31
32 Lezione 4. Convergenza del metodo di discesa
f C 2 implica
Si ottiene quindi
(1 c)
k kf (x(k) )k (4.6)
kd(k) k
Da (4.1) e (4.6) scaturisce
(1 c)
f (x(k+1) ) f (x(k) ) 2 kf (x(k) )k2 k (4.7)
33
Si supponga per assurdo che lalgoritmo non termina. Si dovrebbe avere quindi
kf (x(k) )k > k,
(1 c) 2 4
f (x(k+1) ) f (x(k) ) < 2 = < 0
La precedente relazione implicherebbe
Se non studio un giorno, me ne accorgo io. Se non studio due giorni, se ne accorge
il pubblico.
Nicolo Paganini
35
36 Lezione 5. Nozioni sui metodi Quasi-Newton
l(k) (x)
x(k+1)x(k) x(k1)
Costruiamo la funzione affine l(k) (x) che interpola g(x) nei due punti x(k1)
(k)
ed x :
g(x(k1) ) g(x(k) )
l(k) (x) = g(x(k) ) + (x x(k) )
x(k1) x(k)
1
x(k+1) = x(k) g(x(k) ) (si noti lanologia con (5.1))
s(k)
che puo scriversi sulla base di informazione relativa ai punti x(k1) e x(k) .
Lapproccio Q-N puo essere esteso alla risoluzione di un sistema di equazioni
nonlineari:
F (x) = 0 dove F : Rn Rn .
Noti i punti x(k+1) , x(k) Rn si determina unapprossimazione affine l(k) (x) di F (x)
del tipo:
l(k) (x) = F (x(k) ) + S (k) (x x(k) ),
dove la matrice (n n) S (k) (approssimazione dello Jacobiano di F in x(k) ) soddisfa
lequazione della secante (detta anche Quasi-Newton):
cioe
S (k) (k) = (k) . (5.2)
Ponendo l(k) (x) |x=x(k+1) = 0 e supponendo S (k) non singolare, si ottiene:
h i1
x(k+1) = x(k) S (k) F (x(k) )
Nota 5.1. Nel caso n > 1, la condizione (5.2), per una assegnata coppia di vettori
( (k) , (k) ), puo essere soddisfatta per molte scelte di S (k) .
I vari metodi quasi-Newton si differenziano per il modo con cui viene costruita
S (k) .
cioe
T (k)
u u } = (k) S (k1) (k) .
| {z
scalare
Poiche uT (k) e uno scalare, segue che u deve essere un multiplo del vettore
(k)
S (k1) (k) . Si ponga quindi
S (k) = S (k+1)
1 (5.3)
+ ( (k) S (k1) (k) )( (k) S (k1) (k) )T
(k)T (k) (k)T S (k1) (k)
38 Lezione 5. Nozioni sui metodi Quasi-Newton
min f (x) .
xQ
39
40 Lezione 6. Il metodo del piano di taglio
f (x)
f (2) (x)
Q
x(3)
x(1) x(2)
4
Sia x un punto di minimo di f in Q e sia f il valore ottimo (f = f (x )). Sia
4
zk+1 il valore ottimo del problema di (6.3), cioe sia zk+1 = f (k) (x(k+1) ). Il seguente
teorema di convergenza vale:
Teorema 6.1. Esiste una sottosequenza della sequenza {zk+1 } che converge ad f .
Prova.
f (x) f (k) (x) x f f (k) (x ) . (6.4)
f (x(k+1) ) f zk+1 k = 1, 2, . . .
Supponiamo, per assurdo, che non esista alcuna sottosequenza di zk+1 con-
vergente ad f . Cio comporta che esiste un > 0 tale che, per ogni k, sussista:
4
where L = max kf (x)k < + .
xQ
Dalla (6.7) segue che, per ogni k, vale
kx(k+1) x(i) k i = 1, 2, . . . , k
2L
Facendo tendere k perverremmo alla costruzione
di una sequenza di
punti tutti appartenenti a Q e tutti a distanza finita luno dallaltro, che
2L
contraddice la compattezza di Q.
6.1 LAlgoritmo
Lo schema iterativo dellalgoritmo del piano di taglio e il seguente:
Metodo di penalita
Considerate la vostra semenza: fatti non foste a viver come bruti, ma per seguir
virtute e canoscenza.
Dante Alighieri
* +
minf (x)
(7.1)
xS
Si suppone che f : Rn R sia continua. Si definisca una funzione di pe-
nalita P (x), P : Rn R, con le seguenti proprieta:
i) P e continua
ii) P (x) 0 x Rn
iii) P (x) = 0 x S
4
Esempio 7.1 Sia S = {x| x Rn , gi (x) 0, i = 1, . . . , m}. Una possibile funzione
di penalita e:
m
1X 2
P (x) = (min{0, gi (x)}) .
2 i=1
43
44 Lezione 7. Metodo di penalita
e sia
4
x(k) = argmin q(ck , x)
xRn
Vogliamo provare che la sequenza dei punti x(k) , se converge, converge ad una
soluzione del problema 7.1.
La sostanza del metodo consiste, quindi, nel sostituire, al problema vincolato,
la risoluzione di una sequenza di problemi non vincolati.
Prova.
(7.2a)
(7.2b) Valgono:
(
f (x(k) ) + ck P (x(k) ) f (x(k+1) ) + ck P (x(k+1) )
f (x(k+1) ) + ck+1 P (x(k+1) ) f (x(k) ) + ck+1 P (x(k) )
P (x(k+1) ) P (x(k) )
(7.2c)
Lemma 7.2. Sia x una soluzione del problema (7.1). Vale per ogni k
f (x ) q(ck , x(k) ) f (x(k) )
Prova.
f (x ) = f (x ) + ck P (x )
> f (x(k) ) + ck P (x(k) ) f (x(k) ) [dalla proprieta ii)]
| {z }
(k)
q(ck , x )
cioe
lim f (x(k) ) + ck P (x(k) ) = q .
k
kK
Tendendo conto della (7.3) segue
lim ck P (x(k) ) = q f (x).
k
kK
cioe x e ammissibile.
Vale quindi:
f (x) = lim f (x(k) ) f (x )
k
kK
f (x ) f (x)
segue f (x ) = f (x).
Lezione 8
* +
min f (x)
(P )
gi (x) 0 i = 1, . . . m
f e gi , i = 1, . . . , m sono continue.
4
Ipotesi: Linsieme S = {x| gi (x) > 0, i = 1, . . . , m} e non vuoto e robusto
cioe ogni punto ammissibile di (P ) e non appartenente a S e infinitamente vicino a
punti di S.
ROBUSTO
NON
ROBUSTO
47
48 Lezione 8. Metodi barriera e a punto interno
B(x)
g1 (x) = x a 0
g2 (x) = x + b 0
axb
a b x
e si pone
4
x(k) = argmin f (x) + k B(x)
xS
f (x ) < f (x)
Elementi di
programmazione
semi-definita (SDP)
Two things are infinite, the universe and human stupidity, and Im not sure about
the former.
Albert Einstein
* min C X +
Ai X = bi i = 1, . . . m (9.1)
X0
n X
X n
4
H G= hij gij = tr H T G = tr HG
i=1 j=1
min bT y
Xm
yi Ai C (9.2)
i=1
Il vicolo (9.2) e detto un vincolo del tipo LMI (Linear Matrix Inequality).
51
52 Lezione 9. Elementi di programmazione semi-definita (SDP)
* ATi P + P Ai + Si = 0 i = 1, . . . L+
P 0
Si 0 i