You are on page 1of 41

Computer Aided Engineering

In generale riguarda tutte le attività dell’ingegneria assistite dal calcolatore

Un sistema CAE si compone di un hardware ed un software

Elaboratori Sistemi operativi


Video grafici Compilatori
Tastiere Interpreti
Hardware Tavolette grafiche Software Programmi specifici
Stampanti Programmi integrati
Plotter Data base
Memorie di massa Traduttori di data base
----- -----

Possibili utenti di sistemi CAE

Industria meccanica, aeronautica, chimica, reti di distribuzione


(piping), ingegneria civile, ingegneria elettronica, architettura, studio
dei sistemi automatici, telecomunicazioni, ...
I primi sistemi CAE consistevano in applicazioni specifiche
La tendenza è quella di utilizzare sistemi CAE integrati

Nelle applicazioni meccaniche si costruisce un modello 3D con annesso un


database contenente le informazioni necessarie ai vari moduli
Ad esempio, dal modello si elaborano le viste, le mesh per il calcolo agli
elementi finiti, dimensioni stampi per formatura, percorsi utensili,
movimentazione pezzi, gestione scorte, ...
Il modello matematico può essere realizzato secondo 3 metodologie

1) Wire frame - descrizione mediante spigoli e contorni

Tecnica a trattamento veloce, ma non fornisce informazioni su sviluppo


superfici e volumi

2) Modellazione di superfici
Ottima comprensione visiva (ombre e luci comprese),
mediante superfici di Bezier od anche B-spline si
ottengono superfici regolari con continuità anche
sulle derivate.
Si perdono informazioni sui volumi

3) Modellazione di volumi Informazioni complete ma gestione più gravosa

Constructive Solid Geometry - mediante operazioni Booleane su solidi elementari

Cell Decomposition - il solido è costituito da celle con numero facce arbitrario e


intersezione nulla
Tecnica Sweep - il volume è definito da una superficie ed una traiettoria percorsa
Difficoltà nascono nell’utilizzo di un modello geometrico a fini strutturali - ove si
richiedono mesh legate al tipo di calcolo da effettuare

Ad esempio, nella generazione di mesh di elementi shell, la mappatura


geometrica si deve riferire alla sola superficie media e non all’effettivo
ingombro come nelle rappresentazioni 3D

Rappresentazione mediante l’uso dei polinomi di Bernstein


Nell’esempio t = 0.5

Si tratta di un metodo molto semplice e veloce per trovare punti appartenenti alla
curva di Bezier mediante un parametro 0 < t <1
Si suddivide ciascun segmento nel rapporto t,
Unendo i punti ottenuti si ottiene un poligono di lati n-1
Si continua finché il poligono ottenuto è un segmento (su di esso P33 si trova il I punto

Cambiando il valore di t si hanno i punti cercati


Richiami di algebra matriciale
La necessità dell’uso di matrici si associa spesso alla scrittura compatta si sistemi di equazioni
lineari algebriche

Notazione
Scrittura completa
indiciale
a11x1  a12x 2  ...  a1n x n  b1 Ai j x j  bi i  1... n Notazione
matriciale
a 21x1  a 22x 2  ...  a 2 n x n  b 2
 Axb
Sommatoria
a m1x1  a m 2 x 2  ...  a mn x n  b m

n
a x j  bi
j1 i j
i  1... n

A viene chiamata matrice dei coefficienti

Definizioni fondamentali

m = n = 1 si ha un semplice scalare

m = 1 vettore riga / n = 1 vettore colonna

m = n la matrice è quadrata - elementi con i = j sono diagonale principale


Matrice identità Matrice diagonale Matrice triangolare superiore
1 0 0  1 0 0  1 3 1 
I  0 1 0 A   0 3 0 A   0 3  2
0 0 1  0 0 2  0 0 2 

Una matrice quadrata è simmetrica se aij = aji

 A  B
T
B = trasposta di A = AT , si ottiene con bij = aji  BT  A T

Operatori fondamentali

Due matrici A e B sono uguali se lo sono tutti i termini, bij = aij ( i , j )

C=A+B si ottiene sommando termini corrispondenti cij = aij + bij

A + B = B + A Propr. Commutativa / A+(B+C) = (A+B)+C Propr. Associativa


Il prodotto di 2 matrici necessita che il numero di colonne A  B C
della I sia uguale a quello delle righe della II mr rn mn

AB  B A A  B  C  A  B  A  C k AB  A k B

Una matrice è ortogonale (ortonormale) se risulta A  AT  I

Traccia matrice = somma diagonale principale tr A  a11  a 22  ...  a nn

Determinante di una matrice (definizione ricorsiva)

a1 j  det A1 j 
n
det A     1
1 j
A1j = (ottenuta eliminando riga 1 e colonna j)
j 1

det A  B  det A  det B


L’inversa di una matrice è definita solo se la matrice è quadrata

A  A1  I I 1  I A 1 1
A A T 1
 
 A 1
T

A  B 1 1
B A 1 Se A è ortogonale A1  AT

L’inversione inverte la moltiplicazione

adj A 
Per il calcolo si può utilizzare le seguente definizione: A 1 
det A 

1) Si costruisce matrice in cui ogni elemento ij è ottenuto dal


determinante della matrice priva della i-ma riga e della j-ma colonna
Adj (A) segno + se i+j è pari segno - se i+j è dispari

2) Si fa la trasposta della precedente


Esempio:
 2 5
T
1  3  2 3
A  adj  A       5 1
5 2  3 1   

2 3
 5 1 1  2 3  2 17 3 17 
A  
1
 
1 3 17  5 1  5 17 1 17 
5 2
ai j  0 per j  i  mA
Banda di una matrice - Se i valgono le ai j  0 per j  i  mB

La banda “b” di A è pari a b = (mA+mB+1)

Banda piccola comporta minore onere computazionale per inversione


Banda piccola comporta minore spazio allocazione in memoria
Partizione di una matrice si ottiene eliminando alcune righe e/o colonne

Rango di una matrice (A) : dimensione della più grande


partizione quadrata con determinante non nullo

Trasformazioni lineari e spazi vettoriali

Un insieme di vettori xi è linearmente dipendente se esiste una combinazione di


scalari i (non nulli) tale per cui:  x   x    x  0
1 1 2 2 n n

Se gli n vettori xi sono linearmente indipendenti, essi costituiscono una


base dello spazio vettoriale n -D

Un vettore colonna di n valori rappresenta un punto in uno spazio n – D


descritto dai vettori xi
α di coordinate (α1, α2, … αn)
Qualunque ulteriore vettore c può essere ottenuto da una combinazione
lineare degli n vettori base xi
c  1 x1  2 x2    n xn
Un sistema di equazioni lineari A x = y costituisce un passaggio da un vettore x
in uno spazio a n dimensioni ad un altro y a m dimensioni

L’operatore A (la matrice) x  y è lineare purché sussistano le:

Ak x  k Ax
Ax1  x2   Ax1   Ax2 

Se la matrice A è quadrata e con determinante non nullo la trasformazione x  y


è biunivoca

Se det A non nullo, le colonne di A sono linearmente indipendenti e formano base


completa.

L’espressione A x può essere pensata nel senso che x sono i coefficienti della base
che identificano un punto nello spazio n
Una operazione spesso utilizzata negli elementi finiti riguarda il cambiamento
di base per passare ad esempio da un sistema rif. locale ad uno globale

x x xPx P è la matrice di trasformazione


y y yPy di coordinate

Sostituendo nella y Ax

Py APx

Premoltiplicando per P 1

y  P 1A P x ; y Ax ; A  P1A P

Il cambio di base, ammesso che P sia invertibile, consiste in una operazione semplice, e
facilmente automatizzabile

L’invertibilità di P va collegata al fatto che i vettori colonna che formano P stessa siano
linearmente indipendenti e cioè che essi costituiscano una base completa

Se poi i vettori colonna si dimostrano ortogonali fra di loro la matrice inversa


corrisponde alla semplice trasposta e il cambio di base diviene immediato
Esempio:  F x 
   K  
y 0  y  F k 0  x 
k    y
x F   
0 0 0  
k 0 
x K 
0 0 

y
x x  x cos   y sen  Matrice  cos  sen  
P 
 y   x sen   y cos  ortogonale  sen  cos  

cos   sen   k 0   cos  sen  


K    A  P1A P
sen  cos   0 0   sen  cos  

 Fx  x   cos 2  sen  cos  


 Kk 
  K     2

 Fy  y sen cos sen 
Problema autovalori di matrice simmetrica

Data una generica trasformazione lineare y = A x , in generale, x ed y sono vettori


distinti ed anche non paralleli

Se A invertibile, esistono tuttavia alcuni vettori u (non nulli) per cui la trasformazione
lineare genera vettori ad essi paralleli ( u)

Au  u La ricerca dei vettori u e dei relativi fattori di scala 


costituisce un problema detto agli autovalori

Esistono n autovettori ui indipendenti e n autovalori i

Sistema omogeneo Soluzioni non banali se


A   I  u  0 det A   I   0

Gli autovettori ui sono definiti a meno di una costante

Gli autovalori si ordinano solitamente secondo: 1   2     n


Esempio:

2 2  1  2 u1  1  2
T

A 
…..
2  1  2  3 u 2  2 1
T

Alcune proprietà semplici

Gli autovalori di una matrice sono indipendenti dai cambi di base

Se A è una matrice reale simmetrica (o anche Hermitiana), autovalori ed autovettori


sono reali
Se A è una matrice reale, se esiste un autovalore complesso c’è anche il coniugato,
corrispondentemente esistono anche gli autovettori complessi coniugati

Gli autovettori sono ortogonali fra loro e costituiscono quindi una base completa
dello spazio vettoriale

Gli autovettori sono definiti a meno di una costante 1 per i  j


uTiu j  i j  
che si può determinare rendendoli ortonormali 0 per i  j
Forme quadratiche

Una forma quadratica consiste in un polinomio di II grado del tipo


n n
Ux 1 , x 2 ,, x n    a i j x i x j
i 1 j1

Se A è una matrice quadrata, si può scriverla in forma matriciale U  xt A x

1 t
Se K è la matrice di rigidezza, la f.q. è legata all’energia potenziale E pot  x Kx
2

Se M è la matrice di massa, la f.q. è legata all’energia cinetica 1 t


(v = velocità) E cin  v Mv
2

Se risulta x : xT A x > 0 la f.q. è definita positiva


xT A x  0 la f.q. è semidefinita positiva
xT A x < 0 la f.q. è definita negativa
xT A x  0 la f.q. è semidefinita negativa
Riferendoci a masse e rigidezze, essendo le due forme quadratiche relative a E
potenziale e E cinetica, le due f.q. devono essere semidefinite positive

La norma di un vettore (o di una matrice) è rappresentata da un numero è stata


introdotta per quantificare la “magnitudine” del vettore (matrice)

p    Norma infinita  max u i


i

Vettori u p  p i u i
p
p 1   i u i

 u 
1
p  2  Norma euclidea  i
2
i
2

A  max  max a i j 
 i  j 
 n

Matrici A 1  max   ai j ; j  1,..n 
j
 i 1 
~
A 2   n Massimo autovalore di ATA - Norma Euclidea

n
Il numero di condizionamento di una matrice è definito come: cond  A  
1
Sistemi di equazioni lineari con matrice coefficienti non quadrata

I sistemi lineari si definiscono sovradimensionati, quando il numero di


equazioni supera quello delle incognite ( m > n )

I sistemi lineari si definiscono sottodimensionati, quando il numero di


equazioni è inferiore a quello delle incognite ( m < n )

a) m > n A xy
m  n n 1 m 1

Pseudoinversa di A: A   AT A
n  m m n
 1
AT
n m

x  A y La soluzione che così si ricava è quella ai minimi quadrati. In pratica


n 1 n m m 1
è la soluzione che minimizza la norma euclidea del vettore errore

Err  y  Ax

Esempio 2 x 1  3 x 2  5 2 3 
  14  4
3 x1  x 2  2 A  3  1 AT A   
 x  7 x  6  4 59 
 1 2 1  7
5
      1

x  AT A  1
AT y 
1 59 4

2 3 1
  2  
810  4 14 3  1  7   1
 6
Ma se si introduce una 2 x 1  3 x 2  5
 0.99197
inesattezza nei dati: 3 x1  x 2  2 x
1.2 x  7 x  6 1.02299
 1 2

b) m < n A xy
m  n n 1 m 1
Pseudoinversa di A: A   AT A AT
n  m m n n  m
 1

x  A y La soluzione ha in questo caso il significato di soluzione di minima norma -


n 1 n  m m 1
tra gli infiniti vettori soluzione si prende quello con norma Euclidea minima

Esempio  2 x1  3 x 2  x 3  6 2 3 1  14 1
 A  A AT   
 x1  x 2  2 x 2  2 1  1 2   1 6

2 1  1.0843 
1  6  1 6 
 
x  A T A A T y  3  1   
1
 
83  1 14  2 
  0 .9639


1 2  
0.9398
Questa soluzione può avere significato fisico se si è interessati ad una soluzione di
“minimo costo”
Sistemi di equazioni lineari con matrice coefficienti quadrata

Si possono in generale distinguere 4 tipologie di soluzioni:


y Ax

1) Determinante di A non nullo e y norma non nulla:


 un vettore x soluzione ed è unico

2) Determinante di A non nullo e y nullo (problema omogeneo)


 un vettore x soluzione coincidente con il vettore nullo

3) Determinante di A nullo e y norma non nulla:


Le soluzioni in x sono famiglie di vettori di norma 

4) Determinante di A nullo e y nullo (problema omogeneo)


 la soluzione banale, ma se ne possono ricercare
altre infinite - autovettori ( dell’ordine n - rango(A) )
SOLUZIONE NUMERICA DI SISTEMI EQUAZIONI DI GRANDI DIMENSIONI

La soluzione numerica dei problemi spesso non coincide con l’ideale soluzione analitica
(si pensi ad esempio all’inversa di una matrice)

Uno dei punti fondamentali è legato all’arrotondamento numerico (cifre significative).


Ogni volta che si effettua una operazione aritmetica si commette un errore - la domanda
è: come si propaga l’errore?

È possibile capire a-priori se la soluzione numerica di un sistema di equazioni lineari


darà luogo a difficoltà numeriche mediante il numero di condizionamento della matrice
dei coefficienti

Il numero di condizionamento (NC) è pari al rapporto tra l’autovalore più alto e


quello più basso della matrice dei coefficienti

Nei problemi di meccanica statici, Kxf il NC diviene molto elevato


quando K ha il/i primo/i autovalore/i nullo/i.

Sistema labile
Le strategie numeriche di risoluzione si possono inizialmente suddividere in due
gruppi: metodi iterativi o indiretti e metodi diretti

Determinante, per rendere veloce la soluzione con gli elaboratori elettronici, è la


minimizzazione della banda della matrice dei coefficienti in quanto vengono
memorizzate le matrici in un vettore che contiene solo i termini entro la banda

Metodi di soluzione iterativi: metodo di Gauss-Seidel

È il metodo “più antico” essendo di programmazione molto semplice

Il grosso handicap consiste nel fatto che non si può facilmente prevedere a-priori il
numero di iterazioni necessario (dipende dal Numero Condizionamento!)

Se la matrice dei coefficienti è definita positiva, la convergenza è comunque


assicurata

La velocità di convergenza aumenta se si dispone di una soluzione già vicina


a quella finale
Pertanto il metodo è favorevole nella “rianalisi”, se ad esempio si hanno
piccole variazioni della matrice coefficienti

Dato il sistema Kxf si isoli la i-esima equazione


i 1

 K x j   Ki i xi   K x j   fi
n

ij ij
j 1 j  i 1

 i 1 
fi   K i j x j    K i j x j 
n
1
xi 
Ki i  j 1 j  i 1 
La precedente equazione può essere vista come una nuova stima di xi , noti
che siano tutti i valori delle altre incognite

Si può riscrivere il tutto in forma matriciale, estendendo la soluzione a tutti i


gradi di libertà ed utilizzando i valori nuovi, ove disponibili

xn   K D1   f  K L xn   K LT x v  

Dove n = nuova stima , v = vecchia stima , KD = matrice diagonale di K


KL = matrice triangolare inferiore a diagonale nulla di K
Il processo iterativo continua finché non si raggiunge accuratezza richiesta

x n   x  v 
n 
2

x
2

Si può incrementare la velocità di convergenza utilizzando un fattore  detto di


sovrarilassamento, in questo caso il sistema diventa


xn   x v    K D1 F  K L xn   K D x v   K TL x v  
Si tenga presente però che le due precedenti compatte scritture hanno un senso
convenzionale in quanto la soluzione va determinata una riga alla volta (partendo
dalla prima) e aggiornando il vettore nuovo con i risultati delle righe precedenti

I valori del fattore β più favorevoli sono in genere compresi tra 1.3 e 1.7

Ulteriori vantaggi si possono avere precondizionando il sistema, mediante


opportune matrici Q che premoltiplicano l’intero sistema di equazioni

Spesso come matrice di precondizionamento si utilizza l’inversa della diagonale di K


Esempio (=1)

 2 2  1  x1   6  1 
 2 4 1   x   16 Soluzion  
3 
   2   e esatta  
 1 1 3     
x 3   8  2 

1  2.5000  1.8333  1.0194 


Vettore       
iniziale 1  2.5000  ,   0.4586 2.4167  ,   0.2997  2.9874  ,   0.0068
1 2.6667   2.4722  2.0107 
      
iter = 1 iter = 2 iter = 50

1.5  1.2500  1.0417  1.0013 


Vettore        
iniziale  
2.5 3.0000  ,   0.0704  2.9583 ,   0.0174  2.9992  ,   0.0005
2.0833 2.0278 2.0007 
1.5       
iter = 1 iter = 2 iter = 50
Metodo di soluzione diretta: metodo eliminazione di Gauss

È il metodo maggiormente utilizzato nei codici di calcolo

Punto di partenza è che operazioni algebriche sulle righe del sistema non
alterano le soluzioni (considerazione analitica e non numerica!!!)

Esso consta di due fasi successive: eliminazione in avanti (forward)


ed eliminazione a ritroso (backward)

Nella fase forward si compiono operazioni algebriche sul sistema che trasformano
la matrice dei coefficienti in una triangolare superiore

Nella fase backward si risolve il sistema partendo dall’ultima equazione e


risalendo verso la prima
a11x1  a12x 2  ...  a1n x n  b1
a 21x1  a 22x 2  ...  a 2 n x n  b 2

a m1x1  a m 2 x 2  ...  a mn x n  b m
forward
a) Si eliminano i termini della I colonna, dalla II riga (i  2) in poi togliendo ad esse
la I moltiplicata per ai1/a11
a11x1  a12x 2  ...  a1n x n  b1
 a 21   a 21   a 21  a 21
 a 21  a11  x1   a 22  a12  x 2  ...   a 2n  a1n  x n  b2  b1
 a11   a11   a11  a11

 a n1   a n1   a n1  a n1
a 
 n1 11
a x  a 
 1  n2 12 a  2
x  ...  a 
 nn 1n
a  n
x  b n  b1
 a11   a11   a11  a11

b) Si ripete l’operazione precedente, operando dalla III riga in poi (i  3) quindi


dalla IV e così via fino ad ottenere un sistema così ordinato:
a11x1  a12x 2  ...  a1n x n  b1
~ ~
a 22x 2  ...  ~
a 2 n x n  b2

~ ~
a x b nn n n
backward
Si ha ora a che fare con un sistema dove l’ultima equazione è disaccoppiata dalle
altre, si risolve e poi si passa alla penultima, ….

È necessario, perché funzioni, che non ci siano divisioni per zero, i.e.
a11 ; a 22 ; ... ; a n 1,n 1  0

Dal punto di vista numerico, più è numericamente PIVOTING


“grande” il numero per cui si divide e meglio è

Un modo semplice di farlo (pivoting parziale) consiste nel permutare le righe


in modo da fare sempre comparire in I posizione il termine di valore assoluto
massimo in tutta la I colonna

Risultati numerici ancora migliori si hanno con il (pivoting totale) che consiste
nella permutazione sia delle righe che delle colonne in modo da far comparire in I
posizione sempre il termine di valore assoluto massimo (ma prende più tempo …)
Metodo di soluzione diretta: metodo decomposizione LU

Se A è una matrice quadrata, si può decomporre nel prodotto di due matrici


triangolari (inferiore e superiore)
A  LU 

Se A è anche reale, la U ha la diagonale principale composta di termini unitari

Esistono algoritmi numerici molto efficienti per ottenere tali decomposizioni

Axy LUxy

Introduciamo un nuovo vettore b = U x Lb  y

b si ricava immediatamente partendo dalla prima riga ( l11 b1  y1 ) e scendendo

Noto b, si ricava x, partendo dall’ultima equazione e risalendo Uxb


Il teorema di Cholesky consente una procedura ancora più veloce,
in quanto esso asserisce che se A è definita positiva (e tale è la K
di un sistema ben vincolato), allora si può decomporre come: A  L LT 
Assemblaggio della matrice K nel metodo Elementi Finiti

Senza per ora entrare in dettagli, la matrice dei coefficienti K è ottenuta sommando tutti
i contributi degli elementi connessi, (piazzando i termini nelle giuste posizioni date dai
gradi di libertà)
La prima delle due sequenze di
numerazione non è ottimizzata in
quanto comporta una larghezza di
banda massima

Le bande più estese si hanno di


solito quando si utilizzano
elementi solidi, i quali presentano
un livello di connessione fra nodi
più elevato

Non potendo demandare all’utente


la sequenza di numerazione
ottimale, il codice ne adotta una
interna, in corrispondenza
biunivoca con quella utente
Metodo di soluzione diretta: algoritmo frontale

Si tratta dell’algoritmo più ampiamente utilizzato per la soluzione nell’ambito dei


codici di calcolo agli elementi finiti
Partendo da un elenco numerato di elementi, vengono conteggiate le loro rigidezze
finché non si esauriscono tutti i contributi ad un nodo sul quale si agisce

L’algoritmo quindi opera sui gradi di libertà che sono attivi in quel nodo,
assemblando assieme le matrice di rigidezza di tutti gli elementi che abbiano
componenti di rigidezza sul nodo considerato

La soluzione è tanto più veloce quanto più il fronte che definisce la massima banda
di tutte le matrici di rigidezza assemblabili focalizzando l’attenzione su un nodo
alla volta è piccolo
In effetti il fronte stabilisce la dimensione della quotaparte di matrice che è
necessario mantenere contemporaneamente in memoria durante uno step del
calcolo e la dimensione delle matrici da memorizzare durante il processo di
eliminazione
Il fronte dipende dalla sequenza di numerazioni presa per gli elementi,
pertanto i codici più evoluti hanno degli algoritmi per generare una
numerazione interna che minimizzi il fronte stesso

Quando il sistema ha potuto eliminare l’ultimo nodo completo, un processo


backward che rilegge tutte le precedenti eliminazioni consente di risalire a
tutti gli spostamenti nodali della struttura

In pratica si utilizza un sistema di eliminazione di Gauss ad ognuna delle


elaborazioni considerate

La velocità di risoluzione è proporzionale alla radice quadrata della


dimensione media del wavefront che può tra l’altro essere stimata a-priori
Esempio Ciascun elemento ha la medesima 3 1
K (e)   
matrice, supponiamo che sia 1 2
1
1  x1   f1   f1   0 
 x  f  f   0 
5 4 3  2   2   2   
2 K  x 3   f3  ;  f3    1 
4  x  f  f   0 
Carico unitario 2  4  4  4  
Vincolo  x 5  f5  f5  R v 
3

El. 1 = 1 - 2 El. 3 = 4 - 2
Definizione degli elementi: El. 2 = 2 - 3 El. 4 = 5 - 4

Il sistema, assemblato, assume la forma: K  K (e1)  K (e2)  K(e3)  K (e4)

3 1                    
1 2     3 1    2  1      

K         1 2                
       
            1  3      2 1
                  1 3 
1 2 3 4 5
1 3 1   
2 1 7 1 1   La banda della matrice è 5

K 3  1 2   Nel metodo frontale, si decide di seguire la
 
4  1  5 1 sequenza degli elementi: 1-2-3-4
5     1 3 

K  x  F
3 1      x1   0 
1
 7 1 1   x 2   0  Il sistema completo richiederebbe
   
 1 2    x3    1  l’inversione della matrice K qui a fianco
 
 1  5 1  x 4   0 
   
    1 3   x 5   R v 

Si parte invece dall’elaborazione del primo elemento:

3 1  x1  0 La I equazione (1 è nodo completo) ci


Elemento 1: 1 2 x   0 consente di eliminare x1
  2   
K (e1)
x2
I equazione 3 x1  x 2  0 x1  
3
3 1  x1  0 0 0   x1  0
1 2 x   0 0 5 3 x   0
  2      2   

Si può ora aggiungere l’elemento 2 (e 14 3 1 x 2  0


non considerare più gdl 1)  1  x   1
 2  3   

La II equazione (3 è nodo completo) ci consente eliminare x3


25 6 0 x 2   1 2
x 2  2 x3  1  0  x    0 
 0  3   

Si può ora aggiungere l’elemento 3 (e non 37 6 1 x 2   1 2


considerare più il gdl 3)  1  x    0 
 3 4   

La I equazione (2 è nodo completo) ci consente eliminare x2

105 37 0 x 4  3 37
37 6 x 2  x 4  1 2  0    
 0  2  
x 0 
Si può ora aggiungere l’elemento 4 (e non considerare più il gdl 2)

179 37 1 x 4  3 37 
 1  x    R  Ora il vincolo ci dice che x5 = 0
 3 5  v 

Si può procedere a ritroso ricavando:

x5  0
179 37 x 4  3 37
x 4  3 179 R v  3 179
x 2   555 6623
x 3  3589 6623
x1  185 6623

Notare che in questo caso il wavefront è stato sempre pari a 2


(Massimo 2 equazioni simultaneamente trattate)

You might also like