You are on page 1of 55

ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA

Apontamentos de
Matrizes e Sistemas de Equações Lineares

Escola Superior de Tecnologia de Setúbal


Departamento de Matemática
Ano Lectivo de 2010/2011
Nota Prévia
Os presentes apontamentos destinam-se aos alunos da unidade curricular de ALGA leccionada
nos cursos de Engenharia da EST Setúbal/IPS. Foram originalmente baseados no capítulo 4
do livro “Álgebra Linear” da autoria de Carlos Luz, Ana Matos e Sandra Nunes, editado pela
EST Setúbal em 2003. Ao longo dos últimos anos, têm sido adaptados a novos contextos
curriculares e sofrido diversos melhoramentos, os quais têm sido levados a cabo por Carlos Luz
com a colaboração de Cristina Almeida e Paula Pereira. São também de assinalar as sugestões
dadas por vários outros colegas que, assim, têm contribuído para a melhoria deste instrumento
de estudo dos alunos. Neste ano lectivo, os anteriormente designados exercícios suplementares
coligidos por Carla Rodrigues foram incorporados na secção de exercícios propostos.

Índice
1 Definição de Matriz. Matrizes Especiais. 3

2 Operações com Matrizes. Matriz Inversa 6


2.1 Adição de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1.1 Propriedades da adição de matrizes . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Multiplicação de Matrizes por um Escalar . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1 Propriedades da multiplicação de um escalar por uma matriz . . . . . . . 8
2.3 Multiplicação de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3.1 Propriedades da multiplicação de matrizes . . . . . . . . . . . . . . . . . . 9
2.4 Potência de uma Matriz Quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Exercícios Resolvidos 16

4 Dependência e Independência Linear de Linhas e Colunas 18

5 Característica e Operações Elementares 23

6 Exercícios Resolvidos 29

7 Sistemas de Equações Lineares 30


7.1 Resolução de Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . 33
7.2 Sistemas Homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

8 Inversão de Matrizes 41

9 Exercícios Resolvidos 43

10 Exercícios Propostos 46

11 Soluções dos Exercícios Propostos 53

2 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
1 Definição de Matriz. Matrizes Especiais.
Intuitivamente, uma matriz é uma tabela onde se dispõem elementos dum dado conjunto. Estu-
daremos a seguir as matrizes formadas por elementos do conjunto dos números reais. Em estudos
posteriores, há necessidade de considerar matrizes cujos elementos são números complexos. De
notar contudo que as definições e propriedades que veremos são igualmente válidas neste caso.

Definição 1.1 Uma matriz de tipo m × n é um quadro com m n números reais dispostos em m
linhas e n colunas.

Seja A uma matriz de tipo m × n. Representa-se por aij o elemento de A situado na linha i
e na coluna j, isto é, na posição (i, j) da matriz. Assim, representa-se a matriz A por
⎡ ⎤
a11 a12 · · · a1j · · · a1n
⎢ a21 a22 · · · a2j · · · a2n ⎥
⎢ ⎥
⎢ .. .. .. .. .. .. ⎥
⎢ . . . . . . ⎥
A=⎢ ⎢ ai1 ai2 · · · aij · · · ain ⎥

⎢ ⎥
⎢ .. .. .. .. .. .. ⎥
⎣ . . . . . . ⎦
am1 am2 · · · amj · · · amn
ou, abreviadamente, por
A = [aij ]1≤i≤m ,
1≤j≤n
ou apenas por
A = [aij ] ,
se não houver risco de confusão. É também costume designar aij por elemento genérico da
matriz A.
Uma matriz diz-se quadrada de ordem n se m = n, isto é, se tiver igual número de linhas
e de colunas. Se m 6= n, então diz-se uma matriz rectangular.
Se m = 1, isto é, se a matriz tiver uma só linha, estamos perante uma matriz linha. Caso
n = 1, isto é, se a matriz tiver uma só coluna, a matriz designa-se por matriz coluna.

Exemplo 1.1 A matriz ⎡ ⎤


a11 a12 a13
A = ⎣ a21 a22 a23 ⎦
a31 a32 a33
é uma matriz quadrada de ordem 3. Por outro lado,
⎡ ⎤
1
⎢ 3 ⎥
⎢ ⎥
⎢ 2 ⎥
B=⎢ ⎢ 5 ⎥

⎢ ⎥
⎣ 3 ⎦
7
é uma matriz coluna e £ ¤
C= 2 4 5
é uma matriz linha.

3 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Consideremos uma matriz quadrada de ordem n:
⎡ ⎤
a11 a12 · · · a1j · · · a1n
⎢ a21 a22 · · · a2j · · · a2n ⎥
⎢ ⎥
⎢ .. .. .. .. .. .. ⎥
⎢ . . . . . . ⎥
A=⎢ ⎢ ⎥.
a a · · · a · · · ain ⎥
⎢ i1 i2 ij ⎥
⎢ .. .. .. .. .. .. ⎥
⎣ . . . . . . ⎦
an1 an2 · · · anj · · · ann

Os elementos a11 , a22 , a33 , . . . , ann da matriz quadrada dizem-se elementos principais ou
diagonais e formam a diagonal principal. Os elementos a1n , a2,n−1 , a3,n−2 , . . . , an1 formam
a diagonal secundária.
Uma matriz quadrada A = [aij ] diz-se triangular superior se aij = 0 sempre que i > j,
isto é, se todos os elementos abaixo da diagonal principal são nulos. Se aij = 0 sempre que
i < j, isto é, se todos os elementos acima da diagonal principal são nulos, então a matriz diz-se
triangular inferior.

Exemplo 1.2 Dadas


⎡ ⎤ ⎡ ⎤
0 3 2 2 0 0
A=⎣ 0 1 5 ⎦ e B = ⎣ 1 0 0 ⎦,
0 0 3 10 5 3

tem-se que A é uma matriz triangular superior e B é uma matriz triangular inferior.

Uma matriz quadrada diz-se diagonal se aij = 0 sempre que i 6= j, ou seja, todos os
elementos fora da diagonal principal são nulos. Uma matriz quadrada A = [aij ] diz-se escalar
se for diagonal e os elementos principais forem todos iguais a um escalar λ, isto é,
½
λ se i = j
aij = .
0 se i 6= j
⎡ ⎤ ⎡ ⎤
2 0 0 2 0 0
Exemplo 1.3 A matriz ⎣ 0 7 0 ⎦ é diagonal enquanto ⎣ 0 2 0 ⎦ é escalar.
0 0 8 0 0 2

A matriz escalar de ordem n em que os elementos principais são iguais a 1 designa-se por
matriz identidade de ordem n e representa-se por In .
Sendo i e j números naturais, dá-se a designação de símbolo de Kronecker à variável δ ij
definida por ½
1 se i = j
δ ij = .
0 se i 6= j
Utilizando este símbolo, pode representar-se uma matriz escalar por A = [λδ ij ] . Em particular,
a matriz identidade de ordem n representa-se por In = [δ ij ].

4 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Exemplo 1.4 As matrizes seguintes,
∙ ¸ ∙ ¸
δ 11 δ 12 1 0
I2 = = ,
δ 21 δ 22 0 1
⎡ ⎤
⎡ ⎤ ⎡ ⎤ 1 0 0 0
δ 11 δ 12 δ 12 1 0 0 ⎢ 0 1 0 0 ⎥
I3 = ⎣ δ 21 δ 22 δ 23 ⎦ = ⎣ 0 1 0 ⎦ e I4 = ⎢
⎣ 0
⎥,
0 1 0 ⎦
δ 31 δ 32 δ 33 0 0 1
0 0 0 1
constituem, respectivamente, as matrizes identidade de ordens 2, 3 e 4.

Uma matriz A = [aij ] de tipo m × n diz-se nula se todos os seus elementos são nulos, isto
é, aij = 0, para quaisquer i = 1, . . . , m e j = 1, . . . , n. Daqui em diante, representaremos uma
matriz nula de tipo m × n por Om×n ou simplesmente pela letra O.
Duas matrizes A = [aij ] e B = [bij ] de tipo m × n são iguais se e só se aij = bij , para
quaisquer i = 1, . . . , m e j = 1, . . . , n. De forma mais sugestiva, diz-se que duas matrizes são
iguais se e só se os seus elementos homólogos forem iguais.
∙ ¸ ∙ ¸
1 0 1 0 √
Exemplo 1.5 As matrizes A = eB= são iguais. A haver alguma dúvida,
4 3 4 9

ela residiria nos elementos homólogos a22 = 3 e b22 = 9 que, evidentemente, são iguais.

Chama-se oposta duma matriz A = [aij ] do tipo m×n à matriz B = [bij ] do mesmo tipo, tal
que aij = −bij, para quaisquer i = 1, . . . , m e j = 1, . . . , n. A matriz oposta de A representa-se
habitualmente por −A = [−aij ].
⎡ ⎤
2 −8 0
Exemplo 1.6 A matriz A = ⎣ 4 7 3 ⎦ tem oposta
−6 5 8
⎡ ⎤
−2 8 0
−A = ⎣ −4 −7 −3 ⎦ .
6 −5 −8

Chama-se transposta da matriz A = [aij ] do tipo m×n à matriz B = [bij ], do tipo n×m, tal
que bij = aji , para quaisquer i = 1, . . . , m e j = 1, . . . , n. A matriz transposta de A representa-se
habitualmente por AT . Verifica-se, evidentemente, que
¡ T ¢T
A =A (1)

e que a transposta de uma matriz linha é uma matriz coluna e a transposta de uma matriz
coluna é uma matriz linha.
⎡ ⎤
2 4
Exemplo 1.7 A matriz A = ⎣ 3 0 ⎦ tem por transposta
4 8
∙ ¸
T 2 3 4
A = .
4 0 8

5 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
£ ¤
Por outro lado, a matriz linha A = 2 4 5 tem por transposta a matriz coluna AT =
⎡ ⎤
2
⎣ 4 ⎦.
5

Uma matriz A diz-se simétrica se é igual à sua transposta, isto é, se

A = AT .

Uma matriz simétrica é sempre uma matriz quadrada. Com efeito, se A é do tipo m × n, AT é
do tipo n × m. Como, por definição de matriz simétrica, A = AT , conclui-se que m = n. Além
disto, sendo A = [aij ], tem-se aij = aji , isto é, os elementos que ocupam posições simétricas
relativamente à diagonal principal são iguais. Exemplificando, a matriz
⎡ ⎤
2 1 5
⎣ 1 7 2 ⎦
5 2 8

é simétrica.
Uma matriz A diz-se anti-simétrica se A = −AT . Uma matriz anti-simétrica é sempre
uma matriz quadrada e, se A = [aij ], tem-se

A = −AT ⇔ aij = −aji , ∀(i, j).

Sendo i = j, obtém-se aii = −aii o que implica aii = 0. Conclui-se que numa matriz anti-
simétrica os elementos da diagonal principal são nulos e os elementos colocados simetricamente
em relação à diagonal principal são simétricos. Como exemplo de matriz anti-simétrica, temos:
⎡ ⎤
0 1 4
⎣ −1 0 3 ⎦.
−4 −3 0

2 Operações com Matrizes. Matriz Inversa


2.1 Adição de Matrizes
Definição 2.1 Sejam A = [aij ] e B = [bij ] duas matrizes de elementos reais de tipo m × n.
Chama-se soma de A e B à matriz C = [cij ], de tipo m × n, cujo elemento genérico é
cij = aij + bij . Escreve-se então C = A + B.

Exemplo 2.1 Dadas as matrizes


∙ ¸ ∙ ¸
2 3 4 6 −5 4
A= e B= ,
4 0 8 3 9 18

a soma de A e B é a matriz
∙ ¸
8 −2 8
C =A+B = .
7 9 26

6 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
2.1.1 Propriedades da adição de matrizes
Listam-se seguidamente as propriedades básicas da adição de matrizes. As primeiras quatro
deduzem-se das propriedades da adição de números reais, sendo a última consequência da defi-
nição de matriz transposta.

Proposição 2.1 São válidas as seguintes propriedades:

(a) A adição de matrizes é comutativa, isto é, A + B = B + A, para quaisquer matrizes A e B


do mesmo tipo.

(b) A adição de matrizes é associativa, isto é, A + (B + C) = (A + B) + C, para quaisquer


matrizes A, B e C do mesmo tipo.

(c) A adição de matrizes tem elemento neutro, isto é, para cada tipo de matrizes, existe uma
matriz nula O desse tipo tal que, qualquer que seja a matriz A do tipo considerado, A+O =
O + A = A.

(d) A adição de matrizes tem elemento simétrico, isto é, para qualquer matriz A, existe uma
matriz oposta −A do mesmo tipo, tal que A + (−A) = (−A) + A = O.

(e) A transposta da soma de matrizes é igual à soma das transpostas, isto é,

(A + B)T = AT + B T ,

quaisquer que sejam A e B matrizes do mesmo tipo.

2.2 Multiplicação de Matrizes por um Escalar


Definição 2.2 Seja A = [aij ] uma matriz de elementos reais de tipo m × n e λ um escalar real.
Chama-se produto do escalar λ pela matriz A, à matriz do mesmo tipo que se representa
por λA e cujo elemento genérico é λaij , isto é, a matriz que se obtém de A multiplicando todos
os seus elementos por λ.
∙ ¸
2 3 4
Exemplo 2.2 Sendo A = e λ = 4, tem-se
4 0 8
∙ ¸ ∙ ¸
2 3 4 8 12 16
λA = 4 = ,
4 0 8 16 0 32

enquanto, para λ = − 12 , vem


∙ ¸
1 −1 − 32 −2
λA = − A = .
2 −2 0 −4

7 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
2.2.1 Propriedades da multiplicação de um escalar por uma matriz
Listam-se seguidamente as propriedades básicas da multiplicação escalar. As primeiras quatro
deduzem-se das propriedades da multiplicação de números reais e a última é consequência da
definição de matriz transposta.

Proposição 2.2 Sejam A e B matrizes de tipo m × n e λ e μ escalares quaisquer. Então, são


válidas as seguintes propriedades:

(a) λ(A + B) = λA + λB;

(b) (λ + μ)A = λA + μA;

(c) (λμ)A = λ(μA);

(d) 1A = A; (−1) A = −A; 0A = Om×n .

(e) (λA)T = λAT .

2.3 Multiplicação de Matrizes


Definição 2.3 Duas matrizes A e B dizem-se encadeadas se A é do tipo m × n e B é do tipo
n × p, isto é, se o número de colunas de A é igual ao número de linhas de B.

Exemplo 2.3 As matrizes


⎡ ⎤
∙ ¸ 2 0 0
2 3 4
A= e B=⎣ 0 7 0 ⎦
4 0 8
0 0 8

são encadeadas.

Definição 2.4 Sejam A = [aij ] e B = [bij ] duas matrizes encadeadas de elementos reais de tipos
m × n e n × p, respectivamente. Chama-se produto da matriz A pela matriz B à matriz
C = [cij ] de tipo m × p, cujo elemento genérico cij se obtém somando os produtos dos elementos
da linha i da matriz A pelos elementos correspondentes da coluna j da matriz B, isto é,
n
X
cij = ai1 b1j + · · · + aik bkj + · · · + ain bnj = aik bkj ,
k=1

com i = 1, 2, . . . , m e j = 1, 2, . . . , p. Escreve-se, então, C = AB.

Resulta da definição que o elemento genérico cij da matriz C = AB pode ser encarado como
o produto da matriz linha formada pelos elementos da linha i de A pela matriz coluna formada

8 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
pelos elementos da coluna j de B, isto é,
⎡ ⎤
b1j
⎢ .. ⎥
⎢ ⎥
£ ¤ ⎢ . ⎥
cij = ai1 · · · aik · · · ain ⎢ bkj ⎥
| {z } ⎢
⎢ .. ⎥

linha i de A ⎣ . ⎦
bnj
| {z }
coluna j de B
n
X
= ai1 b1j + · · · + aik bkj + · · · + ain bnj = aik bkj .
k=1

Por outro lado, é evidente que o produto C = AB tem o mesmo número de linhas que a matriz
A e o mesmo número de colunas que a matriz B, isto é, AB é do tipo m × p. Esquematicamente:

(m × n) vezes (n × p) = (m × p).
⎡ ⎤
⎡ 0 ⎤ 1
4 5 3 2 ⎢ 8 9 ⎥
Exemplo 2.4 Para A = ⎣ 1 2 4 5 ⎦ e B = ⎢
⎣ 4
⎥ tem-se
5 ⎦
6 0 1 9
6 3
⎡ ⎤
⎡ ⎤ 0 1
4 5 3 2 ⎢
8 9 ⎥
C = AB =⎣ 1 2 4 5 ⎦⎢ ⎥
⎣ 4 5 ⎦
6 0 1 9
| {z } 6 3
(3×4) | {z }
(4×2)
⎡ ⎤
4×0+5×8+3×4+2×6 4×1+5×9+3×5+2×3
= ⎣ 1×0+2×8+4×4+5×6 1×1+2×9+4×5+5×3 ⎦
6×0+0×8+1×4+9×6 6×1+0×9+1×5+9×3
⎡ ⎤
64 70
= ⎣ 62 54 ⎦ .
58 38
| {z }
(3×2)

2.3.1 Propriedades da multiplicação de matrizes


Vejamos algumas propriedades da multiplicação de matrizes.

Proposição 2.3 A multiplicação de matrizes é associativa, isto é,

(AB)C = A(BC)

em que A = [aij ] é do tipo m × n, B = [bij ] do tipo n × p e C = [cij ] do tipo p × q.

9 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Demonstração. As matrizes (AB)C e A(BC) são ambas do tipo m × q e considerando D =
[dij ] = (AB)C, E = [eij ] = A(BC), AB = [fij ] e BC = [gij ], resulta
p p
à n ! p Xn
X X X X
dij = fik ckj = ais bsk ckj = ais bsk ckj
k=1 k=1 s=1 k=1 s=1
e à p !
n
X n
X X X p
n X
eij = ais gsj = ais bsk ckj = ais bsk ckj .
s=1 s=1 k=1 s=1 k=1

Exemplo 2.5 Para


⎤ ⎡
∙ ¸ ∙ ¸ 4
0 1 0 1 3
A= , B= e C=⎣ 2 ⎦
2 2 −1 2 4
5
tem-se ⎡ ⎤
∙ ¸ 4 ∙ ¸
−1 2 4 ⎣ 2 ⎦ = 20
(AB)C =
−2 6 14 74
5
e ∙ ¸∙ ¸ ∙ ¸
0 1 17 20
A(BC) = = .
2 2 20 74
Proposição 2.4 A multiplicação de matrizes é distributiva relativamente à adição, isto é,
A(B + C) = AB + AC e (D + E)F = DF + EF
desde que os produtos indicados existam.

Demonstração. Sejam A = [aij ] do tipo m × n, B = [bij ] do tipo n × p e C = [cij ] do tipo


n × p.
Então, B + C é do tipo n × p e A(B + C) é do tipo m × p. De modo semelhante, verifica-se
que AB é do tipo m × p e AC é do tipo m × p e AB + AC é do tipo m × p. Assim, as matrizes
A(B + C) e AB + AC são do mesmo tipo.
Para que sejam iguais têm que ter os elementos homólogos iguais. O elemento situado na
linha i da coluna j de A(B + C) é igual ao elemento situado na linha i da coluna j de AB + AC
pois,
Xn n
X n
X n
X
aik (bkj + ckj ) = (aik bkj + aik ckj ) = aik bkj + aik ckj .
k=1 k=1 k=1 k=1

Exemplo 2.6 Para



⎤ ⎤ ⎡
∙ ¸ 4 3 2 3 2 0
1 2 −1
A= , B=⎣ 0 0 0 ⎦ e C=⎣ 4 1 0 ⎦
0 4 5
1 2 3 5 6 0
tem-se ⎡ ⎤
∙ ¸ 7 5 2 ∙ ¸
1 2 −1 ⎣ 4 1 0 ⎦= 9 −1 −1
A(B + C) =
0 4 5 46 44 15
6 8 3

10 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
e ∙ ¸ ∙ ¸ ∙ ¸
3 1 −1 6 −2 0 9 −1 −1
AB + AC = + = .
5 10 15 41 34 0 46 44 15

Nota 2.1 Já vimos que, à semelhança da multiplicação de números reais, a multiplicação de


matrizes é associativa e distributiva. Convém, contudo, salientar que algumas propriedades
válidas para a multiplicação de números reais não são válidas para a multiplicação de matrizes.
Assim:

1. A multiplicação de matrizes não é comutativa.


Na verdade, AB e BA podem não estar simultaneamente definidas. Se A é do tipo m × n
e B é do tipo n × p, o produto BA só está definido se p = m. Neste caso, AB é do tipo
m × m e BA é do tipo n × n. Se m 6= n, AB e BA são de tipos diferentes e não podem
ser iguais.
Por outro lado, se m = n, isto é, se A e B são matrizes quadradas da mesma ordem, AB e
BA também são quadradas da mesma ordem, mas em geral, BA 6= AB. Pode no entanto
acontecer que AB = BA e, neste caso, as matrizes A e B dizem-se permutáveis.
⎡ ⎤
∙ ¸ 0 3
0 1 2 3 ⎢ 1 2 ⎥
Exemplo 2.7 Para A = eB=⎢
⎣ 2
⎥ tem-se
3 2 1 0 1 ⎦
3 0
⎡ ⎤
∙ ¸ 0 3 ∙ ¸
0 1 2 3 ⎢
⎢ 1 2 ⎥
⎥ = 14 4
AB =
3 2 1 0 ⎣ 2 1 ⎦ 4 14
3 0
e ⎡ ⎤ ⎡ ⎤
0 3 ∙ ¸ 9 6 3 0
⎢ 1 ⎥
2 ⎥ 0 1 2 3 ⎢ 6 5 4 3 ⎥
BA = ⎢
⎣ 2 =⎢ ⎥,
1 ⎦ 3 2 1 0 ⎣ 3 4 5 6 ⎦
3 0 0 3 6 9
donde A e B não são permutáveis.
∙ ¸ ∙ ¸
2 −1 1 4
Também as matrizes quadradas C = eD= não são permutáveis
−1 2 −1 1
pois, ∙ ¸∙ ¸ ∙ ¸
2 −1 1 4 3 7
CD = =
−1 2 −1 1 −3 −2
e ∙ ¸∙ ¸ ∙ ¸
1 4 2 −1 −2 7
DC = = .
−1 1 −1 2 −3 3

2. Não é válida a lei do anulamento do produto, isto é, o produto de duas matrizes pode ser
nulo sem que nenhuma delas o seja.

11 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Exemplo 2.8 Tem-se, por exemplo,
∙ ¸∙ ¸ ∙ ¸
1 1 1 −2 0 0
= .
1 1 −1 2 0 0

3. Não é válida a lei do corte para a multiplicação, isto é, a igualdade AB = AC não implica
B = C, mesmo quando a matriz A é não nula.

Exemplo 2.9 Sejam


∙ ¸ ∙ ¸ ∙ ¸
1 1 1 −2 3 −4
A= , B= e C= .
1 1 −1 2 −3 4

Com efeito, AB = AC pois


∙ ¸∙ ¸ ∙ ¸
1 1 1 −2 0 0
AB = =
1 1 −1 2 0 0
e ∙ ¸∙ ¸ ∙ ¸
1 1 3 −4 0 0
AC = = ,
1 1 −3 4 0 0
mas B 6= C.

Proposição 2.5 (lei do salto) Se A e B são matrizes encadeadas e λ é um escalar, então

A (λB) = (λA) B = λ (AB) .

Demonstração. Vamos provar a primeira igualdade, deixando a segunda como exercício.


Sejam A = [aij ] , B = [bij ], A (λB) = [fij ] e (λA) B = [gij ]. Vamos provar que fij = gij .
Como λA = [λaij ] e λB = [λbij ], temos
n
X n
X
fij = aik (λbkj ) = (λaik ) bkj = gij ,
k=1 k=1

atendendo à propriedade associativa da multiplicação de números reais.

Proposição 2.6 Sejam A uma matriz quadrada de ordem n e In a matriz identidade de ordem
n. Então
AIn = In A = A.

Demonstração. Sejam A = [aij ] , In = [δ ij ] e AIn = [cij ]. Temos

cij = ai1 δ 1j + ai2 δ 2j + · · · + aij δ jj + · · · + ain δ nj = aij ,

atendendo à definição de δ ij (símbolo de Kronecker). De modo análogo se demonstra que


In A = A.

12 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
∙ ¸ ∙ ¸
3 7 1 0
Exemplo 2.10 Sendo A = e I2 = , tem-se
−3 −2 0 1
∙ ¸∙ ¸ ∙ ¸
3 7 1 0 3 7
AI2 = =
−3 −2 0 1 −3 −2
e ∙ ¸∙ ¸ ∙ ¸
1 0 3 7 3 7
I2 A = = .
0 1 −3 −2 −3 −2

Proposição 2.7 Seja A = λIn uma matriz escalar de ordem n. Então A é permutável com
qualquer matriz quadrada B de ordem n.

Demonstração. Tem-se, atendendo à duas propriedades anteriores:

AB = (λIn ) B = λ (In B) = λB

e
BA = B (λIn ) = λ (BIn ) = λB.
Logo, AB = BA = λB.

Exemplo 2.11 Tem-se


∙ ¸∙ ¸ ∙ ¸∙ ¸
2 0 3 −1 3 −1 2 0
=
0 2 2 5 2 5 0 2
∙ ¸ ∙ ¸
6 −2 3 −1
= =2 .
4 10 2 5

Proposição 2.8 A transposta do produto é igual ao produto das transpostas por ordem inversa,
isto é,
(AB)T = B T AT ,
em que A = [aij ] é do tipo m × n e B = [bij ] do tipo n × p.

Demonstração. Sendo C = AB, tem-se que C é do tipo m × p e C T é do tipo p × m. Como


B T é do tipo p × n e AT é do tipo n × m, a matriz D = B T AT é do tipo p × m.
Assim, as matrizes C T e D são do mesmo tipo. Para mostrar que C T = D, basta verificar
que os elementos homólogos são iguais.
Sejam C = [cij ], C T = [fij ] , A = [aij ] e B = [bij ]. Temos:
n
X
fij = cji = ajk bki .
k=1

Sejam D = [dij ], AT = [gij ] e B T = [hij ]. Temos:


n
X
dij = hik gkj .
k=1
Pn
Como hik = bki e gkj = ajk , tem-se dij = k=1 ajk bki e, portanto, fij = dij .

13 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
⎡ ⎤
3 −1 ∙ ¸
⎣ ⎦ 0 −3
Exemplo 2.12 Para A = 1 0 eB= , vem
2 1
2 −2
⎛⎡ ⎤ ⎞
3 −1 ∙ ¸ T
0 −3 ⎠
(AB)T = ⎝⎣ 1 0 ⎦
2 1
2 −2
⎡ ⎤T
−2 −10 ∙ ¸
−2 0 −4
= ⎣ 0 −3 ⎦ = .
−10 −3 −8
−4 −8

Pela proposição anterior, esta matriz coincide com B T AT , como se comprova seguidamente:
∙ ¸∙ ¸ ∙ ¸
T T 0 2 3 1 2 −2 0 −4
B A = = .
−3 1 −1 0 −2 −10 −3 −8

Proposição 2.9 Qualquer que seja a matriz A, a matriz AAT é simétrica.


¡ ¢T ¡ ¢T
Demonstração. Com efeito, AAT = AT AT = AAT . A primeira igualdade deve-se à
proposição anterior e a segunda à propriedade (1) da pág. 5.
⎡⎤
4
Exemplo 2.13 Sendo A = ⎣ −2 ⎦ tem-se que
1
⎡ ⎤ ⎡ ⎤
4 £ ¤ 16 −8 4
AAT = ⎣ −2 ⎦ 4 −2 1 = ⎣ −8 4 −2 ⎦
1 4 −2 1

é simétrica.

2.4 Potência de uma Matriz Quadrada


Definição 2.5 Seja A uma matriz quadrada. Definem-se as potências de expoente natural de
A por ½ 1
A =A
.
Ap = Ap−1 A, ∀p ∈ N
∙ ¸
2 4
Exemplo 2.14 Sendo A = vem,
−1 2
∙ ¸ ∙ ¸
2 0 16 3 2 −16 32
A = AA = , A =A A= .
−4 0 −8 −16

14 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
2.5 Matriz Inversa
Definição 2.6 Seja A uma matriz quadrada de ordem n. A matriz A diz -se invertível (ou
não singular) se existe uma matriz quadrada de ordem n, habitualmente designada por A−1 ,
tal que ¡ ¢ ¡ ¢
A A−1 = A−1 A = In .
A matriz A−1 diz-se a matriz inversa de A.

Uma matriz não invertível diz-se singular.


∙ ¸
2 4
Exemplo 2.15 A matriz A = tem por inversa a matriz
−1 2
∙ ¸
−1 1/4 −1/2
A = .
1/8 1/4

Efectivamente tem-se
∙ ¸∙ ¸ ∙ ¸
−1 2 4 1/4 −1/2 1 0
AA = =
−1 2 1/8 1/4 0 1
e ∙ ¸∙ ¸ ∙ ¸
−1 1/4 −1/2 2 4 1 0
A A= = .
1/8 1/4 −1 2 0 1
Veremos adiante como calcular a inversa duma matriz.

Teorema 2.2 A inversa de uma matriz quando existe é única.

Demonstração. Suponhamos que A é quadrada de ordem n e admite duas inversas A0 e A00 .


Então, ¡ ¢ ¡ ¢
A0 = A0 In = A0 AA00 = A0 A A00 = In A00
isto é, A0 = A00 (justifique as igualdades!).
Vejamos algumas propriedades das matrizes invertíveis.

Proposição 2.10 Sejam A e B matrizes quadradas de ordem n. Então:

(a) Se A é invertível, A−1 é invertível e a sua inversa é A, isto é,


¡ −1 ¢−1
A = A.

(b) Se A e B são invertíveis, a matriz AB é invertível e

(AB)−1 = B −1 A−1 .

(c) Se A é invertível, AT é invertível e


¡ ¢−1 ¡ ¢T
AT = A−1 .

15 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
(d) Se A é invertível e p é um número inteiro positivo, Ap é invertível e
¡ ¢p
(Ap )−1 = A−1 .

Demonstração. A propriedade (a) é consequência imediata das igualdades


−1 −1
AA = A A = In .
Quanto a (b), basta verificar que
¡ ¢ ¡ ¢
(AB) B −1 A−1 = A BB −1 A−1 = AIn A−1 = (AIn ) A−1 = AA−1 = In

e ¡ −1 −1 ¢ ¡ ¢
B A (AB) = B −1 A−1 A B = B −1 In B = B −1 (In B) = B −1 B = In .
Estas igualdades resultam da propriedade associativa da multiplicação de matrizes e da
proposição 2.6.
Relativamente a (c), basta verificar que
¡ ¢T
AT (A−1 )T = A−1 A = InT = In

e ¡ ¢T
(A−1 )T AT = AA−1 = InT = In .
Estas igualdades resultam da proposição 2.8 e do facto de In ser uma matriz simétrica.
Por fim, (d) resulta intuitivamente das igualdades
¡ ¢p
(Ap )−1 =(AA × · · · × A)−1 =A
|
−1 −1
A × {z· · · × A−1}= A−1 .
| {z }
p factores p factores

No entanto, a demonstração rigorosa desta propriedade deve ser feita pelo método de indução,
o que deixamos como exercício.

Nota 2.3 A definição de potência de uma matriz pode ser generalizada a expoentes inteiros.
Se A é invertível de ordem n e se p > 0 é um inteiro, define-se
¡ ¢p
A0 = In e A−p = (Ap )−1 = A−1 .

Assim, as seguintes propriedades tornam-se válidas, sempre que p e q forem inteiros e A invertível:

Ap Aq = Ap+q e (Ap )q = Apq .

No entanto, como o produto de matrizes não é comutativo, em geral tem-se que


(AB)p 6= Ap B p .

3 Exercícios Resolvidos
¤ ¡
£1 ¢ Uma matriz quadrada diz-se idempotente se A = A. Mostre que se AB = A e BA = B,
2

então A, B e AT B T são idempotentes.


Resolução: Vamos provar que A e AT B T são idempotentes. A prova da idempotência
de B é similar.

16 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Ora,
A2 = AA = (AB) A = A (BA) = AB = A,
sendo a 1a igualdade justificada pela definição de potência, a 2a , a 4a e a 5a pelas hipóteses
e a 3a pela associatividade da multiplicação de matrizes.
Por outro lado,
¡ ¢2 ¡ ¢
AT B T = AT B T AT B T = AT (AB)T B T
= AT AT B T = AT (BA)T = AT B T ,

atendendo, respectivamente, à definição de potência, à associatividade da multiplicação e

¤ ¡
à proposição 2.8 juntamente com as hipóteses AB = A e BA = B.

£2 ¢ Considere A, B e C matrizes invertíveis de ordem n.

(a) Será A + B invertível? E AB?


(b) Qual a inversa de AB −1 C?
(c) Mostre que A−1 (A + B)B −1 = A−1 + B −1 .

Resolução:
(a) Pode não ser, como acontece por exemplo com In e −In . Com efeito, estas matrizes
são invertíveis mas a soma, In + (−In ) = O, não é invertível. A matriz AB é invertível
(proposição 2.10-(b)) e tem por inversa B −1 A−1 .
(b) Pela proposição 2.10-(b), AB −1 C é invertível e
¡ ¢−1
AB −1 C = C −1 BA−1 .

(c) Tendo em conta a propriedade distributiva da multiplicação de matrizes em relação à


adição, a definição de matriz inversa e a proposição 2.6, tem-se
¡ ¢ ¡ ¢
A−1 (A + B)B −1 = A−1 A + A−1 B B −1 = In + A−1 B B −1
= In B −1 + A−1 BB −1
= B −1 + A−1 In = A−1 + B −1 .
¤ ¡
£3 ¢ Duas matrizes quadradas A e B de ordem n dizem-se semelhantes se existir uma matriz
invertível P tal que A = P −1 BP.
Prove que:

(a) Se A e B são semelhantes e B é invertível, então A é invertível.


(b) Se A e B são matrizes semelhantes, então se A2 = O também B 2 = O.
(c) Se A e B são matrizes quadradas e A é invertível, então AB e BA são semelhantes.

17 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Resolução:
(a) Sendo A e B semelhantes existe uma matriz invertível P tal que A = P −1 BP. Aten-
dendo à proposição 2.10 e ao facto de B ser invertível, tem-se
¡ ¢−1 ¡ ¢−1
P −1 BP = P −1 B −1 P −1 = P −1 B −1 P,

isto é, A é invertível e A−1 = P −1 B −1 P .


(b) O resultado sai da igualdade A2 = P −1 B 2 P pois, se A2 = O, também é verdade que
P −1 B 2 P = O. Então, multiplicando esta igualdade à esquerda por P e à direita por P −1 ,
obtém-se B 2 = O.
Resta provar que A2 = P −1 B 2 P. Com efeito,
¡ ¢¡ ¢ ¡ ¢
A2 = AA = P −1 BP P −1 BP = P −1 B P P −1 BP
= P −1 BIn BP = P −1 B 2 P,

sendo a 2a igualdade devida ao facto de A = P −1 BP e as restantes decorrentes da associa-


tividade da multiplicação, das definições de potência e de matriz inversa e da proposição
2.6. Fica, pois, provada a igualdade A2 = P −1 B 2 P.
(c) Sendo A invertível, AB = A (BA) A−1 , pelo que tomando P = A−1 , AB = P −1 (BA) P.

4 Dependência e Independência Linear de Linhas e Colunas


Para definir a noção de característica de uma matriz na secção seguinte é necessário introduzir os
conceitos de combinação linear e de dependência e independência linear das linhas (ou colunas)
de uma matriz.
Dada uma matriz A = [aij ] de tipo m × n, não faremos distinção entre a linha i de A e a
matriz linha
[ai1 ai2 · · · ain ] .
Analogamente, a coluna j de A será identificada com a matriz coluna
⎡ ⎤
a1j
⎢ .. ⎥
⎢ . ⎥
⎢ ⎥
⎢ aij ⎥ .
⎢ ⎥
⎢ .. ⎥
⎣ . ⎦
amj

Definição 4.1 Chama-se combinação linear das linhas (colunas) X1 , X2 , . . . , Xp de A a qual-


quer expressão da forma
λ1 X1 + λ2 X2 + · · · + λp Xp ,
onde λ1 , λ2 , . . . , λp são quaisquer números reais designados por coeficientes da combinação
linear.

18 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Exemplo
⎡ 4.1 A⎤matriz linha [2 − 3 1] é uma combinação linear das linhas da matriz identidade
1 0 0

I3 = 0 1 0 ⎦ pois
0 0 1

[2 − 3 1] = 2 [1 0 0] − 3 [0 1 0] + 1 [0 0 1] .

Neste caso, têm-se os⎡coeficientes


⎤ λ1 = 2, λ2 = −3 e λ3 = 1.
4
A matriz coluna ⎣ 0 ⎦ pode ser escrita na forma
−8
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
4 1 0
⎣ 0 ⎦ = 4⎣ 0 ⎦ − 8⎣ 0 ⎦,
−8 0 1

⎤ colunas de I3 .
pelo que é uma combinação linear de⎡ duas
1
Por outro lado, a matriz coluna ⎣ 0 ⎦ não é uma combinação linear das colunas da matriz
0
⎡ ⎤
0 0 0
⎣ 1 0 1 ⎦.
0 1 0

Definição 4.2 Diz-se que as linhas (colunas) X1 , X2 , . . . , Xp de uma matriz são linearmente
independentes se qualquer combinação linear de X1 , X2 , . . . , Xp igual a uma linha (coluna)
nula tem os escalares todos nulos. Isto é, a seguinte implicação é verdadeira:

λ1 X1 + λ2 X2 + · · · + λp Xp = O =⇒ λ1 = λ2 = · · · = λp = 0.

De contrário, isto é, se λ1 X1 + λ2 X2 + · · · + λp Xp = O e os escalares λ1 , λ2 , . . . , λp não são


todos nulos, as linhas (colunas) X1 , X2 , . . . , Xp dizem-se linearmente dependentes.
⎡ ⎤
1 0 0
Exemplo 4.2 As linhas da matriz I3 = ⎣ 0 1 0 ⎦ são linearmente independentes. De facto,
0 0 1
a igualdade
λ1 [1 0 0] + λ2 [0 1 0] + λ3 [0 0 1] = [0 0 0]
implica que
[λ1 λ2 λ3 ] = [0 0 0] ,
isto é, λ1 = λ2 = λ3 = 0. Analogamente se veria que as linhas de qualquer matriz In são
linearmente independentes, sendo também de notar que o mesmo acontece com as colunas.

19 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
⎡ ⎤
0 −3 1
Exemplo 4.3 Pretende-se verificar que as linhas da matriz ⎣ 2 4 1 ⎦ são linearmente in-
2 −1 0
dependentes. Na verdade, quaisquer que sejam os escalares reais λ1 , λ2 e λ3 , tem-se

λ1 [0 − 3 1] + λ2 [2 4 1] + λ3 [2 − 1 0] = [0 0 0]
m
[2λ2 + 2λ3 − 3λ1 + 4λ2 − λ3 λ1 + λ2 ] = [0 0 0]
m

⎨ 2λ2 + 2λ3 = 0
−3λ1 + 4λ2 − λ3 = 0

λ1 + λ2 = 0


⎨ λ1 = 0
λ =0 .
⎩ 2
λ3 = 0
⎡ ⎤
2 4 2
Exemplo 4.4 Vejamos agora que as colunas da matriz ⎣ 3 0 −3 ⎦ são linearmente depen-
4 8 4
dentes. Por definição, isto acontece se existem escalares λ1 , λ2 e λ3 , não todos nulos, tais que
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 4 2 0
⎣ ⎦ ⎣ ⎦
λ1 3 + λ2 0 + λ3 −3 = 0 ⎦ .⎣ ⎦ ⎣
4 8 4 0

Equivale a dizer que esta equação matricial tem outras soluções para além da solução nula. De
facto, a referida equação é equivalente ao sistema de equações lineares,

⎨ 2λ1 + 4λ2 + 2λ3 = 0
3λ1 − 3λ3 = 0 .

4λ1 + 8λ2 + 4λ3 = 0

Passando à resolução deste sistema, obtém-se sucessivamente:


⎧ ⎧ ⎧
⎨ 2λ1 + 4λ2 + 2λ3 = 0 ⎨ 4λ2 + 4λ3 = 0 ⎨ λ2 = −λ3
3λ1 − 3λ3 = 0 ⇔ λ1 = λ3 ⇔ λ = λ3 .
⎩ ⎩ ⎩ 1
4λ1 + 8λ2 + 4λ3 = 0 8λ2 + 8λ3 = 0 0=0

Assim, as soluções do sistema são da forma



⎨ λ1 = λ3
λ2 = −λ3

λ3 ∈ R,

onde a condição λ3 ∈ R significa que à incógnita λ3 pode ser atribuído qualquer valor real.
Conclui-se assim que o sistema possui soluções não nulas visto que é indeterminado (isto é,

20 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
possui uma infinidade de soluções). Por consequência, as colunas da matriz dada são linearmente
dependentes.
Convém, a propósito, assinalar que, por simples inspecção, se pode imediatamente concluir
que as colunas da matriz dada são linearmente dependentes. Na verdade, a primeira coluna é a
diferença das outras duas, donde resulta que
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 4 2 0
⎣ 3 ⎦ − ⎣ 0 ⎦ + ⎣ −3 ⎦ = ⎣ 0 ⎦ .
4 8 4 0

Existe pois uma combinação linear das colunas desta matriz igual a uma matriz nula sem que
os escalares sejam todos nulos (neste caso são iguais a 1, −1 e 1, respectivamente).

Exemplo 4.5 A linha (respectivamente coluna) de uma matriz linha (resp. matriz coluna) não
nula é linearmente independente. Por exemplo, a linha da matriz A = [2 0 3] é linearmente
independente pois se λ [2 0 3] = [0 0 0] então

⎨ 2λ = 0
0 = 0 ⇒ {λ = 0 .

3λ = 0

Por outro lado, a linha da matriz nula A = [0 0 0] é linearmente dependente pois a combi-
nação linear λ [0 0 0] pode ser nula sem que o escalar λ seja nulo. De facto, linha (respectivamente
coluna) de uma matriz linha (resp. matriz coluna) nula é linearmente dependente.

Uma caracterização alternativa da noção de dependência linear é a seguinte:

Teorema 4.1 As linhas (colunas) X1 , X2 , . . . , Xp (p ≥ 2) de uma matriz são linearmente de-


pendentes se e só se uma delas é combinação linear das restantes.

Demonstração. Suponha-se que as linhas (colunas) X1 , X2 , . . . , Xp de uma matriz são linear-


mente dependentes. Por definição, existem escalares λ1 , λ2 , . . . , λp , não todos nulos, tais que

λ1 X1 + λ2 X2 + · · · + λp Xp = O.

Sem perda de generalidade, podemos supor que λ1 6= 0. Da igualdade anterior resulta que
λ2 λp
X1 = − X2 − · · · − Xp ,
λ1 λ1
ou seja, X1 é combinação linear das restantes linhas (colunas).
Reciprocamente, suponha-se, igualmente sem perda de generalidade, que X1 é combinação
linear das restantes linhas (colunas), isto é, X1 = λ2 X2 + · · · + λp Xp . Então,

−X1 + λ2 X2 + · · · + λp Xp = O,

o que mostra a dependência linear das linhas (colunas) consideradas dado que os escalares não
são todos nulos (o coeficiente de X1 é −1).

21 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
⎤⎡
1 1 0
Exemplo 4.6 As linhas da matriz ⎣ 2 5 3 ⎦ são linearmente dependentes pois
0 1 1
[2 5 3] = 2 [1 1 0] + 3 [0 1 1] .
∙ ¸
1 2
Também as colunas da matriz são dependentes dado que são proporcionais, isto é,
2 4
uma delas é um múltiplo escalar da outra, como comprova a igualdade
∙ ¸ ∙ ¸
2 1
=2 .
4 2
Uma consequência imediata desta proposição é a seguinte:
Corolário 4.1.1 Se uma das linhas (colunas) X1 , X2 , . . . , Xp de uma matriz é nula, então
X1 , X2 , . . . , Xp são linearmente dependentes.
Demonstração. Suponha-se, sem perda de generalidade, que X1 = O. Como O = 0 X2 + · · · +
0 Xp , conclui-se o resultado do teorema anterior.
∙ ¸
2 5
Exemplo 4.7 As linhas da matriz são linearmente dependentes pois a segunda linha
0 0
é nula.
Vejamos agora algumas propriedades da dependência e independência linear de linhas ou das
colunas de uma matriz, muito importantes para o que se segue.
Proposição 4.1 As linhas (colunas) X1 , X2 , . . . , Xi , . . . , Xj , . . . , Xp de uma matriz são linear-
mente independentes (respectivamente dependentes) se e só se
X1 , X2 , . . . , Xi + λXj , . . . , Xj , . . . , Xp
são linearmente independentes (resp. dependentes), para qualquer escalar λ.
Demonstração. Provaremos a parte relativa à independência, resultando por negação a parte
relativa à dependência.
Para estabelecer a propriedade no que diz respeito à independência, basta atender a que
λ1 X1 + · · · + λi Xi + · · · + λj Xj + · · · + λp Xp se pode escrever na forma
λ1 X1 + · · · + λi (Xi + λXj ) + · · · + (λj − λλi ) Xj + · · · + λp Xp
e reparar que os coeficientes de uma combinação linear são nulos se e só se o mesmo acontecer
com os da outra.
Podemos enunciar esta propriedade de modo mais sugestivo:

A dependência ou independência linear das linhas (colunas) de uma matriz


não se altera se adicionarmos a uma delas qualquer outra multiplicada por
um escalar.

22 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Proposição 4.2 Se λ 6= 0, as linhas (colunas) X1 , X2 , . . . Xi , . . . , Xp de uma matriz são linear-
mente independentes (resp. dependentes) se e só se X1 , X2 , . . . , λXi , . . . , Xp são linearmente
independentes (resp. dependentes).

Demonstração. A parte relativa à independência decorre imediatamente da igualdade

λ1 X1 + λ2 X2 + · · · + λi Xi + · · · + λp Xp = λ1 X1 + λ2 X2 + · · · +
λi
+ (λXi ) + · · · + λp Xp
λ
e, tal como na demonstração anterior, do facto dos coeficientes de uma combinação linear serem
nulos se e só se o mesmo acontecer com os da outra.
A parte relativa à dependência obtém-se por negação.
De modo mais sugestivo podemos enunciar esta propriedade como segue:

A dependência ou independência linear das linhas (colunas) de uma matriz


não se altera se multiplicarmos uma delas por um escalar diferente de zero.

Finalmente, por aplicação repetida da proposição 4.1 conclui-se:

Proposição 4.3 A independência ou dependência linear das linhas (colunas) de uma matriz
não se altera se a uma delas adicionarmos uma combinação linear das restantes.

Exemplo 4.8 Designemos por L1 , L2 e L3 as linhas de I3 que, como se sabe, são linearmente
independentes.
⎡ ⎤ Adicionando à linha L3 de I3 a combinação linear 5L1 + 2L2 , obtém-se a matriz
1 0 0
⎣ 0 1 0 ⎦. Pela proposição 4.3 ficamos também a saber que as linhas desta última matriz
5 2 1
são também linearmente independentes.

5 Característica e Operações Elementares


Podemos agora definir a noção de característica de uma matriz.

Definição 5.1 Chama-se característica de uma matriz A ao número máximo de linhas


linearmente independentes da matriz. Utiliza-se a notação c(A) para representar este número.

Antes de descrevermos a forma de obter a característica de uma matriz qualquer, é necessário


ver como ela pode ser obtida numa classe particular de matrizes – as matrizes em escada.

Definição 5.2 Uma matriz de tipo m × n diz-se uma matriz em escada se:

1. As primeiras k linhas (k ≤ m) contêm elementos não nulos e as restantes linhas, se exis-


tirem, só contêm elementos nulos.

23 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
2. Em cada linha não nula, o primeiro elemento não nulo a contar da esquerda aparece à
direita do primeiro elemento não nulo (a contar da esquerda) de qualquer linha acima
dele.

Exemplo 5.1 As seguintes matrizes estão em escada:


⎡ ⎤ ⎡ ⎤
1 0 2 −3 0 2 −2 4 5
A = ⎣ 0 2 1 8 ⎦, B = ⎣ 0 0 0 1 2 ⎦,
0 0 3 −4 0 0 0 0 0
⎡ ⎤
1 0 0 0 ∙ ¸
⎣ ⎦ 0 0
C = 0 2 0 0 e D= .
0 0
0 0 0 4

Os primeiros elementos não nulos (a contar da esquerda) de cada linha não nula de uma matriz
em escada, designam-se por elementos redutores (ou pivots). Nas matrizes anteriores estes
elementos encontram-se assinalados por um quadrado.
Vejamos dois exemplos de matrizes que não estão em escada:
⎡ ⎤ ⎡ ⎤
1 0 0 1 0 5
E = ⎣ 0 0 0 ⎦ e F = ⎣ 0 1 1 ⎦.
0 1 0 0 2 2

Com efeito, a 2a linha da matriz E, contém elementos todos nulos e a 3a linha não. Isto
viola a regra 1 da definição de matriz em escada. No caso da matriz F, o 1o elemento não nulo
da 3a linha não aparece à direita do 1o elemento não nulo da 2a linha. Temos, pois, a violação
da regra 2 da definição de matriz em escada.

Para facilitar a exposição que se segue, consideremos a matriz em escada do tipo 5 × 5,


⎡ ⎤
a11 a12 a13 a14 a15
⎢ 0 a22 a23 a24 a25 ⎥
⎢ ⎥
⎢ ⎥
⎢ 0 0 0 0 a35 ⎥ ,
⎢ ⎥
⎣ 0 0 0 0 0 ⎦
0 0 0 0 0

onde os redutores estão assinalados por um quadrado. Representando as linhas desta matriz por
Li (i = 1, 2, . . . , 5), tem-se que as linhas não nulas L1 , L2 e L3 são linearmente independentes.
De facto, a igualdade
λ1 L1 + λ2 L2 + λ3 L3 = O
equivale a
[λ1 a11 λ1 a12 + λ2 a22 ... λ1 a15 + λ2 a25 + λ3 a35 ] = [0 0 0 0 0]
donde se deduz que λ1 = λ2 = λ3 = 0.
Por outro lado, se acrescentarmos ao conjunto formado pelas linhas L1 , L2 , e L3 uma ou mais
das restantes linhas da matriz, a proposição 4.1.1 leva-nos a concluir que obtemos um conjunto
de linhas linearmente dependentes. Assim, a característica da matriz é igual ao número de linhas
não nulas ou, o que é o mesmo, ao número de redutores da matriz.

24 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Representando as colunas desta matriz por Ci , i = 1, 2, . . . , 5, verifica-se também que as
colunas onde figuram os redutores (as colunas C1 , C2 e C5 ) são linearmente independentes.
Com efeito, a igualdade
λ1 C1 + λ2 C2 + λ3 C5 = O
equivale a
[λ1 a11 + λ2 a12 + λ3 a15 λ2 a22 + λ3 a25 λ3 a35 ] = [0 0 0]
o que implica que λ1 = λ2 = λ3 = 0.
O que dissemos acima pode ser generalizado para uma matriz em escada qualquer, pelo que
podemos afirmar o seguinte:

Proposição 5.1 Para uma matriz em escada tem-se:

(a) As linhas não nulas são linearmente independentes.

(b) As colunas que contêm os redutores são linearmente independentes.

(c) A característica é igual ao número de linhas não nulas ou, equivalentemente, ao número de
redutores.

Desta proposição conclui-se que as matrizes A, B, C e D, do exemplo 5.1, têm características


c(A) = 3, c(B) = 2, c(C) = 3 e c(D) = 0.

Vejamos agora como pode ser obtida a característica de uma matriz qualquer.
Referiu-se no início desta secção que a dependência ou independência linear das linhas ou
colunas de uma matriz não é alterada nem pela multiplicação de uma delas por um escalar não
nulo (proposição 4.2) nem pela adição a uma delas doutra multiplicada por um escalar (propo-
sição 4.1). Por outro lado, é evidente que trocar a ordem das linhas ou colunas também não
altera a respectiva independência linear. Por conseguinte, as chamadas operações elementa-
res sobre linhas (ou sobre colunas) que a seguir se enunciam, não alteram a dependência ou
independência linear das linhas (colunas) de uma matriz:

OE1 Troca entre si de 2 linhas (colunas) da matriz.


OE2 Multiplicação dos elementos de uma linha (coluna) por um escalar diferente de zero.

OE3 Adição a uma linha (coluna) doutra linha (coluna) multiplicada por uma constante.

Acontece adicionalmente que as operações elementares sobre linhas (ou sobre colunas) também
não alteram a dependência ou independência linear das colunas (linhas) de uma matriz. Isto
pode ser comprovado como segue.
Sejam A = [aij ] uma matriz do tipo m × n e
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 a12 a1n
⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥
⎢ . ⎥ ⎢ . ⎥ ⎢ . ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
C1 = ⎢ ⎥ ⎢ ⎥ ⎢
⎢ ai1 ⎥ , C2 = ⎢ ai2 ⎥ , . . . , Cn = ⎢ ain ⎥

⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥
⎣ . ⎦ ⎣ . ⎦ ⎣ . ⎦
am1 am2 amn

25 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
as colunas de A. O estudo da dependência linear das colunas de A equivale ao estudo da
igualdade
λ1 C1 + λ2 C2 + · · · + λn Cn = O,
a qual é uma forma sucinta de escrever o seguinte sistema de m equações com n incógnitas
λ1 , λ2 , . . . , λn : ⎧

⎨ a11 λ1 + a12 λ2 + · · · + a1n λn = 0
..
⎪ .

am1 λ1 + am2 λ2 + · · · + amn λn = 0.
As operações elementares sobre as linhas da matriz reflectem-se neste sistema ou pela troca de
equações ou pela multiplicação de uma equação por um escalar não nulo ou ainda pela soma a
uma equação de outra multiplicada por uma constante. Deste modo, aquelas operações reprodu-
zem sempre um sistema equivalente ao inicial, isto é, com as mesmas soluções, não alterando
por isso a dependência ou independência linear da colunas C1 , . . . , Cn . Analogamente se mos-
traria que as operações elementares sobre colunas não alteram a dependência ou independência
linear das linhas de uma matriz.

Cabe agora perguntar qual o papel das operações elementares no cálculo da característica
de uma matriz. Efectivamente, aquelas operações estão na base de um processo que permite
o referido cálculo, qualquer que seja a matriz dada. Este processo consiste em transformar a
matriz dada numa matriz em escada, efectuando repetidamente operações sobre linhas. Como
estas não alteram a dependência ou independência linear das linhas e das colunas da matriz
sobre a qual são aplicadas, a característica da matriz em escada obtida no final do processo será
igual à característica da matriz inicial!
Vamos exemplificar o procedimento referido com a ajuda da matriz
⎡ ⎤
0 8 −16 32
A=⎣ 1 2 1 0 ⎦.
1 −2 −1 5

A etapa inicial consiste em colocar um elemento não nulo na posição mais à esquerda da 1a linha
da matriz. Podemos conseguir este objectivo trocando a 1a linha com a 2a linha ou com a 3a
linha. Optando por trocar a 1a linha com a 2a (operação OE1), obtém-se a matriz
⎡ ⎤
1 2 1 0
A(1) = ⎣ 0 8 −16 32 ⎦ .
1 −2 −1 5

O elemento 1, que está assinalado por um quadrado, será o redutor da 1a linha da matriz em
escada obtida no final do processo.
A etapa seguinte será usar este elemento para anular os restantes elementos da 1a coluna.
Como o único elemento não nulo da 1a coluna é o elemento 1 que se encontra na 3a linha,
bastará multiplicar a 1a linha de A(1) por −1 e adicionar o resultado à 3a linha (operação OE3).
Obtém-se então ⎡ ⎤
1 2 1 0
A(2) = ⎣ 0 8 −16 32 ⎦ .
0 −4 −2 5

26 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
1
Podemos agora simplificar a 2a linha de A(2) multiplicando-a por 8 (operação OE2). Como
resultado, obtém-se a matriz
⎡ ⎤
1 2 1 0
A(3) = ⎣ 0 1 −2 4 ⎦ .
0 −4 −2 5

A matriz A(3) não está em escada pois o primeiro elemento não nulo da 3a linha a contar da
esquerda não aparece à direita do primeiro elemento não nulo da linha anterior (a contar da
esquerda). Poderemos então multiplicar a 2a linha por 4 e adicioná-la à 3a , o que conduz à
matriz ⎡ ⎤
1 2 1 0
⎢ ⎥
A(4) = ⎣ 0 1 −2 4 ⎦.
0 0 −10 21
Esta matriz é uma matriz em escada cuja característica é 3. Concluímos, portanto, que a matriz
inicial A tem igualmente característica 3.
De uma maneira geral, dada a matriz A de tipo m × n,
⎡ ⎤
a11 a12 · · · a1n
⎢ a21 a22 · · · a2n ⎥
⎢ ⎥
A=⎢ . .. .. .. ⎥ ,
⎣ .. . . . ⎦
am1 am2 · · · amn

o procedimento anterior pode ser sintetizado como segue.


Mediante a troca de linhas, suponha-se que é possível colocar um elemento não nulo na po-
sição (1, 1) (se isto não for possível avançamos para a posição (1, 2) e procedemos analogamente).
Continuando a representar pela matriz inicial A a matriz resultante da eventual troca de linhas
e admitindo que a11 6= 0, usamos este elemento para anular os restantes elementos da 1a coluna,
adicionando à linha i (i = 2, . . . , m) a 1a linha multiplicada por −ai1 /a11 , obtendo-se assim a
seguinte matriz: ⎡ ⎤
a11 a12 · · · a1n
⎢ 0 a022 · · · a02n ⎥
⎢ ⎥
A(1) = ⎢ . .. .. .. ⎥ .
⎣ .. . . . ⎦
0 a0m2 · · · a0mn
Se o elemento a022 é não nulo, adicionamos a cada linha i (i = 3, . . . , m) de A(1) o produto da 2a
linha por −a0i2 /a022 , anulando assim os elementos da 2a coluna de A(1) que estão abaixo de a022 .
Obtemos pois: ⎡ ⎤
a11 a12 a13 ··· a1n
⎢ ⎥
⎢ 0 a022 a023 ··· a02n ⎥
⎢ ⎥
A(2) = ⎢
⎢ 0 0 a0033 ··· a003n ⎥.

⎢ .. .. .. .. .. ⎥
⎣ . . . . . ⎦
0 0 00
am3 · · · a00mn
Caso o elemento a022 seja nulo, por troca de linhas colocamos um elemento não nulo na po-
sição (2, 2), o qual pode ser utilizado para anular os elementos que estão abaixo (se não for

27 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
possível colocar em (2, 2) um elemento não nulo, avançamos para a posição (2, 3) e procedemos
analogamente).
O processo é seguidamente repetido a partir da posição (3, 3) (ou (2, 3), caso tenhamos
avançado para esta posição) e termina quando obtivermos uma matriz em escada. A caracterís-
tica da matriz em escada obtida no final do procedimento acabado de descrever é, como vimos,
igual à característica da matriz inicial, o que permite afirmar:

Proposição 5.2 Sendo A uma matriz qualquer, a caraterística de A coincide com a caracterís-
tica da matriz em escada obtida a partir de A por operações elementares sobre linhas.

Utilizando repetidamente as operações elementares sobre linhas e/ou colunas de uma matriz,
veremos seguidamente que a característica de uma matriz coincide com o número máximo de
colunas linearmente independentes da matriz. Efectivamente, tem-se:

Teorema 5.1 O número máximo de linhas linearmente independentes de uma matriz é igual
ao número máximo de colunas linearmente independentes dessa matriz.

Demonstração. Seja A uma matriz qualquer. Como vimos, por aplicação das operações
elementares sobre linhas podemos transformar A numa matriz em escada Ã. Efectuando uma
adequada troca de colunas, a matriz à pode ser transformada numa matriz em escada da forma
⎡ ⎤
ã11 ∗ ∗ ··· ··· ∗
⎢ 0 ã22 ∗ ··· ··· ∗ ⎥
⎢ ⎥
⎢ .. .. .. .. ⎥
⎢ . 0 . . ··· . ⎥
⎢ ⎥
⎢ ⎥
Ã0 = ⎢ ... ..
.
..
. ã · · · ∗ ⎥,
⎢ pp ⎥
⎢ 0 0 ··· 0 ··· 0 ⎥
⎢ ⎥
⎢ .. .. .. .. .. .. ⎥
⎣ . . . . . . ⎦
0 0 ··· 0 ··· 0

onde ã11 , ã22 , . . . , ãpp , são os redutores e os asteriscos representam as restantes entradas eventual-
mente não nulas. Procedendo agora com as colunas como procedemos com as linhas podemos,
sem alterar a dependência ou independência das colunas ou das linhas de Ã0 , utilizar os redutores
para anular os restantes elementos não nulos de cada uma das suas linhas. Obtemos então uma
matriz como a seguinte: ⎡ ⎤
ã11 0 0 ··· ··· 0
⎢ 0 ã22 0 ··· ··· 0 ⎥
⎢ ⎥
⎢ .. .. .. .. ⎥
⎢ . 0 . . ··· . ⎥
⎢ ⎥
⎢ .. .. .. ⎥
⎢ . . . ãpp · · · 0 ⎥ (2)
⎢ ⎥
⎢ 0 0 ··· 0 ··· 0 ⎥ ⎥

⎢ .. .. .. .. .. .. ⎥
⎣ . . . . . . ⎦
0 0 ··· 0 ··· 0
(é costume designar por condensação o conjunto de procedimentos que permite transformar
uma matriz qualquer numa matriz em escada com esta forma). Verifica-se que nesta matriz
em escada o número máximo de linhas linearmente independentes é igual ao número máximo

28 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
de colunas linearmente independentes, sendo ambos iguais a p. Como as operações elementares
efectuadas não alteraram a independência linear das linhas e colunas da matriz inicial A, conclui-
se que a mesma igualdade é válida para esta matriz, ficando assim provado o que se pretendia.

Em consequência deste resultado, pode então afirmar-se:

A característica de uma matriz é igual ao número máximo de linhas li-


nearmente independentes da matriz ou, equivalentemente, ao número má-
ximo de colunas linearmente independentes da matriz.

6 Exercícios Resolvidos
¤ ¡
£1 ¢ Calcule a característica da matriz
⎡ ⎤
1 0 1
⎢ 2 1 4 ⎥
⎢ ⎥.
⎣ −1 2 2 ⎦
3 1 5

Que pode dizer acerca da dependência ou independência linear das linhas e colunas da
matriz?
Resolução:
Sucessivamente tem-se:
⎡ ⎤ OE3 ⎡ ⎤ OE3 ⎡ ⎤
1 0 1 −→ 1 0 1 −→ 1 0 1
⎢ 2 1 4 ⎥ ⎢ 0 1 2 ⎥ ⎢ 0 1 2 ⎥
⎢ ⎥ −2L1 + L2 ⎢ ⎥ ⎢ ⎥.
⎣ −1 2 2 ⎦ L1 + L3 ⎣ 0 2 3 ⎦ −2L2 + L3 ⎣ 0 0 −1 ⎦
3 1 5 −3L1 + L4 0 1 2 −L2 + L4 0 0 0

Assim, a característica da matriz dada é igual a 3, pelo que este é o número máximo de
linhas e colunas linearmente independentes da matriz. Logo, as colunas da matriz são

¤ ¡
linearmente independentes enquanto as linhas são linearmente dependentes.

£2 ¢ Verifique que as linhas da seguinte matriz são linearmente dependentes:


⎡ ⎤
0 1 1 0
⎢ 1 0 0 1 ⎥
⎢ ⎥.
⎣ 1 1 0 0 ⎦
0 0 1 1

Resolução:

29 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Efectuando o cálculo da característica da matriz dada, obtém-se sucessivamente:
⎡ ⎤ ⎡ ⎤
0 1 1 0 OE1 1 1 0 0
⎢ 1 0 0 1 ⎥ −→ ⎢ ⎥
⎢ ⎥ Troca de ⎢ 1 0 0 1 ⎥
⎣ 1 1 0 0 ⎦ ⎣ 0 1 1 0 ⎦
0 0 1 1 L1 com L3
0 0 1 1
⎡ ⎤ ⎡ ⎤
OE3 1 1 0 0 OE3 1 1 0 0
−→ ⎢ 0 −→
⎢ −1 0 1 ⎥

⎢ 0
⎢ −1 0 1 ⎥

−L1 + L2 ⎣ 0 1 1 0 ⎦ ⎣ 0 0 1 1 ⎦
L2 + L3
0 0 1 1 0 0 1 1
⎡ ⎤
1 1 0 0
⎢ 0 −1 0 1 ⎥
⎢ ⎥.
OE3
−→ ⎣ 0 0 1 1 ⎦
−L3 + L4 0 0 0 0
Como a característica da matriz em escada resultante é 3, conclui-se que o número máximo
de linhas linearmente independentes da matriz é 3, pelo que as quatro linhas da matriz

¤ ¡
são linearmente dependentes.

£3 ¢ Discuta, em função do parâmetro real a, a característica da matriz


⎡ ⎤
1 0 −1
⎣ 0 1 a ⎦.
−1 1 2a

Resolução:
Sucessivamente tem-se:
⎡ ⎤ ⎡ ⎤
1 0 −1 1 0 −1
⎣ 0 1 a ⎦ OE3
−→ ⎣ 0 1 a ⎦
−1 1 2a L1 + L3 0 1 2a − 1
⎡ ⎤
1 0 −1
OE3
−→ ⎣ 0 1 a ⎦.
−L2 + L3 0 0 a−1

Esta última matriz é uma matriz em escada se a 6= 1, tendo neste caso característica 3.
De contrário, terá característica 2. Assim, podemos concluir que as linhas (colunas) da
matriz são linearmente independentes se a 6= 1 e linearmente dependentes se a = 1.

7 Sistemas de Equações Lineares


No ensino secundário estudaram-se técnicas de resolução de sistemas de equações lineares com
duas e três incógnitas. Nesta secção, com o auxílio das matrizes, vamos generalizar os métodos
estudados para um sistema com quaisquer números de equações e incógnitas.

30 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Um sistema de m equações lineares com n incógnitas x1 , x2 , . . . , xn é um sistema de
equações da forma


⎪ a11 x1 + a12 x2 + · · · + a1j xj + · · · + a1n xn = b1



⎪ a21 x1 + a22 x2 + · · · + a2j xj + · · · + a2n xn = b2

⎪ ..

.
, (3)

⎪ a x
i1 1 + a x
i2 2 + · · · + a ij j + · · · + ain xn = bi
x

⎪ ..



⎪ .

am1 x1 + am2 x2 + · · · + amj xj + · · · + amn xn = bm
onde aij e bi (i = 1, . . . , m, j = 1, . . . , n) são números reais conhecidos. O elemento aij é o
coeficiente da incógnita xj na equação de ordem i e bi é o termo independente da mesma
equação.
As matrizes seguintes, associadas ao sistema de equações anterior,
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 a12 · · · a1j · · · a1n x1 b1
⎢ a21 a22 · · · a2j · · · a2n ⎥ ⎢ x2 ⎥ ⎢ b2 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. .. .. .. .. .. ⎥⎥ ⎢ ⎥
.. ⎥ ⎢ .. ⎥
⎢ . . . . . . ⎥ ⎢ ⎢ ⎥
A=⎢ ⎢ . ⎥ ⎢ . ⎥
⎢ ai1 ai2 · · · aij · · · ain ⎥ , X = ⎢ xj ⎥ e B = ⎢ bi ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. .. .. .. .. .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥
⎣ . . . . . . ⎦ ⎣ . ⎦ ⎣ . ⎦
am1 am2 · · · amj · · · amn xn bm
dizem-se, respectivamente, a matriz dos coeficientes, a matriz das incógnitas e a matriz
dos termos independentes.
Matricialmente, o sistema (3) pode representar-se por
⎡ ⎤⎡ ⎤ ⎡ ⎤
a11 a12 · · · a1j · · · a1n x1 b1
⎢ a21 a22 · · · a2j · · · a2n ⎥ ⎢ x2 ⎥ ⎢ b2 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ .. .. .. .. .. .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥
⎢ . . . . . ⎢
. ⎥⎢ . ⎥ ⎢ . ⎥
⎥ ⎢ ⎥
⎢ ⎥
⎢ ai1 ai2 · · · aij · · · ain ⎥ ⎢ xj ⎥ = ⎢ bi ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ .. .. .. .. .. .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥
⎣ . . . . . . ⎦⎣ . ⎦ ⎣ . ⎦
am1 am2 · · · amj · · · amn xn bm
ou, mais abreviadamente, por
AX = B. (4)
Também se pode utilizar a representação

x1 A1 + x2 A2 + · · · + xj Aj + · · · + xn An = B, (5)

ou ⎡ ⎤
x1
⎢ x2 ⎥
⎢ ⎥
⎢ .. ⎥
⎢ . ⎥
[A1 A2 · · · Aj · · · An ] ⎢

⎥ = B,

⎢ xj ⎥
⎢ .. ⎥
⎣ . ⎦
xn

31 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
em que A1 , A2 , . . . , Aj , . . . , An designam as colunas da matriz A.
Ampliando A com o vector dos termos independentes, obtém-se a matriz ampliada do
sistema, habitualmente representada por A|B:
⎡ ⎤
a11 a12 · · · a1j · · · a1n | b1
⎢ a21 a22 · · · a2j · · · a2n | b2 ⎥
⎢ ⎥
⎢ .. .. .. .. .. .. .. ⎥
⎢ . . . . . . | . ⎥
A|B = ⎢ ⎢ ai1 ai2 · · · aij · · · ain | bi ⎥ .

⎢ ⎥
⎢ .. .. .. .. .. .. . ⎥
⎣ . . . . . . | .. ⎦
am1 am2 · · · amj · · · amn | bm
Chama-se solução do sistema (3) a um conjunto de escalares x̂1 , x̂2 , . . . , x̂j , . . . , x̂n que,
depois de substituirem as incógnitas x1 , x2 , . . . , xj , . . . , xn , transformam as m equações do sis-
tema em igualdades verdadeiras. Assim, solução do sistema na forma matricial (4) é uma matriz
coluna ⎡ ⎤
x̂1
⎢ x̂2 ⎥
⎢ ⎥
⎢ .. ⎥
⎢ . ⎥
X̂ = ⎢ ⎢ x̂j ⎥ ,

⎢ ⎥
⎢ .. ⎥
⎣ . ⎦
x̂n
tal que AX̂ = B é uma igualdade matricial verdadeira.
Resolver o sistema (3) ou a equação matricial (4) é determinar todas as suas soluções.
O sistema (3) diz-se possível se admitir uma ou mais soluções. Nestas condições, as equações
do sistema dizem-se compatíveis. O sistema diz-se impossível se não admitir nenhuma so-
lução. As equações neste caso dizem-se incompatíveis.
Um sistema possível diz-se determinado se admitir uma única solução e indeterminado
se admitir mais do que uma solução (neste caso admite uma infinidade de soluções).
O sistema (3) diz-se homogéneo se os termos independentes forem todos nulos. Caso
contrário, dir-se-á não homogéneo.
Qualquer sistema homogéneo é possível pois admite, pelo menos, a solução nula, designada
também por solução trivial. Dado que os sistemas homogéneos são possíveis, a sua resolução
permitirá saber se são determinados (isto é, se admitem apenas a solução trivial) ou indetermi-
nados (isto é, se além da solução trivial admitem soluções não nulas).

Exemplo 7.1 Vejamos alguns exemplos de sistemas de 2 equações com 2 incógnitas.

1. O sistema ½ ∙ ¸∙ ¸ ∙ ¸
x−y =2 1 −1 x 2
ou =
x+y =4 1 1 y 4
é possível determinado porque admite apenas a solução (3, 1).
2. O sistema ½ ∙ ¸∙ ¸ ∙ ¸
x−y =2 1 −1 x 2
ou =
x−y =4 1 −1 y 4
é impossível; as duas equações são incompatíveis.

32 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
3. O sistema ½ ∙ ¸∙ ¸ ∙ ¸
x−y =0 1 −1 x 0
ou =
x+y =0 1 1 y 0
é homogéneo; é determinado porque admite apenas a solução trivial (0, 0).

4. O sistema ½ ∙ ¸∙ ¸ ∙ ¸
x−y =0 1 −1 x 0
ou =
x−y =0 1 −1 y 0
é homogéneo; é indeterminado pois, além da solução nula (0, 0), admite infinitas soluções
não nulas, tais como (1, 1), (2, 2) , etc.

7.1 Resolução de Sistemas de Equações Lineares


O método apresentado atrás para a determinação da característica duma matriz pode ser apli-
cado à resolução de sistemas recebendo, neste contexto, a designação de método de eliminação
de Gauss.
Com efeito, para resolver o sistema AX = B bastará transformar a matriz ampliada A|B
numa matriz em escada executando repetidamente operações sobre linhas. Repare-se que estas
operações, quando aplicadas sobre A|B, correspondem à troca de duas equações do sistema, à
multiplicação de uma equação do sistema por um escalar não nulo e à adição a uma equação dou-
tra equação multiplicada por uma constante. Portanto, qualquer daquelas operações sobre A|B
substitui o sistema inicial por outro equivalente, isto é, com as mesmas soluções. Assim, reali-
zando aquelas operações de forma sistemática, é possível, a partir do sistema inicial, determinar
um sistema equivalente cujas soluções são facilmente obtidas.
De notar que durante a resolução do sistema, poderemos, se tal for conveniente, trocar as
colunas da matriz ampliada que contêm os coeficientes das incógnitas. Contudo, essa troca deve
ser registada pois altera a posição das incógnitas. Sublinhe-se também que nenhum outro tipo
de operação com colunas pode ser efectuado.
Vamos seguidamente ilustrar com três exemplos o método de eliminação de Gauss.

Exemplo 7.2 Um sistema com uma única solução (sistema possível e determinado)
Consideremos o sistema ⎧
⎨ 2x − 5y + 4z = −2
x − 2y + z = 5 .

x − 4y + 6z = 6
Para transformar a matriz ampliada do sistema numa matriz em escada efectuam-se, suces-
sivamente, as seguintes operações sobre linhas:
⎡ ⎤ OE1 ⎡ ⎤
2 −5 4 | −2 −→ 1 −2 1 | 5
⎣ 1 −2 1 | 5 ⎦ Troca de ⎣ 2 −5 4 | −2 ⎦
1 −4 6 | 6 L1 com L2 1 −4 6 | 6

OE3 ⎡ ⎤
−→ 1 −2 1 | 5
−2L1 + L2 ⎣ 0 −1 2 | −12 ⎦
−L1 + L3 0 −2 5 | 1

33 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
⎡ ⎤
1 −2 1 | 5
OE3 ⎢ ⎥
−→ ⎣ 0 −1 2 | −12 ⎦ .
−2L2 + L3 0 0 1 | 25
A matriz em escada obtida corresponde ao sistema

⎨ x − 2y + z = 5
−y + 2z = −12 .

z = 25

Este sistema mais simples, equivalente ao inicial, pode ser facilmente resolvido por rectrosubs-
tituição, isto é, em sucessão ascendente, começando pela resolução da 3a equação, obtendo-se
então ⎧
⎨ z = 25
y = 12 + 2z = 12 + 50 = 62

x = 5 + 2y − z = 5 + 124 − 25 = 104 .
De salientar que, em vez de usarmos o processo de rectrosubstituição, podemos determinar a
solução do sistema inicial, prosseguindo o processo de eliminação de Gauss de forma ascendente
na matriz em escada. Esta técnica consiste na realização de operações elementares sobre linhas,
por forma a obtermos uma nova matriz em escada com todos os redutores iguais a 1 e em que
os elementos acima dos redutores são todos nulos.
Voltando à matriz em escada anterior,
⎡ ⎤
1 −2 1 | 5
⎣ 0 −1 2 | −12 ⎦ ,
0 0 1 | 25

iniciamos a eliminação ascendente anulando os elementos acima do redutor da 3a linha. Para


tal, é suficiente multiplicar esta linha por 2 e por −1 e adicionar os resultados respectivos à 2a
e à 1a linha. Obtém-se então
⎡ ⎤
−L3 + L1 1 −2 0 | −20
−2L3 + L2 ⎣ 0 −1 0 | −62 ⎦ .
−→ 0 0 1 | 25
OE3

Seguidamente, vamos utilizar o redutor da 2a linha para anular o elemento acima dele.
Multiplicando a 2a linha por −2 e adicionando o resultado à 1a linha, somos conduzidos a
⎡ ⎤
−2L2 + L1 1 0 0 | 104
⎣ 0 −1 0 | −62 ⎦ .
−→
OE3 0 0 1 | 25

Como pretendemos que os redutores sejam todos iguais a 1, multiplicando a 2a linha por −1,
obtemos finalmente a matriz ⎡ ⎤
OE2 1 0 0 | 104
−→ ⎣ 0 1 0 | 62 ⎦ . (6)
−L2 0 0 1 | 25

34 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Esta matriz corresponde ao sistema ⎧
⎨ x = 104
y = 62

z = 25 ,
equivalente ao sistema inicial, que apresenta a solução procurada.

A matriz (6) obtida no final do exemplo anterior diz-se uma matriz reduzida no seguinte
sentido:

Definição 7.1 Uma matriz diz-se reduzida se é uma matriz em escada e verifica:

1. Os elementos redutores são todos iguais a 1;


2. Os elementos situados acima dos redutores são todos iguais a zero.

Com esta terminologia podemos então dizer:

Resolver o sistema AX = B pelo método de eliminação de Gauss consiste


em transformar a matriz ampliada A|B numa matriz reduzida por meio de
operações elementares sobre linhas.

Exemplo 7.3 Um sistema com uma infinidade de soluções (sistema possível e indeterminado)
Consideremos o seguinte sistema de 3 equações com 5 incógnitas:

⎨ 2x − 5y + 4z + u − v = −2
x − 2y + z − u + v = 5 .

x − 4y + 6z + 2u − v = 6
A matriz ampliada correspondente é
⎡ ⎤
2 −5 4 1 −1 | −2
⎣ 1 −2 1 −1 1 | 5 ⎦.
1 −4 6 2 −1 | 6
Os coeficientes de x, y e z bem como os termos independentes são os mesmos que no exemplo
anterior. Se realizarmos as mesmas operações sobre linhas efectuadas nesse exemplo, obteremos
a seguinte matriz reduzida:
⎡ ⎤
1 0 0 −16 19 | 104
⎣ 0 1 0 −9 11 | 62 ⎦ .
0 0 1 −3 4 | 25
Esta matriz reduzida corresponde ao sistema

⎨ x = 104 + 16u − 19v
y = 62 + 9u − 11v

z = 25 + 3u − 4v ,

35 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
pelo que as soluções do sistema inicial são da forma


⎪ x = 104 + 16u − 19v

y = 62 + 9u − 11v

⎪ z = 25 + 3u − 4v

u, v ∈ R.
Assim, o sistema inicial é possível e indeterminado, isto é, tem uma infinidade de soluções. Por
exemplo, se u = 1 e v = 0, obtemos a solução do sistema x = 120, y = 71, z = 28, u = 1 e v = 0.

Consideremos a matriz reduzida de um sistema de equações indeterminado. É costume


designar as incógnitas que correspondem às colunas dos redutores da matriz por variáveis
determinadas. As restantes incógnitas dizem-se as variáveis livres do sistema. O número de
variáveis livres diz-se o grau de indeterminação do sistema.
Assim, no exemplo anterior, u e v são as variáveis livres do sistema; as variáveis x, y e z que
correspondem às colunas dos redutores da matriz dos coeficientes, são as variáveis determinadas.
O grau de indeterminação do sistema é 2.
Exemplo 7.4 Um sistema sem soluções (sistema impossível)
Consideremos o sistema ⎧
⎨ 2x − 5y + 4z = −2
x − 2y + z = 5 .

x − 4y + 5z = 6
Este sistema é semelhante ao sistema do exemplo 7.2, exceptuando o coeficiente de z na 3a
equação que passou a ser 5. A correspondente matriz ampliada é
⎡ ⎤
2 −5 4 | −2
⎣ 1 −2 1 | 5 ⎦.
1 −4 5 | 6
Realizando as operações elementares do exemplo 7.2, obtemos a matriz em escada
⎡ ⎤
1 −2 1 | 5
⎣ 0 1 −2 | −12 ⎦ .
0 0 0 | 25
A equação correspondente à última linha da matriz ampliada anterior é 0z = 25, ou seja,
0 = 25. Trata-se de uma proposição falsa, pelo que o sistema inicial é impossível, isto é, não
admite nenhuma solução.
Nota 7.1 Em cada um dos exemplos anteriores, o número de equações não excedia o número de
incógnitas. No entanto, se existirem mais equações do que incógnitas, o método de eliminação
de Gauss continua a ser aplicável. Consideremos por exemplo, o sistema estudado no exemplo
7.2, que admite como solução x = 104, y = 62 e z = 25. Se a este sistema juntarmos uma nova
equação que seja ainda satisfeita por esta solução, por exemplo, a equação 2x − 3y + z = 47, a
aplicação do método de Gauss conduz à matriz ampliada
⎡ ⎤
1 0 0 | 104
⎢ 0 1 0 | 62 ⎥
⎢ ⎥
⎣ 0 0 1 | 25 ⎦ ,
0 0 0 | 0

36 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
em que a última linha só contém zeros. Mas se juntarmos ao sistema original uma nova equação
que não seja satisfeita pela solução x = 104, y = 62 e z = 25, por exemplo, a equação x+y+z = 1,
então o método de Gauss conduz à matriz ampliada
⎡ ⎤
1 0 0 | 104
⎢ 0 1 0 | 62 ⎥
⎢ ⎥.
⎣ 0 0 1 | 25 ⎦
0 0 0 | −190

Repare-se que a última linha corresponde à proposição falsa 0 = −190, o que significa que o
novo sistema é impossível.

Os sistemas dos exemplos 7.2 e 7.3 são, como vimos, possíveis. De referir que, em am-
bos os sistemas, a característica da matriz dos coeficientes e da matriz ampliada coincidem, o
que não acontece com o sistema impossível do exemplo 7.4. Neste caso, a primeira daquelas
características é menor do que a segunda. Com efeito, é válido o seguinte resultado:

Teorema 7.2 Um sistema de equações AX = B é possível se e só se a característica da matriz


dos coeficientes A for igual à característica da matriz ampliada A|B.

Demonstração. Como se sabe, sendo A uma matriz do tipo m × n, o sistema AX = B pode


escrever-se na forma
x1 A1 + x2 A2 + · · · + xn An = B, (7)
em que Aj , j = 1, . . . , n, designam as colunas da matriz A. Assim, AX = B é possível se e só
se existem escalares x1 , x2 , . . . , xn que tornam a igualdade (7) verdadeira.
Começamos por provar a condição necessária: AX = B é possível só se
c(A) = c(A|B), ou seja,

AX = B é possível =⇒ c(A) = c(A|B).

Por absurdo, suponhamos que AX = B é possível mas c(A) < c(A|B) (note-se que não se
pode ter c(A) > c(A|B)). Considerando c(A) = k < n, ter-se-á então c(A|B) = k + 1, isto é,
existem k + 1 colunas linearmente independentes em A|B, sendo necessariamente B uma delas.
Designando as restantes k destas colunas por Aj1 , . . . , Ajk , conclui-se que as colunas da matriz
[Aj1 . . . Ajk ] |B são linearmente independentes.
Por outro lado, como AX = B é possível, a igualdade (7) permite afirmar que B é combinação
linear de Aj1 , . . . , Ajk , atendendo a que pelo teorema 4.1, qualquer Ai , com i ∈ / {j1 , . . . , jk },
também o é. Pelo mesmo teorema conclui-se que as colunas da matriz [Aj1 . . . Ajk ] |B são
linearmente dependentes, o que contradiz o que foi anteriormente afirmado. Por conseguinte, a
condição necessária fica provada.
Reciprocamente, vejamos a prova da condição suficiente: AX = B é possível se c(A) =
c(A|B), isto é,
c(A) = c(A|B) =⇒ AX = B é possível.
Considerando c(A) = c(A|B) = k, deduz-se da primeira igualdade que as colunas da matriz
[Aj1 . . . Ajk ] |B são linearmente dependentes (Aj1 , . . . , Ajk designam, como acima, k colunas de
A linearmente independentes). Logo, pelo teorema 4.1, B é combinação linear de Aj1 , . . . , Ajk

37 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
e, por consequência, B também se pode escrever como combinação linear das colunas de A. Este
facto implica que AX = B é possível, o que demonstra a condição suficiente.

Duas consequências importantes deste teorema são as seguintes:

Corolário 7.2.1 Um sistema AX = B é impossível se e só se c(A) < c(A|B).

Demonstração. Resulta imediatamente do teorema anterior, atendendo a que nunca se pode


ter c(A) > c(A|B).

Corolário 7.2.2 Seja AX = B um sistema possível com n incógnitas. Então, se c(A) =


n, o sistema é determinado. Caso c(A) < n, o sistema é indeterminado e o seu grau de
indeterminação é n − c(A).

Demonstração. Sejam x1 , x2 , . . . , xn escalares que constituem uma solução do sistema AX =


B, isto é, tais que
x1 A1 + x2 A2 + · · · + xn An = B.
Considerando c(A) = n, seja y1 , y2 , . . . , yn uma outra qualquer solução de AX = B. Então,

y1 A1 + y2 A2 + · · · + yn An = B,

donde subtraindo membro a membro as duas última igualdades vem

(x1 − y1 )A1 + (x2 − y2 )A2 + · · · + (xn − yn )An = O.

Visto que as colunas de A são linearmente independentes (pois c(A) = n), conclui-se que

xj − yj = 0 ⇔ xj = yj ,

qualquer que seja j = 1, 2, . . . , n. Logo, todas as soluções do sistema são iguais a x1 , x2 , . . . , xn ,


pelo que o sistema tem uma única solução, ou seja, é determinado.
Suponha-se agora que c(A) = k < n e admita-se, sem perda de generalidade, que as primeiras
k colunas de A, A1 , A2 , . . . , Ak , são linearmente independentes. Visto que o sistema AX = B é
possível, B é combinação linear de A1 , A2 , . . . , Ak , atendendo a que, pela proposição 4.1, qualquer
Aj , com j > k, também o é. Por outro lado, considerando escalares arbitrários xk+1 , . . . , xn , as
matrizes coluna xk+1 Ak+1 , . . . , xn An são igualmente combinações lineares de A1 , A2 , . . . , Ak (já
que Ak+1 , . . . , An também o são). Por conseguinte, a matriz coluna B − xk+1 Ak+1 − · · · − xn An
é uma combinação linear de A1 , A2 , . . . , Ak , isto é, existem escalares x1 , . . . , xk tais que

B − xk+1 Ak+1 − · · · − xn An = x1 A1 + x2 A2 + · · · + xk Ak .

Como esta igualdade equivale a

x1 A1 + · · · + xk Ak + xk+1 Ak+1 + · · · + xn An = B,

conclui-se que, para cada concretização de xk+1 , . . . , xn , existe um conjunto de escalares x1 , . . . , xk ,


de tal forma que x1 , . . . , xk , xk+1 , . . . , xn é uma solução de AX = B. Consequentemente, o sis-
tema AX = B tem uma infinidade de soluções sendo, pois, indeterminado.

38 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Finalmente, as colunas A1 , . . . , Ak de A correspondem às colunas dos redutores da matriz
reduzida do sistema. Então, x1 , . . . , xk são as variáveis determinadas do sistema e xk+1 , . . . , xn
são as variáveis livres. O grau de indeterminação do sistema coincide com o número de variáveis
livres, pelo que é igual a n − c(A).
De notar que, num sistema determinado, n − c(A) = 0; pode então dizer-se que o seu grau
de indeterminação é 0.
Os resultados anteriores podem sistematizar-se do seguinte modo:

⎧ ⎧
⎪ ⎪
⎪ Determinado,

⎪ ⎪

⎪ ⎪
⎪ se c(A) = no incógnitas

⎪ ⎪


⎪ Possível,



⎨ se c(A) = c(A|B) ⎪ Indeterminado,
Sistema ⎪


⎪ se c(A) < no incógnitas
AX = B ⎪ ⎪


⎪ (grau de indet. = n − c(A))







⎪ Impossível,


se c(A) < c(A|B)

7.2 Sistemas Homogéneos


Terminamos esta secção com uma referência aos sistemas homogéneos.
Como dissemos inicialmente, o sistema AX = B é homogéneo se B = O, isto é, é da forma
AX = O. Como também já foi referido, qualquer sistema homogéneo é possível pois admite,
pelo menos, a solução nula (ou trivial). Esta conclusão pode deduzir-se igualmente do teorema
7.2, já que a igualdade c(A) = c(A|O) é sempre verdadeira.

Exemplo 7.5 Resolver o sistema homogéneo



⎨ x + y − 2z = 0
−2x + 5z = 0 . (8)

x + 3y − z = 0

Reduzindo a matriz ampliada do sistema obtemos sucessivamente,


⎡ ⎤ OE3 ⎡ ⎤
1 1 −2 | 0 −→ 1 1 −2 | 0
⎣ −2 0 5 | 0 ⎦ 2L1 + L2 ⎣ 0 2 1 | 0 ⎦
1 3 −1 | 0 −L1 + L2 0 2 1 | 0
⎡ ⎤ ⎡ ⎤
1 1 −2 | 0 OE2 1 1 −2 | 0
OE3 ⎣ 0 ⎦ −→ ⎣ 1 ⎦
−→ 2 1 | 0 1 0 1 2 | 0
−L2 + L3 0 0 0 | 0 2 L2 0 0 0 | 0
⎡ ⎤
OE3 1 0 − 52| 0
−→ ⎣ 0 1 ⎦.
1 2 | 0
−L2 + L1
0 0 0 | 0

39 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Daqui resulta que o sistema inicial é indeterminado (c(A) = c(A|O) = 2 < 3, onde A é a matriz
dos coeficientes) e que as suas soluções são da forma

⎪ 5
⎨ x = 2z
y = −1z

⎩ z ∈ R .2

Conclui-se assim que o grau de indeterminação deste sistema é 1 visto que z é a única variável
livre.
De referir ainda que as soluções do sistema se podem escrever matricialmente na forma
⎡ ⎤ ⎡ 5 ⎤
x 2z
⎣ y ⎦=⎢ ⎥
⎣ − 12 z ⎦ , com z ∈ R.
z z

Demonstra-se ainda o seguinte resultado importante, que relaciona as soluções de um sistema


não homogéneo com as soluções do sistema homogéneo que lhe está associado:

Teorema 7.3 Seja AX = B um sistema não homogéneo possível. Então Z é solução de AX =


B se e só se Z é da forma Z = X̂ + Y , em que X̂ é uma solução particular de AX = B e Y é
uma solução do sistema homogéneo AX = O.

Demonstração. Seja Z uma solução de AX = B. Sendo X̂ uma solução particular deste


sistema, tem-se
A(Z − X̂) = AZ − AX̂ = B − B = O.
Então Z − X̂ é uma solução do sistema homogéneo AX = O e, designando esta solução por Y,
tem-se Z − X̂ = Y , ou seja, Z = X̂ + Y .
Inversamente, seja Z = X̂ + Y uma matriz coluna nas condições do enunciado. Então

AZ = A(X̂ + Y ) = AX̂ + AY = B + O = B,

isto é, Z é solução de AX = B, como se queria.

Exemplo 7.6 Consideremos o sistema



⎨ x + y − 2z = 1
−2x + 5z = 1 .

x + 3y − z = 4

Este sistema e o sistema homogéneo (8) têm a mesma matriz de coeficientes. Para reduzir a
matriz ampliada deste sistema, podem efectuar-se as operações realizadas no exemplo anterior,
obtendo-se então ⎡ ⎤
1 0 −5/2 | −1/2
⎣ 0 1 1/2 | 3/2 ⎦ .
0 0 0 | 0

40 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
Daqui resulta que o sistema inicial é indeterminado (c(A) = c(A|O) = 2 < 3, onde A é a matriz
dos coeficientes), sendo as suas soluções da forma

⎪ 1 5
⎨ x = −2 + 2z
y = 3 − 1z .

⎩ z ∈ R2 2

Matricialmente, estas soluções representam-se por


⎡ ⎤ ⎡ 1 5 ⎤ ⎡ 1 ⎤ ⎡ 5 ⎤
x −2 + 2z − z
⎣ y ⎦=⎢ 3 1 ⎥ ⎢ 23 ⎥ ⎢ 21 ⎥
+
⎣ 2 − 2z ⎦ ⎣ 2 ⎦ ⎣ −2z ⎦ ,
= com z ∈ R.
z z 0 z

Tal como o teorema anterior


⎡ ⎤estipula, todas as soluções do sistema podem ser obtidas adicionando
1

⎢ 2 ⎥
a solução particular ⎣ 32 ⎦ às soluções do sistema homogéneo, que, como vimos, são da forma
0
⎡ ⎤
5
z
⎢ 21 ⎥
⎣ − 2 z ⎦, com z ∈ R.
z

8 Inversão de Matrizes
O estudo feito anteriormente tem numerosas aplicações. Veremos agora que o problema da
determinação da inversa duma matriz quadrada A = [aij ] de ordem n é equivalente à resolução
de n sistemas de equações lineares com n incógnitas.
Suponhamos então que A é invertível e seja B = [bij ] a sua inversa, isto é, B = A−1 . Assim,

AB = In ,

ou seja, ⎡ ⎤ ⎡ ⎤
b11 b12 · · · b1n 1 0 ··· 0
⎢ b21 b22 · · · b2n ⎥ ⎢ 0 1 ··· 0 ⎥
⎢ ⎥ ⎢ ⎥
A⎢ .. .. .. .. ⎥=⎢ .. .. .. .. ⎥ .
⎣ . . . . ⎦ ⎣ . . . . ⎦
bn1 bn2 · · · bnn 0 0 ··· 1
Sabendo que a multiplicação de A pela j-ésima coluna de B permite obter a j-ésima coluna da
matriz produto, a igualdade anterior é equivalente às n igualdades
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
b11 1 b12 0 b1n 0
⎢ b21 ⎥ ⎢ 0 ⎥ ⎢ b22 ⎥ ⎢ 1 ⎥ ⎢ b2n ⎥ ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A ⎢ . ⎥ = ⎢ . ⎥, A ⎢ . ⎥ = ⎢ . ⎥,..., A ⎢ . ⎥ = ⎢ .. ⎥.
⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣ . ⎦
bn1 0 bn2 0 bnn 1

Para determinar B bastará então resolver estes n sistemas de equações lineares, o que pode
ser feito simultaneamente reduzindo a seguinte matriz, que resulta de ampliar A com a matriz

41 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
identidade In : ⎡ ⎤
a11 a12 · · · a1n | 1 0 ··· 0
⎢ a21 a22 · · · a2n | 0 1 ··· 0 ⎥
⎢ ⎥
A|In = ⎢ .. .. .. .. .. .. .. .. ⎥
⎣ . . . . | . . . . ⎦
an1 an2 · · · ann | 0 0 ··· 1
Pelo facto dos sistemas anteriores serem todos possíveis e determinados, o método de eliminação
de Gauss conduz-nos à matriz
⎡ ⎤
1 0 · · · 0 | b11 b12 · · · b1n
⎢ 0 1 · · · 0 | b21 b22 · · · b2n ⎥
⎢ ⎥
In |B = ⎢ . . . . .. .. .. .. ⎥ ,
. . .
⎣ . . . . | . . . . . ⎦
0 0 · · · 1 | bn1 bn2 · · · bnn

que apresenta, no lado direito da linha vertical, a matriz inversa procurada.

Exemplo 8.1 Consideremos a matriz


⎡ ⎤
1 −2 4
A=⎣ 0 1 3 ⎦
−2 4 −5

e calculemos a sua inversa. Ampliando a matriz A com a matriz identidade I3 e reduzindo a


matriz resultante obtém-se sucessivamente:
⎡ ⎤ ⎡ ⎤
1 −2 4 | 1 0 0 1 −2 4 | 1 0 0
⎣ 0 1 3 | 0 1 0 ⎦ OE3
−→ ⎣ 0 1 3 | 0 1 0 ⎦
−2 4 −5 | 0 0 1 2L1 + L3 0 0 3 | 2 0 1
⎡ ⎤
1 −2 4 | 1 0 0
−→ ⎣ 0 1 3 | 0 1 0 ⎦
OE2
1
3 L3
0 0 1 | 23 0 13
⎡ ⎤
−4L3 + L1 1 −2 0 | − 53 0 − 43
−3L3 + L2 ⎣ 0 1 0 | −2 1 −1 ⎦
−→ 2 1
OE3
0 0 1 | 3 0 3
⎡ ⎤
2L2 + L1 1 0 0 | − 17
3 2 − 10
3
⎣ 0 1 0 | −2 1 −1 ⎦
−→ 2 1
OE3 0 0 1 | 3 0 3

Tem-se, pois, ⎡ ⎤
− 17
3 2 − 10
3
A−1 = ⎣ −2 1 −1 ⎦ .
2 1
3 0 3

42 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
9 Exercícios Resolvidos
¤ ¡
£1 ¢ Para cada valor do parâmetro real α, discuta o sistema de equações lineares

⎨ αx + y − z = 2 − α
x + y − αz = 0 .

x + αy − z = −α

Resolução: Transformemos a matriz ampliada do sistema numa matriz em escada:


⎡ ⎤ OE1 ⎡ ⎤
α 1 −1 | 2 − α −→ 1 1 −α | 0
⎣ 1 1 −α | 0 ⎦ Troca de ⎣ α 1 −1 | 2 − α ⎦
1 α −1 | −α L1 e L2 1 α −1 | −α

OE3 ⎡ ⎤
−→ 1 1 −α | 0
−αL1 + L2 ⎣ 0 1 − α −1 + α2 | 2−α ⎦
−L1 + L3 0 α−1 α−1 | −α
⎡ ⎤
1 1 −α | 0
OE3
−→ ⎣ 0 1 − α −1 + α2 | 2 − α ⎦.
L2 + L3 0 0 α − 2 + α2 | −2α + 2
Sejam A a matriz dos coeficientes do sistema e A|B a matriz ampliada:

• Se α − 2 + α2 6= 0 e 1 − α 6= 0, isto é, se α 6= 1 ∧ α 6= −2, o sistema é possível e


determinado pois c (A) = 3 = número de incógnitas.
• Se α = 1, tem-se c (A) = 1 < 2 = c (A|B), pelo que o sistema é impossível.
• Se α = −2, tem-se c (A) = 2 < 3 = c (A|B) , o que mostra que também neste caso o
sistema é impossível.

Em resumo, para α ∈ / {−2, 1}, o sistema é possível e determinado e, de contrário, é


impossível.
⎡ ⎤ ⎡ ⎤
¤ ¡
a 2 2a 6 − 2a
⎢ 1 ⎥ ⎢ ⎥
£2 ¢ Considere as matrizes A = ⎣ 2
⎢ a a ⎥ 1
eB=⎢ ⎥.
1 a ⎦ ⎣ −1 ⎦
−1 0 0 2

(a) Discuta em função do parâmetro real a, o sistema de equações lineares cuja equação
matricial é AX = B.
(b) Para a = 1 averigue se A é invertível e caso o seja, indique a sua inversa.
(c) Para que valores de a o sistema homogéneo associado tem como única solução a
solução nula?

Resolução:

43 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
(a) Consideremos a matriz ampliada do sistema
⎡ ⎤
a 2 2a | 6 − 2a
⎢ 1 a a | 1 ⎥
A|B = ⎢
⎣ 2 1 a
⎥.
| −1 ⎦
−1 0 0 | 2

Apliquemos o método de eliminação de Gauss a esta matriz:


⎡ ⎤ ⎡ ⎤
a 2 2a | 6 − 2a OE1 −1 0 0 | 2
⎢ 1 a a | 1 ⎥ −→ ⎢ 1 a a | 1 ⎥
⎢ ⎥ ⎢ ⎥
⎣ 2 1 a | −1 ⎦ Troca de ⎣ 2 1 a | −1 ⎦
−1 0 0 | 2 L1 e L4 a 2 2a | 6 − 2a
⎡ ⎤ OE3 ⎡ ⎤
1 0 0 | −2 −→ 1 0 0 | −2
−L1 ⎢ 1 a a | 1 ⎥ −L + L ⎢ 0 a a | 3 ⎥
⎢ ⎥ 1 2 ⎢ ⎥
−→ ⎣ 2 1 a | −1 ⎦ −2L1 + L3 ⎣ 0 1 a | 3 ⎦
OE2
a 2 2a | 6 − 2a −aL1 + L4 0 2 2a | 6
⎡ ⎤ ⎡ ⎤
1 0 0 | −2 OE1 1 0 0 | −2
⎢ 0 a a | 3 ⎥ −→ ⎢ 0 1 a | 3 ⎥
⎢ ⎥ ⎢ ⎥
OE3
−→ ⎣ 0 1 a | 3 ⎦ Troca de ⎣ 0 a a | 3 ⎦
0 0 0 | 0 L2 e L3 0 0 0 | 0
−2L3 + L4
⎡ ⎤
1 0 0 | −2
OE3 ⎢ 0 ⎥
−→ ⎢ 1 a | 3 ⎥.
−aL2 + L3 ⎣ 0 0 a − a2 | 3 − 3a ⎦
0 0 0 | 0
Assim:

• Se a = 0, c (A) = 2 e c (A|B) = 3, o que mostra que o sistema é impossível.


• Se a = 1, então c (A) = 2 = c (A|B) = 2 < número de incógnitas = 3, o que mostra
que nesta situação o sistema é possível e indeterminado.
• Se a 6= 1 e a 6= 0, o sistema é possível e determinado pois c (A) = 3 = c (A|B) =
número de incógnitas.

(b) Como a matriz A não é quadrada não tem inversa.


(c) O sistema homogéneo associado, isto é, AX = O, tem como única solução a solução
nula se e só se é determinado (já que é sempre possível), ou seja, se c (A) = 3 = número

¤ ¡
de incógnitas. Esta situação ocorre se e só se a 6= 0 e a 6= 1.

£3 ¢ Resolva o sistema homogéneo


⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 1 x 0
⎣ 2 2 2 ⎦⎣ y ⎦ = ⎣ 0 ⎦
3 3 3 z 0

44 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
e indique, em caso de existência, uma solução não trivial.
Resolução: Reduzindo a matriz ampliada do sistema obtemos:
⎡ ⎤ OE3 ⎡ ⎤
1 1 1 | 0 −→ 1 1 1 | 0
⎣ 2 2 2 | 0 ⎦ −2L1 + L2 ⎣ 0 0 0 | 0 ⎦ .
3 3 3 | 0 −3L1 + L3 0 0 0 | 0

Daqui resulta que o sistema dado é indeterminado pois c(A) = c(A|O) = 1 < 3, onde A é
a matriz dos coeficientes. Por outro lado, o sistema é equivalente à equação x = −y − z,
pelo que as suas soluções são da forma
⎡ ⎤
−y − z
⎣ y ⎦ , com y, z ∈ R.
z
Por conseguinte, o grau de indeterminação do sistema dado é 2 e uma solução não trivial
é, por exemplo, y = 1, z = 2 e x = −3.

¤ ¡
⎡ ⎤ ⎡ ⎤
1 2 1
£ ¢
4 Considere as matrizes A = ⎣ 1 1 ⎦ e B = ⎣ 1 ⎦ . Justifique que o sistema de equações
2 1 1
AX = B é impossível.
Resolução: Vamos transformar a matriz ampliada do sistema numa matriz em escada:
⎡ ⎤ OE3 ⎡ ⎤
1 2 | 1 −→ 1 2 | 1
⎣ 1 1 | 1 ⎦ −L1 + L2 ⎣ 0 −1 | 0 ⎦
2 1 | 1 −2L1 + L3 0 −3 | −1
⎡ ⎤
1 2 | 1
OE3 ⎢ ⎥
−→ ⎣ 0 −1 | 0 ⎦.
−3L2 + L3 0 0 | −1

Como c(A) = 2 < 3 = c(A|B) o sistema é impossível. O mesmo poderia ser concluído
reparando que a última equação da matriz em escada corresponde à proposição falsa 0 =
−1.

¤ ¡
⎡ ⎤
1 2 1
£5 ¢ Considere a matriz A =
⎣ 3 5 2 ⎦. Sem determinar A−1 , resolva a equação matricial
4 7 2
A−1 Y A = 2A + I3 .
Resolução: Multiplicando à esquerda por A e à direita por A−1 ambos os membros da
igualdade A−1 Y A = 2A + I3 , obtém-se

A−1 Y A = 2A + I3 ⇔ AA−1 Y AA−1 = A(2A)A−1 + AI3 A−1 ⇔ Y = 2A + I3 ,

pelo que ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 1 1 0 0 3 4 2
Y = 2 ⎣ 3 5 2 ⎦ + ⎣ 0 1 0 ⎦ = ⎣ 6 11 4 ⎦ .
4 7 2 0 0 1 8 14 5

45 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
10 Exercícios Propostos
Definição de matriz. Matrizes especiais
¤ ¡
£1 ¢ Classifique cada uma das seguintes matrizes, e indique a ordem respectiva:
⎡ ⎤ ⎡ ⎤
3 0 2 1 −1 0 1 £ √ ¤
A = ⎣ 0 2 −1 ⎦ , B = ⎣ 2 1 1 0 ⎦, C = 1 π 2 −3 ,
1 2 3 −1 1 3 1
⎡ ⎤ ⎡ ⎤
∙ ¸ 2 0 π 3 0 0
0 0
D= , E = ⎣ 0 1 3 ⎦, F = ⎣ 0 2 0 ⎦,
0 0
0 0 1 0 0 3
⎡ 1 ⎤
⎡ ⎤
1 0 0 0 √
2
∙ ¸ ⎢ − 3 ⎥
⎢ 3 1 0 0 ⎥⎥ 1 0 ⎢ ⎥
G=⎢
⎣ −2 , H = , I = ⎢ 0 ⎥.
⎢ ⎥
0 1 0 ⎦ 0 1 ⎣ 0 ⎦
1 −3 0 1
3
¤ ¡
£2 ¢ Calcule as matrizes opostas e transpostas das matrizes A, B, C e D do exercício 1.
¤ ¡
£3 ¢ Determine a matriz A = [aij ], de tipo 4 × 4, cujas entradas satisfaçam

⎨ 1 , |i − j| > 1
aij =

−1 , |i − j| ≤ 1
¤ ¡
£4 ¢ Determine a, b, c e d de forma que
∙ ¸ ∙ ¸
a−b b+c 8 1
= .
3d + c 2a − 4d 7 6

Operações com matrizes. Matriz inversa


¤ ¡
£5 ¢ Considere as seguintes matrizes:
∙ ¸¸ ∙
2 1 34 1 −2
A= ,B=
,
4 1 15 −1 3
⎡ ⎡ ⎤

2 −1 −4 2
C=⎣ 0 6 ⎦ eD=⎣ 3 5 ⎦.
−3 2 −1 −3

Diga se estão ou não definidas as matrizes a seguir indicadas e, caso estejam, determine
o seu valor: 4A − 2B, 0B + 0D, B + C, AB, AC, C T AT , (AC)2 , (A − 2B) (3C + D) ,
A (DB) e D (BA) .

46 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
¤ ¡
£6 ¢ Considere as seguintes matrizes:
⎡ ⎤
3 0 ∙ ¸ ∙ ¸
4 −1 1 4 2
A = ⎣ −1 2 ⎦ , B= , C= ,
0 2 3 1 5
1 1
⎡ ⎤ ⎡ ⎤
1 5 2 6 1 3

D = −1 0 1 ⎦ e E = ⎣ −1 1 2 ⎦ .
3 2 4 4 1 3

Diga se estão ou não definidas as matrizes a seguir indicadas e, caso estejam, determine o
¡ ¢T
seu valor: D + E, 2B − C, 2AT + C, 2E T − 3DT , (AB) C, CC T .

¤ ¡
⎡ ⎤
£ ¤ 4
£7 ¢ Considere a matriz linha A = −2 3 0 e a matriz coluna B =
⎣ −1 ⎦. Calcule AB
5
T T T

¤ ¡
e BA. Determine A e A B .

£8 ¢ Determine uma matriz A, quadrada de ordem 3, de forma que:


⎡ ⎤ ⎡ ⎤
x x+y
A⎣ y ⎦ = ⎣ x − y ⎦.
z 0

¤ ¡
∙ ¸
£9 ¢ Seja A =
1 −1
.
1 −1

(a) Calcule A2 . Que conclusões pode tirar sobre a lei do anulamento do produto?
(b) Dê exemplos de matrizes B e C tais que AB = AC e B 6= C. Que conclusões pode
tirar sobre a lei do corte?
¤ ¡
£10 ¢ Determine uma matriz diagonal A, que satisfaça
⎡ ⎤
1 0 0
A5 = ⎣ 0 −1 0 ⎦.
0 0 −1
¤ ¡
£11 ¢ Sejam A e B matrizes quadradas da mesma ordem.

(a) Dê um exemplo de matrizes A e B em que

(A + B)2 6= A2 + 2AB + B 2 .

(b) Determine uma matriz C, de forma que para qualquer escolha das matrizes A e B se
tenha
(A + B)2 = A2 + B 2 + C.
¤ ¡
£12 ¢ Seja B uma matriz quadrada de ordem n. Mostre que:

47 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
(a) B + B T é simétrica.
(b) B − B T é anti-simétrica.
(c) Qualquer matriz quadrada de elementos reais, pode exprimir-se como soma de uma
matriz simétrica com uma matriz anti-simétrica. (Sugestão: recorra às alíneas ante-
riores.)
¤ ¡
£13 ¢ Seja A uma matriz simétrica. Mostre que:

(a) A2 é simétrica.
(b) 2A2 − 3A + I é simétrica.
¤ ¡
£14 ¢ Indique que condições devem verificar duas matrizes simétricas A e B, para que o seu

¤ ¡
produto AB seja uma matriz simétrica.

£15 ¢ Se A e B são matrizes 2×2 anti-simétricas, sob que condições a matriz AB é anti-simétrica?
¤ ¡
∙ ¸ ∙ ¸
£16 ¢ Sejam A =
1 −1 1 −1
eB= .
0 2 2 −2

(a) Determine, caso existam, as inversas de A e B.


(b) Resolva as seguintes equações:
∙ ¸ ∙ ¸
0 1 1 −1
i. AX + = ;
1 2 0 1
∙ ¸
1 −1
ii. BX = ;
0 1
∙ ¸
−2
iii. BX = .
−4
¤ ¡
£17 ¢ Seja A uma matriz invertível.

(a) Mostre que se AB = AC então B = C.


(b) Justifique porque é que as seguintes matrizes
∙ ¸ ∙ ¸ ∙ ¸
0 1 1 1 2 5
A= , B= eC=
0 2 3 4 3 4

não contradizem a alínea (a).


¤ ¡
£18 ¢ Seja A uma matriz do tipo n × n tal que (In − A) (In + A) = O. Mostre que existe A e
−1

¤ ¡
indique-a.

£19 ¢ Sejam A e B duas matrizes simétricas, invertíveis e permutáveis. Prove que:

(a) A−1 e B são matrizes permutáveis.


(b) A−1 B −1 é uma matriz simétrica.

48 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
¤ ¡
£20 ¢ Mostre que se uma matriz quadrada A satisfaz A − 3A + I = O então A = 3I − A.
2 −1
¤ ¡
£21 ¢ Uma matriz quadrada A de ordem n diz-se ortogonal se AA = A A = In . Prove que o
T T

produto de duas matrizes ortogonais é ainda uma matriz ortogonal.

¤ ¡
Dependência e independência linear de linhas e colunas de uma matriz

£22 ¢ Considere a matriz ⎡ ⎤


1 2 0
⎢ 0 1 1 ⎥
A=⎢
⎣ 1 0
⎥.
1 ⎦
2 6 1

(a) Mostre, por definição, que as três primeiras linhas de A são linearmente independen-
tes.
(b) Mostre que a última linha de A é combinação linear das restantes.
(c) Verifique se a matriz coluna [3 2 2 0]T é combinação linear das colunas de A.
¤ ¡
£23 ¢ Considere a matriz: ⎡ ⎤
1 0 1
A=⎣ a 1 0 ⎦,
1 a a−1
em que a é um parâmetro real.

(a) Mostre que as colunas de A são linearmente independentes se e só se a 6= −2, 1.


(b) Considerando a = 1, verifique se a matriz linha [2 1 1] é combinação linear das linhas

¤ ¡
de A.

£24 ¢ Sejam X1 , X2 , X3 e X4 colunas linearmente independentes de uma matriz. Mostre que:


(a) As colunas da matriz [X1 + X2 X1 + X3 X1 + X2 + X3 X4 ] são linearmente in-
dependentes.
(b) As colunas da matriz [X1 + X2 X1 − X2 − X3 2X1 − X3 X4 ] são linearmente de-

¤ ¡
pendentes.

£25 ¢ Mostre que, se as linhas de uma matriz são linearmente independentes, nenhuma delas
pode ser nula.

¤ ¡
Característica e operações elementares sobre linhas e colunas de uma matriz

£26 ¢ Para cada uma das seguintes matrizes, calcule a respectiva característica:
⎡ ⎤ ⎡ ⎤
⎡ ⎤ 1 −1 2 2 1 2 0 3
∙ ¸ 2 3 4
1 1 0 ⎢ 2 −3 2 1 ⎥ ⎢ 1 2 3 3 ⎥
,⎣ 2 1 1 ⎦, ⎢
⎣ 3 −5 2 −3 ⎦ ,
⎥ ⎢
⎣ 1

−1 2 1 0 1 1 ⎦
−1 1 2
−4 12 8 10 1 1 1 2
⎡ ⎤
⎡ ⎤ 2 5 −1 4 3
37 259 481 407 ⎢ −3 1 2 0 1 ⎥
⎣ 19 133 247 209 ⎦ e ⎢
⎣ 4 1
⎥.
6 −1 −1 ⎦
25 175 325 275
−2 3 0 4 −9

49 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
¤ ¡
£27 ¢ Discuta, para todos os valores de k reais, a característica das matrizes seguintes:
⎡ ⎤ ⎡ ⎤
⎡ ⎤ ⎡ 1 ⎤ 1 0 1 1 1 1 1 4
1 1 k 1 0 −1 1 ⎢ 2 2 −1 1 ⎥ ⎢ 1 k 1 1 4 ⎥
⎣ k 0 1 ⎦, ⎣ 1 1 0 1 ⎦, ⎢
⎣ k
⎥ e ⎢ ⎥.
3 −2 0 ⎦ ⎣ 1 1 k 3−k 6 ⎦
1 1 1 k 1 −1 2
−1 0 −3 k 2 2 2 k 6
¤ ¡
£28 ¢ Discuta, para todos os valores de α e β reais, a característica das matrizes seguintes:
⎡ ⎤
⎡ α ⎤ 0 −1 β
∙ ¸ 0 0 α
cos α − sen α ⎢ 1 0 β 0 ⎥
, ⎣ 0 β 2 ⎦ e ⎢
⎣ 1
⎥.
sen α cos α 1 1 1 ⎦
3 0 1
1 1 0 1
¤ ¡
£29 ¢ Considere a matriz de tipo 1 × n, E = [1 1 . . . 1]. Calcule EE e E E e indique as
T T

respectivas características.

Sistemas de equações lineares


¤ ¡
£30 ¢ Resolva os seguintes sistemas de equações:
⎧ ⎧ ⎧
⎨ x + 2y + 3z = 0 ⎨ x1 + 2x2 + x3 + x4 = 4 ⎨ x + 2y − z = 1
x + y + z = 10 , 2x1 + 4x2 − x3 + 2x4 = 11 , −x − y + 2z = 0 ,
⎩ ⎩ ⎩
y + 2z = 0 x1 + x2 + 2x3 + 3x4 = 11 x + y + 2z = 1
⎧ ⎧

⎪ x + 2y − z + w = 1 ⎪
⎪ x1 + x2 + x3 + x4 = 1
⎨ ⎨
2x + y + z − w = −2 2x1 + x2 − x3 + 2x4 = 9
e .

⎪ x + z + w = 1 ⎪
⎪ x1 + 2x2 + x3 − x4 = −6
⎩ ⎩
2x + 5y − 3z + 5w = 5 x1 + x2 − 2x3 + x4 = 7
¤ ¡
£31 ¢ Discuta, em função dos parâmetros a e b, os seguintes sistemas de equações:
⎧ ⎧ ⎧
⎨ x+y+z =3 ⎨ x+y+z =3 ⎨ x+y+z =1
(a) x − y + z = 1 , (b) x−y+z =1 (c) x − y + 2z = a .
⎩ ⎩ ⎩
x−y−z =a 2x − 2y + az = 2 2x + bz = 2
¤ ¡
£32 ¢ Discuta, para todos os valores dos parâmetros, os sistemas de equações lineares:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 −1 x 1
(a) AX = B onde A = ⎣ 2 2 0 ⎦, X = ⎣ y ⎦ e B = ⎣ λ ⎦, com λ ∈ R;
1 λ λ z 1
(b) O sistema homogéneo associado ao anterior;
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 x b
(c) AX = B onde A = ⎣ 1 2 + a 1 ⎦ , X = ⎣ y ⎦ e B = ⎣ 2a ⎦ , com a e b ∈ R;
1 1 1+a z 0
(d) O sistema homogéneo associado ao anterior.

50 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
¤ ¡
£33 ¢ Considere o sistema AX = B em que
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 −1 b1 x1
A = ⎣ 0 1 a ⎦ , B = ⎣ b2 ⎦ e X = ⎣ x2 ⎦ .
−1 1 2a b3 x3

(a) Determine a de modo que o sistema seja possível qualquer que seja a matriz B.
(b) Dê exemplos de um valor de a e de uma matriz B para os quais:
i. o sistema tenha mais do que uma solução;
ii. o sistema não tenha soluções.
¤ ¡
£34 ¢ Considere o seguinte sistema de equações:

⎨ ax + bz = 2
ax + ay + 4z = 4 .

ay + 2z = b
Para que valores de a e b o sistema:

(a) tem uma única solução;


(b) não tem solução;
(c) tem soluções que dependem apenas de uma variável;
(d) tem soluções que dependem de duas variáveis.

¤ ¡
Inversão de matrizes

£35 ¢ Determine as inversas das seguintes matrizes:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 2 −1 0 1 1 1
A = ⎣ 0 1 1 ⎦ , B = ⎣ −1 2 −1 ⎦ e C = ⎣ 0 2 3 ⎦ .
0 0 1 0 −1 2 3 5 2

¤ ¡
⎡ ⎤
1
£36 ¢ Considere as matrizes A e C do exercício 35 e seja B =
⎣ −1 ⎦ .
3

(a) Utilize a matriz A−1 para resolver o sistema AX = B.


(b) Mostre que a matriz C − 2I3 tem inversa e utilize a inversa desta matriz para deter-
minar a matriz X tal que CX = 2X + B.
¤ ¡
£37 ¢ Determine, se possível, a inversa de cada uma das seguintes matrizes:
⎡ ⎤
⎡ ⎤ −8 17 2 13
2 6 6 ⎢ 4 0 25 −9 ⎥
A = ⎣ 2 7 6 ⎦,B = ⎢
⎣ 0
⎥,
0 0 0 ⎦
2 7 7
−1 13 4 2
⎡ ⎤ ⎡ ⎤
0 0 2 0 k1 0 0 0
⎢ 1 0 0 1 ⎥ ⎢ 0 k2 0 0 ⎥
C = ⎢
⎣ 0
⎥,D = ⎢ ⎥ , ki ∈ R\ {0} .
−1 3 0 ⎦ ⎣ 0 0 k3 0 ⎦
2 1 5 −3 0 0 0 k4

51 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
¤ ¡
⎡ ⎤
1 1 0
£ ¢
38 Determine para que valores de α a matriz A = ⎣ 1 0 0 ⎦ é invertível e, para esses
1 2 α
valores, indique A−1 .

¤ ¡
⎡ ⎤
7 0 5
£39 ¢ Dada a matriz A =
⎣ 0 1 0 ⎦ resolva a equação matricial AXA−1 = A + I3 .
4 0 3
¤ ¡
£40 ¢ Sejam A, B, C e X matrizes que satisfazem a relação
h i−1
(AX)T + BC = I2 ,

onde ∙ ¸ ∙ ¸
1 2 1 £ ¤
A= , B= e C= 2 3 .
0 1 2

(a) Qual o tipo da matriz X?


(b) Determine a matriz X.
¤ ¡
£41 ¢ Considerando as matrizes
⎡ ⎤ ⎡ ⎤
0 1 −1 1 2 −1
A=⎣ 1 1 −1 ⎦ e B = ⎣ 0 1 2 ⎦,
−1 −1 2 1 0 1

Determine a matrix X que verifica as seguintes igualdades matriciais:

(a) A−1 XA = B.
¡ ¢T
(b) XAB + B T AX T = I3 .

Aplicações
¤ ¡
£42 ¢ O Pedro, que é irmão da Rosa, tem duas vezes mais irmãs do que irmãos, enquanto que
a Rosa tem o mesmo número de irmãos e irmãs. Assumindo que não há meios irmãos,

¤ ¡
quantas crianças ao todo há nesta família?

£43 ¢ Determine a equação da parábola que passa pelos pontos A = (0, −1), B = (1, 4) e

¤ ¡
C = (2, 11).

£44 ¢ Determine todos os polinómios p (x) de grau menor ou igual a 2 tais que p (1) = p (1) =
0

p00 (1) = 1.
¤ ¡
£45 ¢ Determine as correntes Ii dos seguintes circuitos eléctricos:

52 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
(a)
8V
+

2Ω I2
I1 2Ω I3


+

6V

(b)
20Ω

I4 I5
+

10V I1 20Ω I2 I3 +

20Ω 10V
I6

20Ω

11 Soluções dos Exercícios Propostos


1. A → matriz quadrada de ordem 3; B → matriz rectangular de ordem 3 × 4; C → matriz linha de
ordem 1 × 4; D → matriz nula de ordem 2; E → matriz quadrada, triangular superior de ordem 3; F →
matriz quadrada, diagonal de ordem 3; G → matriz quadrada, triangular inferior de ordem 4; H →
matriz identidade
⎡ de ordem 2; ⎤I →.matriz coluna de ordem 5 × 1.
−1 −1 1 1
⎢ −1 −1 −1 1 ⎥
3. A = ⎢⎣ 1 −1 −1 −1 ⎦ .

1 1 −1 −1
4. a∙ = 5, b = −3,¸ c = 4 e d = 1. ∙ ¸ ∙ ¸
0 2 16 −5 10 −5 5
5. ; Não está definida; Não está definida; Não está definida; ; ;
∙ 6 6 −2 ¸ ∙ ¸ ∙ ¸ 5 4 10 4
75 −10 −85 4 −32 −8 16
; ; ; Não está definida.
−5 66 ⎡ 47 60⎤ −6 −24 58 ⎡ ⎤ ⎡ ⎤
7 6 5 ∙ ¸ 9 −13 0 3 45 9
7 2 4
6. D + E = ⎣ −2 1 3 ⎦ ; Não está definida; ;⎣ 1 2 1 ⎦ ; ⎣ 11 −11 17 ⎦ ;
3 5 7
∙ ¸ 7 3 7 −1 −4 −6 7 17 13
21 17
.
17 35

53 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−8 12 0 −2 −8 2 −10
7. AB = [−11] ; BA = ⎣ 2 −3 0 ⎦ ; AT = ⎣ 3 ⎦ ; AT B T = ⎣ 12 −3 15 ⎦ .
⎡ ⎤ −10 15 0 0 0 0 0
1 1 0
8. A = ⎣ 1 −1 0 ⎦ .
0 ∙ 0 0¸
0 0
9. (a) A2 = . A lei do anulamento do produto não é válida para o produto de matrizes; (b)
∙ ¸0 0 ∙ ¸
1 −1 0 0
B= eC= . A lei do corte não é válida para o produto de matrizes.
1 ⎡−1 ⎤0 0
1 0 0
10. A = ⎣ 0 −1 0 ⎦.
0∙ 0 −1 ¸ ∙ ¸
1 0 1 1
11. (a) A = ,B= ; (b) C = AB + BA.
1 0 1 1
14. A e B devem ser permutáveis.
15. A = O ∨ B∙= O. ¸ ∙ ¸
1 1/2 1/2 −5/2
16. (a) A−1 = e B singular; (b-i.) X = ; (b-ii.) Eq. impossível;
∙ 0 ¸1/2 −1/2 −1/2
a
(b-iii.) X = , com a real.
a+2
17b. A não é invertível.
18. A−1 = A.
22. (c) Não é comb. linear.
23. (b) É comb. linear.
26. 2; 3; 3; 3; 1; 4. √
27. c = 2 se k ∈ {0, 1} e c = 3 caso contrário; c = 2 se k = 2 e c = 3 caso contrário; c = 3 se k = ± 10 e
c = 4 caso contrário; c = 4 se k 6= 1 e c = 2 caso contrário
28 c = 2, ∀α ∈ R; c = 3 se α 6= 0 ∧ β 6= 0 e c = 2 caso contrário; c = 4 se β 6= 0 e c = 3 caso contrário
29. c(EE T ) = c(E T E) = 1.
30. Sistema impossível; Sistema possível e indeterminado, x1 = 21 − 5x4 , x2 = −8 + 2x4 , x3 = −1,
x4 ∈ R; Sistema possível e determinado, x = −1/4, y = 3/4 z = 1/4; Sistema impossível; Sistema
possível e determinado, x1 = 1, x2 = −1, x3 = −2, x4 = 3.
31. (a) Para qualquer a ∈ R, o sistema é possível e determinado; (b) Se a 6= 2, o sistema é possível e
determinado e, caso contrário, é possível e indeterminado; (c) Se b 6= 3 ∧ a ∈ R, o sistema é possível e
determinado, se b = 3 ∧ a = 1, é possível e indeterminado e, se b = 3 ∧ a 6= 1, o sistema é impossível .
32. (a) Para λ = 1 o sistema é impossível, para λ 6= 1 o sistema é possível e determinado;
(b) Se λ = 1 o sistema é possível e indeterminado, se λ 6= 1 o sistema é possível e determinado;
(c) Se (a = 0 ∧ b = 0) ∨ (a = −1 ∧ b = −2) então o sistema é possível e indeterminado, se
(a = 0 ∧ b 6= 0)∨ (a = −1∧ b 6= −2) então o sistema é impossível, se a ∈ R\ {−1, 0} então o sistema é
possível e determinado; (d) Se a ∈ R\ {−1, 0} , então o sistema é possível e determinado, se
a = 0 ∨ a = −1 o sistema é possível e indeterminado. ⎡ ⎤ ⎡ ⎤
0 0
33. (a) a ∈ R\ {1}; (b-i.) Por ex., a = 1 e B = ⎣ 0 ⎦; (b-ii.) Por ex., a = 1 e B = ⎣ 0 ⎦ .
0 1
34. (a) a 6=⎡0 ∧ b 6= 2; (b) a⎤= 0 ∧ b 6=⎡2; (c) a 6= 0 ∧ b = ⎤2; (d) a = ⎡0 ∧ b = 2. ⎤
1 −1 0 3/4 1/2 1/4 11/8 −3/8 −1/8
35. A−1 = ⎣ 0 1 −1 ⎦ ; B −1 = ⎣ 1/2 1 1/2 ⎦ ; C −1 = ⎣ −9/8 1/8 3/8 ⎦ .
⎡0 0⎤ 1 ⎡ 1/4 ⎤ 1/2 3/4 3/4 1/4 −1/4
2 −11/24
36. (a) X = ⎣ −4 ⎦ ; (b) X = ⎣ 7/8 ⎦ .
3 −1/3

54 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1
⎡ 4 3 ⎤ ⎡ 1 ⎤
⎡ 7
⎤ −5 5 1 1
k1 0 0 0
0 −3 5 5
2 ⎢ 3
0 −1 ⎥ ⎢
0 ⎥ ⎢ 0 k2 0 1
0 ⎥
37. ⎣ −1 1 0 ⎦ , @B −1 , ⎢ ⎣ 1
2 , ⎥.
2 0 0 0 ⎦ ⎣ 0 0 k13 0 ⎦
0 −1 1 4 2 1 1 1
−5 −5 0 0 0
⎡ ⎤5 5 k4
0 1 0
38. α 6= 0, A−1 = ⎣ 1 −1 0 ⎦ .
2 1 1
⎡ −
⎤α α α
8 0 5
39. X = ⎣ 0 2 0 ⎦.
4 0 ∙4 ¸
5 6
40. (a) 2 × 2; (b)
⎡ −3 ⎤−5 ⎡ ⎤
2 1 2 −1/4 1/3 1/4
41. (a)⎣ 3 3 3 ⎦ ; (b) ⎣ 0 1/6 0 ⎦ .
−4 −1 −2 1/4 1/6 1/4
42. 7
43. x2 + 4x − 1.
44. p (x) = 12 x2 + 12 .
45. (a) I1 = 13 2 11 1 1
5 , I2 = − 5 , I3 = 5 . (b):I1 = 2 , I2 = 0, I3 = 0, I4 = 2 , I5 = 12 , I6 = 12 .

55 A L G A — A n o L e ctivo 2 0 1 0 / 2 0 1 1