Sistemi Lineari

Sistemi Lineari
April 14, 2014
1
Matrici a scala
Una matrice A si dice a scala (pi`
u precisamente a scala per righe) o anche in forma gaussiana
se le seguenti condizioni sono soddisfatte
1. tutte le righe nulle, se ne esistono, compaiono sotto quelle non nulle,
2. il primo termine non nullo di una riga (non nulla) sta pi`
u a destra del primo termine non
nullo della riga precedente.
(Ricordo che una matrice `e nulla se tutti gli elementi sono nulli, non nulla se qualche elemento `e
6= 0.) Se A = (aij ), A `e a scala se esistono elementi non nulli
a1j1 , a2j2 , . . . , arjr
con j1 < j2 < . . . < jr
tali che
aij = 0
quando i ≤ r, j < ji
oppure quando
i > r.
Gli elementi a1j1 , a2j2 , . . . , arjr si dicono i pivot della matrice a scala. Le colonne dove compaiono
i pivot si dicono colonne pivot. Gli elementi di una colonna pivot che stanno sotto il pivot sono
tutti nulli.
Esempio La matrice seguente `e a scala

0
0

0
0
2
0
0
0
3
1
0
0
1
5
0
0
4
6
3
0

2
3

1
0
I pivot sono a12 = 2, a23 = 1, a35 = 3 e le colonne pivot sono la seconda, la terza e la quinta.
Una matrice a scala si dice ridotta se tutti i pivot sono uguali a 1.
Teorema Le righe non nulle di una matrice a scala sono linearmente indipendenti.
Vediamolo nell’esempio: consideriamo le righe non nulle della matrice
R1 = 0 2 3 1 4 2
R2 = 0 0 1 5 6 3
R3 = 0 0 0 0 3 1
La riga R2 non pu`
o essere un multiplo della riga R3 perch´e i multipli di R3 hanno le prime quattro
componenti tutte nulle mentre R2 ha la terza componente diversa da zero. La riga R1 non pu`o
essere combinazione lineare di R2 ed R3 perch´e tutte queste combinazioni lineari hanno le prime due
componenti uguali a 0 mentre R1 ha la seconda componente diversa da zero. Segue che R1 , R2 , R3
sono linearmente indipendenti. Il ragionamento si estende ad una qualunque matrice a scala per
righe..
Abbiamo usato il seguente risultato (lascio al lettore la dimostrazione come esercizio di algebra
lineare astratta)
Lemma Supponiamo che due o pi`
u vettori non nulli v1 , v2 , . . . , vn di uno spazio vettoriale V siano
linearmente dipendenti. Allora uno dei vettori `e combinazione lineare dei vettori precedenti: esiste
k > 1 tale che
vk = c1 v1 + c2 v2 + . . . + ck−1 vk−1 .
1
Esempi 1. Consideriamo le matrici



1 2 3
1 2
A = 0 0 0 , B = 0 0
0 0 1
0 0

3
2 ,
0

2
C = 0
0
1
0
1
1
1
0

2
2 ,
0

2
D = 0
0
1
0
0
1
1
1

2
2 .
0
La matrice A non `e a scala perch´e ha una riga nulla, la seconda, che sta sopra una non nulla,
la terza. Se in A si scambiano la seconda e la terza riga, la matrice che si ottiene `e ridotta. La
matrice B `e a scala ma non ridotta perch´e ha un pivot diverso da 1. Le matrici C e D non sono
a scala perch´e il primo elemento non nullo della terza riga non `e pi`
u a destra del primo elemento
non nullo della seconda riga. Se in C e D l’ultima riga fosse nulla, entrambe sarebbero a scala.
2. Una matrice nulla `e a scala e non ha pivot.
3. La matrice identica (di qualunque ordine) `e ridotta.
4. Una matrice quadrata A = (aij ) si dice triangolare superiore se aij = 0 quando i > j. Ad
esempio


2 1 1 2
0 3 1 2


0 0 1 0
0 0 0 4
`e triangolare superiore. Se in una matrice triangolare superiore gli elementi diagonali sono tutti
non nulli (risp. = 1) la matrice `e a scala (risp. ridotta). Se qualche elemento diagonale `e nullo
pu`
o essere a scala come no. Ad esempio
 




0 2 3
1 2 3
1 2 0
0 2 0 0 0 1 sono a scala mentre 0 0 4 non lo `e.
0 0 0
0 0 5
0 0 0
Esercizi per acquisire abilit`
a nel riconoscere se una matrice `e a scala o ridotta o nessuna delle due.






0 1 0 3 2
1 0 0 3 2
1 0 2 0 −1




0 0 0 1 2 
 2. 0 2 1 0 4 3. 0 0 2 1 0
1. 
0 0 0 0 3
0 0 0 0 5
0 0
0 3
0 0 0 0 0
0 0 0 1 2
0 0 0 0 0








0 0 0
1 2 3
0 0 0
1 1 1
4. 0 2 1 5. 0 0 0 6. 0 0 −1 7. 0 1 0
0 0 0
1 0 0
0 0 0
0 0 3


1

1 13
1 0 0
2
1 1
1 0
1



0 1 0
10.
11.
8.
9. 0 2 4
0 0
1 0
0 0 0
0 0 1
0 1
1 5
3 4
0 1
12.
13.
14.
15.
1 0
0 1
0 2
0 1
Esercizio Dire per quali valori del parametro k ∈ R la seguente matrice `e a scala


1
0
−k
0 0
0 1 + k 1 + k 0 0 


0
0
k + k2 k k 
0
0
0
k −1
2
Sistemi lineari
Un’equazione P (x1 , x2 , . . . , xn ) = b si dice equazione lineare nelle incognite x1 , x2 , . . . , , xn se
P (x1 , . . . , xn ) = a1 x1 +a2 x2 +. . .+an xn `e un polinomio di primo grado nelle variabili x1 , x2 . . . , , xn
con a1 , a2 , . . . , an e b sono elementi del campo K chee si dicono, gli ai , i coefficienti dell’equazione
e b il termine noto. Scriviamo
(1)
a1 x1 + a2 x2 + . . . + an xn = b.
2
Se n = 1 si usa x al posto di x1 , se n = 2, x, y al posto di x1 , x2 , n = 3, x, y, z al posto di x1 , x2 , x3
e si scrive
ax = b, ax + by = c, ax + by + cz = d.
Se qualche coefficiente ai `e nullo non si scrive il corrispondente termine, ad esempio
1x1 + 0x2 + 2x3 + 0x4 = x1 + 2x3 .
Osservazione Il termine “lineare” dipende dal fatto che nel piano euclideo, fissato un riferimento
cartesiano O, x, y (che identifica il piano con R2 ), l’equazione di una (linea) retta ha equazione
ax + by = c. Vedremo pi`
u avanti l’interpretazione geometrica delle equazioni lineari e dei sitemi
lineari che stiamo per definire.
Le seguenti equazioni non sono lineari
√
x2 = 2, log x = 1, x2 + 3y 2 − xy + 2x − 2y = 3, ex + sin y + z = 0.
Una soluzione di (1) `e una n-pla (c1 , c2 , . . . , cn ) ∈ K n tale che
a1 c1 + a2 c2 + . . . + an cn = b.
Si scrive x1 = c1 , x2 = c2 , . . . xn = cn . Ad esempio x = 2, y = −1 `e soluzione dell’equazione
2x + y = 3, mentre x = 2, y = 1 non `e soluzione.
Esempio Cerchiamo le soluzioni dell’equazione ax = b. Se a 6= 0, l’equazione ha una sola soluzione,
x = b/a. Se a = 0, l’equazione non ha soluzioni se b 6= 0, mentre tutti gli elementi di K sono
soluzioni. Se K = R, C, l’equazione ha quindi infinite soluzioni.
Se in (1) tutti i coefficienti sono nulli, l’equazione si dice degenere
0x1 + 0x2 + . . . + 0xn = 0 = b
Se b 6= 0 l’equazione non ha soluzioni, se b = 0 tutti gli elementi di K n sono soluzioni.
Un sistema lineare di m equazioni in n incognite `e una lista di m equazioni lineari nelle stesse
incognite x1 , x2 , . . . , xn . Si scrive

a11 x1 + a12 x2 + · · · + a1n xn = b1



 a x + a x + ··· + a x = b
21 1
22 2
2n n
2
(2)

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.



am1 x1 + am2 x2 + · · · + amn xn = bm
Usando il prodotto di matrici il sistema (2) si

a11 a12 · · ·
 a21 a22 · · ·

(3)
 ..
..
..
 .
.
.
am1 am2 · · ·
pu`o scrivere
   
a1n
x1
b1
 x 2   b2 
a2n 
   
..   ..  =  .. 
.  .   . 
amn
xn
bm
Gli aij ∈ K si dicono i coefficienti del sistema e i bi ∈ K i termini noti. La matrice A = (aij )
si dice la matrice dei coefficienti o anche matrice incompleta. Se poniamo
 
 
x1
b1
 .. 
 .. 
x =  . , b =  . 
xn
bm
possiamo scrivere (3) in forma compatta
(4)
Ax = b.
Se m 6= n le colonne x e b hanno dimensioni diverse. La matrice

a11 a12 · · · a1n
 a21 a22 · · · a2n
def

A# = (A | b) =  .
..
..
..
 ..
.
.
.
am1
am2
3
···
amn
b1
b2
..
.
bm





si dice la matrice completa del sistema.
Esempio La matrice completa del sistema


x1 − 2x2 + x3 = 2
3x1 + x2 + x3 = −5


−x1 + 7x2 − 4x3 = 1
`e la matrice

1
 3
−1
−2
1
7
1
1
−4

2
−5 
1
Esempio Scrivere il sistema lineare nelle incognite x, y, z la cui matrice completa `e
−1 −2 1 6
0
3 4 −5
Risposta
(
−x − 2y + z = 6
3y + 4z = −5
Esercizi per acquisire abilit`
a nel trovare la matrice completa di un sistema lineare. Trovare la
matrice completa dei seguenti sistemi lineari:


(


kx1 − 2x2 + 3kx3 = 0
x1 − 2x2 + 3x3 = 0
x−y+z−t=2
x1 + k 2 x3 = 1
3x1 + 4x2 − 5x3 = 0


3x + 4y − 3z + 5t = 3


(1 + k)x1 − x2 = k − 1
4x1 − 2x2 + 7x3 = 0
dove k `e una costante non specificata (sistema dipendente da un parametro).
Esercizi per acquisire abilit`
a nel trovare il sistema lineare nota la sua matrice completa. Scrivere
il sistema lineare la cui matrice completa e le incognite sono date da:


1 −1 0
3
1 2 3
2 −2  x, y, z
1.
x, y
2.  0 2
0 1 4
0 0 −1 4




0 2 −1 4
1 2 0 −4
1  x, y, z
3.  0 1 3 3  x1 , x2 , x3
4.  0 1 3
0 0 1 2
0 0 −0 0




k
−2
0
2
1 3 −5 0
 0 k − 1 −1 1 
 x1 , x2 , x3
5.  0 2 −1 0  x, y, z
6. 
 0
0
k−2 4 
0 0 0 0
3
0
0
0
7. Scrivere i sistemi lineari la cui matrice completa `e la matrice dell’esercizio precedente per i valori
k = 0, 1, 2 del parametro.
Se m = n (il numero delle equazioni `e uguale al numero delle incognite) il sistema si dice quadrato
di ordine n; se m > n (se vi sono pi`
u equazioni che incognite) si dice sovradeterminato e se
m < n (meno equazioni che incognite) sottodeterminato. Se i termini noti sono tutti uguali a
0, i.e. b = 0, il sistema si dice omogeneo.
Una n-pla (c1 , c2 , . . . , cn ) ∈ K n si dice una soluzione del sistema (2) se la n-pla `e soluzione di
t
tutte le equazioni lineari del sistema. Se mettiamo la n-pla in colonna c = c1 c2 · · · cn , c
`e soluzione se e solo se
Ac = b.
Se l’equazione i-ma, ai1 x1 + ai2 + . . . + ain xn = bi , `e degenere, i.e. ai1 = ai2 = . . . ain = 0, e bi 6= 0,
il sistema non ammette soluzioni; se invece bi = 0, l’equazione non pone vincoli alle soluzioni e
usualmente non si scrive.
Osservazione Un sistema lineare o non ha soluzioni (come nel caso in cui `e presente un’equazione
degenere con termine noto diverso da zero) o ha una sola soluzione o ne ha infinite (purch´e il
4
campo K sia infinito, come, ad esempio, quando K = R, C). Infatti supponiamo che esistano due
soluzioni distinte u, v ∈ K n , u 6= v, di (4):
Au = b,
u 6= v
Av = b,
Ora, siano s, t ∈ K tali che s + t = 1. Facciamo vedere che su + tv `e una soluzione del sistema
A(su + tv) = A(su) + A(tv) = sAu + tAv = sb + tb = (s + t)b = b.
Basta ora convincersi (farlo!) che, al variare di s, t ∈ K tali che s + t = 1, le colonne su + tv
formano un insieme infinito.
Un sistema che ammette soluzioni si dice compatibile, altrimenti incompatibile.
Osservazione Un sistema omogeneo Ax = 0m ha sempre la soluzione 0n (detta la soluzione
triviale): infatti A0n = 0m . L’insieme
S = {u ∈ K n | Au = 0}
delle soluzioni del sistema lineare omogeneo Ax = 0 `e un sottospazio di K n . Infatti se u, v ∈ S,
allora A(u + v) = Au + Av = 0 + 0 = 0 e quindi u + v ∈ S; se u ∈ S e c ∈ K, allora
A(cu) = cAu = c0 = 0 e quindi cu ∈ S.
Osservazione Se c0 `e una qualunque fissata soluzione del sistema compatibile Ax = b, l’insieme
delle soluzioni del sistema `e
c0 + S = {c0 + u | u ∈ S}
ove S ≤ K n `e il sottospazio delle soluzioni del sistema omogeno Ax = 0 (detto sistema omogeno
associato). Infatti, se Ac0 = b, Au = 0, allora A(c0 + u) = Ac0 + Au = b + 0 = b. Quindi tutte
le colonne c0 + u, u ∈ S, sono soluzioni del sistema. Facciamo ora vedere che ogni soluzione c del
sistema ha questa forma: posto u = c − c0 , `e A(c − c0 ) = Ac − Ac0 = b − b = 0 e quindi u ∈ S.
Basta ora osservare che c = c0 + u.
3
Eliminazione gaussiana
Esempio 1 Sistemi 2 × 2
Consideriamo il sistema di due equazioni in due incognite
(
E1 : ax + by = e
E2 : cx + dy = f
e supponiamo che nessuna delle due equazioni sia degenere, i.e. sia i coefficienti a, b di E1 che
quelli c, d di E2 non siano entrambi nulli. Geometricamente, le due equazioni rappresentano due
rette nel piano coordinato e quindi abbiamo tre possibilit`a: le due rette si intersecano in un punto,
sono parallele ma distinte o coincidono. Nel primo caso le coordinate del punto di intersezione sono
l’unica soluzione del sistema. Nel secondo caso il sistema non ha soluzioni e nel terzo le coordinate
di ciascun punto della retta danno una soluzione del sistema (quindi infinite soluzioni). Ricordo
che due rette sono parallele se e solo se hanno la stessa pendenza ovvero se e solo se
−
d
b
=−
a
c
⇔
ad = bc
(la seconda comprende il caso a = 0 ⇔ b = 0, rette entrambe verticali). Guidati da queste semplici
considerazioni geometriche, risolviamo ora algebricamente il sistema.
Primo caso ad − bc 6= 0 (corrispondente al caso di rette non parallele). Facciamo vedere che
il sistema ha una sola soluzione. Moltiplichiamo la prima equazione per −c, la seconda per a e
sommiamo le due equazioni; otteniamo
−cE1 + aE2 : − acx − bcy + acx + ady = −ce + af ⇔ −bcy + ady = (ad − bc)y = af − ce
da cui segue
y=
af − ce
ad − bc
5
Osserviamo che a e c non possono essere entrambi nulli, altrimenti ad − bc = 0. Se a 6= 0, il sistema
E1 , −cE1 + aE2 ha le stesse soluzioni del sistema E1 , E2 e quindi, sostituendo il valore trovato per
y nell’equazione E1 , troviamo
ax + b
af − ce
= e ⇔ a(ad − bc)x = e(ad − bc) − b(af − ce) = a(de − bf )
ad − bc
da cui, semplificando, segue
de − bf
.
ad − bc
Similmente, se c 6= 0, il sistema −cE1 + aE2 , E2 ha le stesse soluzioni del sistema E1 , E2 e quindi,
sostituendo il valore trovato per y nell’equazione E2 , troviamo
x=
cx + d
af − ce
= f ⇔ c(ad − bc)x = f (ad − bc) − d(af − ce) = c(de − bf )
ad − bc
e troviamo lo stesso valore trovato sopra per x.
Osservazione Anticipiamo una definizione che verr`a data pi`
u avanti. Se A =
a11
a21
a12
a22
`e una
matrice quadrata di ordine 2, il determinante di A `e definito da
a
a
a12
a12 def
det A = det 11
= a11 a22 − a12 a21
= |A| = 11
a21 a22
a21 a22 Possiamo ora interpretare le formule trovate sopra per la soluzione del sistema. Poniamo
a b
e b
a e
A=
, A1 =
, A2 =
c d
f d
c f
ove A1 (risp. A2 ) `e la matrice che si ottiene da A sostituendo la prima (risp. seconda) colonna con
la colonna dei termini noti del sistema. Posto
∆ = det A = ad − bc,
∆1 = det A1 = de − bf,
∆2 = det A2 = af − ce
la soluzione si pu`
o scrivere (regola di Cramer per sistemi quadrati di ordine 2 con ∆ 6= 0)
x=
∆1
,
∆
y=
∆2
.
∆
Vedremo che queste formule si generalizzano a sistemi quadrati di ordine qualunque.
Secondo caso ad = bc (che corrisponde al caso di rette parallele). Osserviamo che a = 0 ⇔ c = 0:
infatti se a = 0 deve essere b 6= 0 perch´e, per ipotesi, E1 `e un’equazione non degenere; d’altra parte
se a = 0, allora ad = 0 e quindi, essendo ad − bc = 0, anche bc = 0; poich´e b 6= 0 deve essere c = 0;
similmente si dimostra che c = 0 ⇒ a = 0 e anche che b = 0 ⇔ d = 0.
Supponiamo ora che a 6= 0, b 6= 0 e quindi c 6= 0, d 6= 0. Da ad = bc segue che
d
c
=
a
b
Posto λ = c/a = d/b 6= 0 risulta (c, d) = λ(a, b). A questo punto abbiamo due possibilit`a:
primo sottocaso f =
6 λe ⇔ af 6= ce (corrispondente al caso di rette parallele ma non coincidenti).
In questo sottocaso il sistema chiaramente non ha soluzioni;
secondo sottocaso f = λe ⇔ af = ce (rette coincidenti). In questo caso E2 = λE1 e quindi ogni
soluzione di E1 `e soluzione di E2 e viceversa. Le soluzioni di E1 sono infinite
e a
x = t, y = − t, t ∈ K.
b
b
Se a = c = 0 e quindi b 6= 0 6= d (rette orizzontali),
E1 : by = e,
E2 : dy = f.
Il sistema non ha soluzioni se eb 6= fd ⇔ de 6= bf , infinite soluzioni se
Se b = d = 0 e quindi a 6= 0 6= c (rette verticali),
E1 : ax = e,
E2 : cx = f.
6
e
b
=
f
d
⇔ de = bf .
Il sistema non ha soluzioni se
e
a
6=
f
c
⇔ ce 6= af , infinite soluzioni se
e
b
=
f
d
⇔ ce = af .
Esempi 1. Risolvere il sistema
(
E1 : x − 2y = 1
E2 : 3x + y = 2
Seguendo il procedimento esposto, −3E1 + E2 : 7y = −1 e quindi il sistema diventa
(
x − 2y = 1
7y = −1
e quindi si ottiene y = −1/7
d`
a x = 5/7. Usando la regola
nella
prima equazione
che, sostituito
1 1
1 −2
1 −2
= 7, ∆1 = di Cramer, ∆ = 2 1 = 5, ∆2 = 3 2 = −1, x = ∆1 /∆ = 5/7,
3 1
y = ∆2 /∆ = −1/7.
2. Risolvere il sistema
(
E1 : x − 2y = 1
E2 : 3x − 6y = 2
In questo caso −3E1 + E2 : 0 = −1 e quindi si ottiene una equazione degenere incompatibile.
Nessuna soluzione.
3. Risolvere il sistema
(
E1 : x − 2y = 1
E2 : 3x − 6y = 3
In questo caso −3E1 + E2 : 0 = 0, equazione superflua. Dunque le soluzioni del sistema sono le
infinite soluzioni dell’equazione E1 che possiamo scrivere
x = 1 + 2t,
y = t,
t ∈ K.
Esempio 2 Sistema triangolare.
Risolvere il seguente sistema quadrato di ordine 4 nelle incognite x1 , x2 , x3 , x4
x1 + 7x2 − 3x3 − x4 = −2
−6x2 + 2x3 + x4 = 0
x3 − 2x4 = 1
3x4 = 6
Si risolve l’ultima equazione: x4 = 2, si sostituisce questo valore di x4 nella terza equazione e si
trova l’equazione x3 − 4 = 1 che d`
a x3 = 5; si sostituiscono i valori trovati per x4 e x3 nella seconda
equazione e si trova l’equazione −6x2 + 10 + 2 = 0 e quindi x2 = 2; si sostituiscono infine i valori
trovati per x4 , x3 , x2 nella prima equazione e si ottiene x1 = 1. Una sola soluzione.
Esempio 3 Sistema a scala (= la matrice completa del sistema `e a scala). Risolvere il sistema
2x1 − 2x2 + 3x3 − 6x4 + 7x5 = −3
x3 − 4x4 + 5x5 = 1
2x4 − 4x5 = 2
La matrice completa del sistema `e

2
 0
0
−2
0
0
3 −6 7
1 −4 5
0 2 −4

−3
1 
2
i pivot sono nelle colonne 1, 3 e 4. Le incognite corrispondenti ai pivot si dicono incognite pivot,
le rimanenti si dicono incognite libere, in questo caso le incognite pivot sono x1 , x3 , x4 , quelle
libere sono x2 , x5 . Per risolvere il sistema si assegnano valori arbitrari, detti parametri, alle
incognite libere, x2 = u, x5 = v e poi, a partire dal fondo si calcolano i valori delle incognite pivot
7
in funzione dei parametri:
1) porre x5 = v nella terza equazione e calcolare x4 :
2x4 − 4v = 2
⇔
2x4 = 2 + 4v
⇔
x4 = 1 + 2v
2) porre x4 = 1 + 2v e x5 = v nella seconda equazione e calcolare x3 :
x3 − 4(1 + 2v) + 5v = 1
⇔
x3 − 4 − 3v = 1
⇔
x3 = 5 + 3v
3) porre x2 = u, x3 = 5 + 3v, x4 = 1 + 2v, x5 = v nella prima equazione e calcolare x1 :
2x1 − 2u + 3(5 + 3v) − 6(1 + 2v) + 7v = −3
⇔
x1 = −6 + u − 2v
Questo procedimento di sostituzione a partire dall’ultima equazione e risalendo si chiama sostituzione all’indietro (back-substitution). La soluzione generale del sistema in forma parametrica `e data da
x1 = −6 + u − 2v,
x2 = u,
x3 = 5 + 3v,
x4 = 1 + 2v,
x5 = v.
Operazioni elementari
Abbiamo visto nell’esempio 1 come sia utile manipolare le equazioni di un sistema senza cambiare
le soluzioni del sistema in modo da ottenere un sistema pi`
u facile da risolvere.
` immediato verificare che le seguenti operazioni non cambiano le soluzioni di un sistema lineare:
E
1) scambiare due equazioni,
2) moltiplicare un’equazione per una costante non nulla,
3) sommare un multiplo di una equazione ad un’altra equazione.
Esempio Consideriamo il sistema


E1 : 2x1 + 4x2 − 3x3 = −2
E2 : x1 − 3x2 + 2x3 = 3


E3 : 3x1 + 5x2 − x3 = 1
Chiaramente il sistema


E2 : x1 − 3x2 + 2x3 = 3
E1 : 2x1 + 4x2 − 3x3 = −2


E3 : 3x1 + 5x2 − x3 = 1
ottenuto scambiando la prima e la seconda equazione ha le stesse soluzioni del precedente sistema.
Stesse soluzioni ha il sistema


E1 : 2x1 + 4x2 − 3x3 = −2
3E2 : 3x1 − 9x2 + 6x3 = 9


E3 : 3x1 + 5x2 − x3 = 1
ottenuto moltiplicando per 3 la seconda equazione. Idem per il sistema


E1 : 2x1 + 4x2 − 3x3 = −2
E2 : x1 − 3x2 + 2x3 = 3


E3 + 2E1 : 7x1 + 13x2 − 7x3 = −3
ottenuto sommando alla terza riga la prima moltiplicata per 2.
Queste operazioni si traducono in operazioni sulle righe della matrice completa del sistema: R1)
scambiare due righe,
R2) moltiplicare una riga per una costante non nulla,
R3) sommare ad una riga il multiplo di un’altra riga.
Queste operazioni si chiamano operazioni elementari sulle righe di una matrice. Pi`
u precisamente
si,j :
scambiare le righe i-ma e j-ma,
mi (a) :
moltiplicare la riga i-ma per la costante a 6= 0,
8
ai,j (c) :
sommare alla riga j-ma la i-ma riga moltiplicata per la costante c.
Queste operazioni sono tutte invertibili: l’inversa di si,j `e la stessa si,j , quella di mi (a) `e mi (a−1 )
e quella di ai,j (c) `e ai,j (−c).
Esempio

2
 1
3

2
 1
3

2
 1
3


−2
1 −3
s1,2
3  −→  2 4
1
3 5


4 −3 −2
2 4
m2 (3)
3  −→  3 −9
−3 2
5 −1 1
3 5


4 −3 −2
2 4
a1,3 (2)
−3 2
3  −→  1 −3
5 −1 1
7 13
4 −3
−3 2
5 −1
2
−3
−1
−3
6
−1
−3
2
−7

3
−2 
1

−2
9 
1

−2
3 
−3
Date due matrici A, B della stessa taglia m × n, la matrice B si dice equivalente per righe alla
matrice A se B si ottiene applicando ad A un numero finito di operazioni elementari sulle righe.
Scriveremo A ∼ B se B `e equivalente per righe ad A.
Esercizio Dimostrare che ∼ `e una relazione di equivalenza, i.e. valgono le seguenti propriet`a:
• propriet`
a riflessiva: A ∼ A,
• propriet`
a simmetrica: se A ∼ B allora B ∼ A,
• propriet`
a transitiva: se A ∼ B e B ∼ C allora A ∼ C.
Chiaramente se A e B sono le matrici complete di due sistemi lineari e A ∼ B, i due sistemi hanno
le stesse soluzioni.
Teorema Ogni matrice `e equivalente per righe ad una matrice a scala (per righe).
Dim. Se A = 0 la matrice `e a scala. Supponiamo A 6= 0.
1. Sia la colonna di indice j1 la prima (a partire da sinistra) colonna non nulla di A (colonna
pivot). Quindi esiste nella colonna j1 -ma un elemento non nullo che, dopo un eventuale scambio
di righe possiamo supporre essere a1j1 6= 0.
2. Per ogni riga di indice i > 2, con l’ operazione elementare a1,i (c) con c = −ai,j1 /a1,j1 , ottengo
una matrice che ha l’elemento di posto ij1 uguale a 0. Quindi ottengo una matrice A1 equivalente
per righe ad A che ha a1,j1 come primo pivot.
3. Consideriamo adesso la sottomatrice A01 ottenuta da A1 rimuovendone la prima riga. Ripeto su
A01 il procedimento descritto nei punti 1 e 2, ottenendo una matrice equivalente per righe con un
secondo pivot, a2,j2 . Reintroducendo in quest’ultima la prima riga di A1 si ottiene una matrice A2
con due pivot ed equivalente per righe ad A.
4. Ripetendo questo procedimento fino a che resta una sottomatrice con le righe tutte nulle, si
ottiene una matrice a scala equivalente per righe alla matrice A. CVD
Rango di una matrice
Data una matrice A di taglia m × n, denotiamo con R(A) (riso. C(A)) il sottospazio di Rn (riso.
Rm ) generato dalle righe (risp. dalle colonne) della matrice A. Il rango della matrice A `e la
dimensione di R(A), ovvero il numero delle righe linearmente indipendenti della matrice A.
Teorema La dimensione di R(A) e la dimensione di C(A) coincidono. Quindi il rango di una matrice `e uguale sia al numero di righe linearmente indipendenti che al numero di colonne linearmente
indipendenti.
La dimostrazione verr`
a data pi`
u avanti. Segue subito da questo Teorema che rango A ≤ min{m, n}.
Teorema Due matrici equivalenti per righe hanno lo stesso rango.
Dim. Facciamo vedere che, data una matrice A, se e `e una operazione elementare, allora rango e(A) =
rango A. Chiamiamo R1 , R2 , . . . , Rm le righe della matrice A. Allora R(A) = hR1 , R2 , . . . , Rm i.
Se e = si,j , chiaramente R(e(A)) = R(A) perch´e l’operazione cambia solo l’ordine delle righe.
Se e = mi (a), a 6= 0, allora R(e(A)) = hR1 , . . . , Ri , . . . , Rm i = hR1 , . . . , aRi , . . . , Rm i. Se
e = ai,j (c), allora R(e(A)) = hR1 , . . . , Ri , . . . , cRi + Rj , . . . , Rm i = hR1 , . . . , Ri , . . . , Rj , . . . , Rm i
9
perch´e Rj = (cRi +Rj )−cRi . Se B `e equivalente per righe ad A, allora B = eh ◦eh−1 ◦· · ·◦e2 ◦e1 (A),
dove e1 , e2 , . . . , eh sono operazioni elementari. Segue che
rango B = rango eh ◦ eh−1 ◦ · · · ◦ e2 ◦ e1 (A) = rango eh (eh−1 ◦ · · · ◦ e2 ◦ e1 (A)) =
rango eh−1 ◦ · · · ◦ e2 ◦ e1 (A) = . . . = rango e2 (e1 (A)) = rango e1 (A) = rango A.
CVD
Teorema Il rango di una matrice A `e uguale al numero di righe non nulle di una qualunque matrice
a scala B ad essa equivalente per righe.
Dim. Sappiamo che R(A) = R(B). Quindi rango A = dim R(A) = dim R(B). Sappiamo che le
righe non nulle di B sono linearmente indipendenti e quindi formano una base di R(B). CVD
Esempio Ridurre a scala (per righe) la seguente matrice e calcolarne il rango


1 2 −3 1 2
A = 2 4 −4 6 10
3 6 −6 9 13
La prima `e una colonna non nulla e

1 2
a1,2 (−2)
A −→ 0 0
3 6
La seonda colonna pivot `e

1
0
0
conviene prendere l’elemento di posto


−3 1 2
1 2 −3 1
a1,3 (−3)
2
4 6 −→ 0 0 2 4
9 −4 2
0 0 3 6
la terza colonna con pivot = 2


2 −3 1 2
1 2
a1,3 (−3/2)
0 2 4 6 −→  0 0
0 3 6 7
0 0
−3 1
2 4
0 0
11 come primo pivot:

2
6
7

2
6 
−2
e quest’ultima `e una matrice a scala con i pivot evidenziati. Il rango di A `e 3.Applicando le
operazioni elementari m2 (1/2) e m3 (−1/2) si ottiene la matrice a scala ridotta


1 2 −3 1 2
0 0 1 2 3
0 0 0 0 1
Una matrice si dice in forma canonica per righe se
1. `e una matrice ridotta a scala per righe,
2. gli elementi di ogni colonna pivot sono tutti uguali a zero tranne il pivot (uguale a 1).
Da una matrice a scala `e facile ottenere una forma canonica equivalente per righe: con operazioni
di tipo mi (a) si fanno diventare uguali ad 1 tutti i pivot e con operazioni elementari di tipo ai,j (c)
si fanno divenatre uguali a zeo tutti gli elementi che stanno sopra i pivot. Nell’esempio precedente




1 2 0 7 11
1 2 −3 1 2
(−11)
a2,1 (3)
0 0 1 2 3 −→ 0 0 1 2 3  a3,1−→
0 0 0 0 1
0 0 0 0 1




1 2 0 7 0
1 2 0 7 0
a3,2 (−3)
0 0 1 2 3 −→ 0 0 1 2 0
0 0 0 0 1
0 0 0 0 1
Ogni matrice ha infinite matrici a scala ad essa equivalenti. Possiamo per`o fornire alcune precisazioni.
Teorema Se A e B sono matrici a scala con R(A) = R(B) (in particolare se sono equivalenti
per righe) e se a1j1 , a2j2 , . . . , arjr e b1k1 , b2k2 , . . . , bsks sono i pivot di A e B rispettivamente, allora
r = s (hanno lo stesso numero di righe non nulle) e j1 = k1 , j2 = k2 , . . . , jr = kr (i pivot possono
non essere uguali ma occupano la stessa posizione).
Dim. Poich´e A e B sono equivalenti, R(A) = R(B) e quindi r = dim R(A) = dim R(B) = s.
Poich´e A = 0 se e solo se B = 0, possiamo supporre r = s > 0. Facciamo vedere che j1 = k1 .
Supponiamo che j1 < k1 . Segue che la j1 -ma colonna di B `e nulla. La prima riga R1 di A appartiene ad R(B) = R(A) e quindi, dette R10 , R20 , . . . , R?r le righe non nulle di B, R1 `e combinazione
10
lineare delle righe Ri0 , R1 = c1 R10 + c2 R20 + . . . + cr Rr0 . Poich´e la j1 -ma riga di B `e nulla, abbiamo
a1j1 = c1 0 + c2 0 + . . . + cr 0 = 0, assurdo essendo a1j1 un pivot e quindi ne0. Segue che j1 ≥ k1 .
Scambiando il ruolo di A e B si ottiene allo stesso modo che k1 ≥ j1 . Dunque j1 = k1 . L’asserto
`e dimostrato nel caso in cui r = 1.
Sia A1 (risp. B1 ) la sottomatrice ottenuta da A (risp. B) sopprimendovi la prima riga. Facciamo
vedere che R(A1 ) = R(B1 ). Da questo segue, come visto sopra, che j2 = k2 . Poi si itera il procedimento.
Sia Ri , i ≥ 2 la (i − 1)-ma riga di A1 . Poich´e R(A) = R(B), Ri = ci1 R10 + ci2 R20 + . . . + cir Rr0 .
Poich´e i ≥ 2 e A `e matrice a scala, la j1 -ma componente di Ri `e nulla. D’altra parte, B `e matrice
a scala e quindi tutti gli elementi della k1 -ma colonna sono tutti nulli eccetto il primo, il pivot
b1k1 6= 0. Quindi b2k1 = . . . = bmk1 = 0. Segue, ricordando che j1 = k1 ,
0 = aij1 = a1k1 = ci1 b1k1 + ci2 b2k1 + . . . + cir brk1 = ci1 b1k1 + ci2 0 + . . . + cir 0 = ci1 b1k1
e quindi ci1 = 0. Segue che R(A1 ) ≤ R(B1 ). Scambiando il ruolo di A e B si trova R(B1 ) ≤ R(A1 )
e quindi R(A1 ) = R(B1 ). CVD
Teorema Siano A e B matrici in forma canonica per righe. Allora R(A) = R(B) se e solo se
hanno le stesse righe non nulle. Segue che ogni matrice `e equivalente per righe ad una ed una sola
forma canonica per righe.
Dim. Se A e B hanno le stesse righe non nulle chiaramente R(A) = R(B).
Viceversa, supponiamo R(A) = R(B). Sia R la i-ma riga di A, 1 ≤ i ≤ r. allora R = c1 R10 +
c2 R20 + . . . + cr Rr0 (notazioni della dim. precedente). Sia aiji il pivot di R (il primo elemento non
`
nullo di R). E
1 = aiji = c1 b1ji + c2 b2ji + . . . + cr brji
Dal teorema precedente segue che biji `e il pivot della i-ma riga di B. Poich´e B `e in forma canonica,
abbiamo bhji = 0 per ogni h 6= i. Dunque aiji = ci biji . Poich´e i pivot , sia di A che di B, sono
tutti uguali a 1, troviamo che ci = 1.
Se h 6= i, abbiamo aijh = c1 b1jh + c2 b2jh + . . . + cr brjh . Ora bhjh = 1 `e il pivot della riga Rh0 e
quindi, essendo B in forma canonica, abbiamo bkjh = 0 se k 6= h. Segue che aijh = ch bhjh = ch .
Ora ahjh `e il pivot della h-ma riga di A. Poich´e A `e in forma canonica, ahjh `e l’unico elemento 6= 0
della colonna jh -ma. Poich´e, per ipotesi, i 6= h, `e aijh = 0 e quindi ch = 0 per ogni h 6= i. Segue
che R = Ri0 .
Supponiamo che A1 e A2 siano due matrici in forma canonica per righe equivalenti per righe. Segue
che R(A1 ) = R(A2 ) e quindi A1 e A2 hanno le stesse righe dunque A1 = A2 . CVD
Esempio Consideriamo i seguenti vettori di R4
u1 = (1, 5, −5, 9),
u2 = (3, 7, −3, 11),
w1 = (1, 3, −2, 5),
u3 = (3, 5, 0, 7),
w2 = (2, 4, −1, 6).
` vero o falso che i sottospazi U = hv1 , v2 , v3 i e W = hw1 , w2 i coincidono?
E
Consideriamo le matrici


1 5 −5 9
1 3 −2 5
A = 3 7 −3 11 , B =
2 4 −1 6
3 5 0
7
le cui righe sono le coordinate dei vettori ui e dei vettori wj rispettivamente. Calcoliamo le
canoniche per righe di entrambe le matrici.





1 5 −5 9
1
5
−5
9
1 5 −5
a1,2 (−3),a1,3 (−3)
m2 (−1/4),m3 (−1/5)
3 7 −3 11
0 −8 12 −16
0 2 −3
−→
−→
3 5 0
7
0 −10 15 −20
0 2 −3





5
1 5 −5 9
1 0
−1
1 5 −5 9
2
a2,1 (−5)
a2,3 (−1)
m2 (1/2)
2
−→ 0 2 −3 4 −→ 0 1 − 23 2 −→ 0 1 − 23
0 0 0 0
0 0 0 0
0 0 0
0
5
−2 5 a1,2 (−2) 1 3 −2 5 m2 (−1/2) 1 3 −2 5 a2,1 (−3) 1 0
2
−→
−→
−→
3
−1 6
0 −2 3 −4
0 1 −2 2
0 1 − 23
forme

9
4
4

1
2
3
4
11
−1
2
Segue che U = R(A) = R(B) = W .
Esercizi Trovare una matrice a scala equivalente per righe alla matrice data e calcolarne il rango.
2 1
2 −4
3 2
1.
2.
3.
1 −3
−4 8
1 −1

2
2
3

1 4
−3 4
4.
−2 6


2 1 4
8. 2 −3 4 9.
3 −2 6

2 −1
12. 1 −2
1 −5

2 −2 −1
3 −2 3
15. 
1 −1 1
2 −1 2

18.
2
1
2
1
0
3
3
2
1
4
1
5

2
3
7


2 −1
5.
6. 3 2
2 5


3 7 10
3 −3
2 3 −1 10. 2 −2
1 2 1
6 −6



3 4
1 −2 1 3
1 3 13. 3 −6 2 7 
0 5
4 −8 3 10



4 7 4 7
3


1
 16. 3 5 3 5 
2 −2 2 −2
0
5 −2 5 −2
2
0
0
0

19.

3
4
5

1
1
3
2
3
4
4
6
8
2
2
2
−2
2
6
5
0
−5



7.

6
4
12
2
3
2

−1
1
−2

3
−2
1
3
5
3
11.  2
−2 −1


0 1 2 1
14. 0 3 1 2
0 2 0 1

1 −1 −1
3 −2 0
17. 
2 −1 2
4 −2 3


1 2 1 2
1
2 4 3 5
4 20. 
3 6 4 9
7
1 2 4 3

−12
−7 
1

2
7

4
8
1
5
10
6

2
7

11
9
Lo spazio delle colonne
Ricordo che, data una matrice A di taglia m × n, C(A) denota il sottospazio di Rn generato dalle
n colonne della matrice. Faremo vedere che
dim C(A) = rango A = dim R(A).
Questo significa che il numero delle colonne linearmente indipendenti di una matrice coincide con
il numero delle righe linearmente indipendenti della matrice. Questo risultato sar`a conseguenza di
un metodo che adesso esponiamo per estrarre dalle colonne di A una base di C(A). Consideriamo
per esempio la seguente matrice in forma canonica per righe


1 2 0 3 0
0 0 1 5 0

A=
0 0 0 0 1
0 0 0 0 0
Chiaramente le colonne linearmente indipendenti sono le colonne pivot, la prima C1 , la terza C3 e
la quinta C5 . Si noti che C1 = e1 , C3 = e2 , C5 = e3 , ove e1 , e2 , e3 sono i primi tre elementi della
base standard di R5 (messi in colonna). Le rimanenti due, C2 e C4 , sono combinazione lineare delle
colonne che le precedono:
C2 = 2e1 = 2C1 ,
C4 = 3e1 + 5e2 = 3C1 + 5C3 .
Questo esempio fa capire cosa succede i generale per una matrice A, di taglia m × n, in forma
canonica per righe. Le colonne linearmente indipendenti sono le colonne pivot (che sono tante
quanti i pivot della matrice e quindi tante quanto `e il rango di A). Se Cj1 , Cj2 , . . . , Cjr , r =
rango A, sono le colonne pivot, allora Cj1 = e1 , Cj2 = e2 , ...,Cjr = er , ove e1 , e2 , ..., er sono
i primi r elementi della base standard di Rn messi in colonna. Ciascuna delle colonne non pivot
`e combinazione lineare delle colonne pivot che la precedono. Dunque C(A) = he1 , e2 , . . . , er i e
dim C(A)0rango A.
Consideriamo ora una matrice arbitraria A di taglia m × n e troviamo la sua forma canonica per
righe, chiamiamola B. Siano a1 , a2 , . . . , an , rispettivamente b1 , b2 , . . . , bn , le colonne di A e B:
A = a1 a2 . . . an , B = b1 b2 . . . bn
12
I sistemi lineari omogenei
(5)
x1 a1 + x2 a2 + . . . + xn an = 0
(6)
x1 b1 + x2 b2 + . . . + xn bn = 0
hanno le stesse soluzioni perch´e i due sistemi hanno matrici associate equivalenti per righe. Se
bj1 = e1 , bj2 = e2 , ...,bjr = er sono le colonne pivot di B, r = rango B = rango A, dico che le
colonne aj1 , aj2 , ..., ajr formano una base dello spazio delle colonne C(A). Facciamo vedere infatti
che
1) le colonne aj1 , aj2 , ..., ajr sono linearmente indipendenti,
2) ogni rimanente colonna aj , con j 6= j1 , j2 , . . . , jr `e combinazione lineare delle colonne aj1 , aj2 ,
..., ajr .
Primo punto: ragioniamo per assurdo e supponiamo che esistano scalari cj1 , cj2 , . . . , cjr non tutti
nulli tali che
cj1 aj1 + cj2 aj2 + . . . + cjr ajr = 0
Segue che (0, . . . , 0, cj1 , 0, . . . , 0, cj2 , 0, . . . , 0, cjr , 0, . . . , 0) `e una soluzione non nulla del sistema (5)
e quindi anche del sistema (6). Segue che
cj1 bj1 + cj2 bj2 + . . . + cjr bjr = cj1 e1 + cj2 e2 + . . . + cjr er = 0.
Poich´e abbiamo supposto che gli scalari cj1 , cj2 , . . . , cjr non sono tutti nulli, troviamo un assurdo,
essendo le colonne e1 , e2 , . . . , er linearmente indipendenti.
Secondo punto: dato j 6= j1 , j2 , . . . , jr , sia h il massimo intero tale che 1 ≤ h ≤ r e j > jh . Allora
bj = cj1 bj1 + cj2 bj2 + . . . + cji bjh
per opportuni scalari cj1 , cj2 , . . . , cjh . Segue che (x1 , x2 , . . . , xn ) con


−1 se k = j
xk = ck se k = j1 , j2 , . . . , jh


0 altrimenti
`e soluzione del sistema (6) e quindi anche del sistema (5). Segue che
aj = cj1 aj1 + cj2 aj2 + . . . + cji ajh .
Nel caso in cui j < j1 , allora bj = 0. Segue che (x1 , x2 , . . . , xn ) con
(
1 se k = j
xk =
0 se k =
6 j
`e soluzione del sistema (6) e quindi anche del sistema (5). Segue che aj = 0. Abbiamo dimostarto
che ogni aj `e combinazione lineare delle colonne aj1 , aj2 , ..., ajr . Segue che
C(A) = haj1 , aj2 , . . . , ajr i.
In particolare dim C(A) = rango A.
Teorema Il massimo numero di colonne linearmente indipendenti di una matrice A coincide con
il rango della matrice A.
` necessario trovare la forma canonica per righe di A per determinare le colonne che danno una
E
` sufficiente trovare una riduzione a scala della matrice A. Questo
base di C(A)? La risposta `e no. E
perch´e la forma canonica per righe di una matrice si ottiene da una qualunque riduzione a scala
per righe della matrice senza cambiare la posizione delle colonne pivot.
Per estrarre una base dello spazio delle colonne di una matrice A dalle colonne di A
• si trova una matrice a scala per righe B equivalente ad A,
• la base cercata `e data dalle colonne di A che hanno lo stesso indice delle colonne pivot di B.
13
Esempio Consideriamo la matrice

1
2
A=
5
−3
2 −1
4 −2
10 −5
−6 3
Una riduzione a scala di A `e la matrice

1 2
0 0

0 0
0 0
−1
0
0
0
−2
1
0
0
−2
−3
−3
2

−1
−1

−1
1

−1
1

1
0
Le colonne pivot sono la prima, la quarta e la quinta. Segue che
C(A) = h 1
2
5
t
3 , −2
−3
−3
t
2 , −1
−1
t
1 i.
−1
Esempio Consideriamo i vettori u1 = (1, 3, 3), u2 = (1, 5, −1), u3 = (2, 7, −4) e u4 = (1, 4, 1).
Vogliamo estrarre dai vettori u1 , u2 , u3 , u4 una base del sottospazio U = hu1 , u2 , u3 , u4 i. Si
mettono in colonna i quattro vettori, si calcola una riduzione a scala e i vettori cercati sono quelli
corrispondenti alle colonne che hanno lo stesso indice delle colonne pivot della ridotta a scala:

 

1 1
2 1
1 1 2 1
3 5
7 4 ∼ 0 2 1 1
3 −1 −4 1
0 0 0 0
Le colonne pivot della ridotta sono la prima e la seconda. Segue che U = h(1, 3, 3), (1, 5, −1)i.
Esercizi 1. Determinare basi di R(A) e di C(A) per le seguenti matrici



1 2 3
0 3
1 −2
1 1 −3 2
,
, 5 6 7  , 0 −6
−3 6
3 4 −11 7
9 10 11
0 12

1
1
3
−1
1
1
2
−2
4

3
6 ,
2

1
3

1
5
2
6
2
10

3
5
,
−1
7
−1
−3
−1
−5

1
2

1
3
2
4
2
6
1
3
2
6
2
7
5
15

1
−2 ,
4
3
7
5
14

1
4
.
6
15
2. Estrarre una base dai generatori dei seguenti sottospazi di R4
h(1, 1, −1, 2), (2, 1, 3, −4), (1, 2, −6, 10)i,
h(1, 4, 1, 3), (2, 8, 3, 5), (1, 4, 0, 4), (2, 8, 2, 6)i.
Risoluzione dei sistemi lineari con il metodo di Gauss
Dato un sistema lineare Ax = b, il metodo di Gauss consiste nel
• trovare una matrice a scala (B | c) equivalente per righe alla matrice completa del sistema
(A | b),
• risolvere con il metodo della sostituzione all’indietro il sistema a scala equivalente Bx = c.
Esempio 1 Risolvere il sistema


3x − 2y + 2z = 9
x − 2y + z = 5


2x − y − 2z = −1
Riduzione a scala della matrice completa



3 −2 2
9
1 −2 1
s1,2
 1 −2 1
5  −→  3 −2 2
2 −1 −2 −1
2 −1 −2


5
1
a1,2 (−3),a1,3 (−2)
 0
9 
−→
−1
0
14
−2
4
3
1
−1
−4

5
−6 
−11

1
−→  0
0
a3,2 (−1)
−2
1
3
1
3
−4


5
1
a2,3 (−3)
5  −→  0
0
−11
−2
1
0


5
1
1
m3 (−1/13)
5  −→  0
3
−13 −26
0
−2
1
0

1 5
3 5 
1 2
Il sistema corrispondente alla riduzione a scala `e


 x − 2y + z = 5
y + 3z = 5


z=2
Questo sistema ha le stesse soluzioni del sistema di partenza. Per trovarle usiamo il metodo di
sostituzione all’indietro:
z = 2,
y = 5 − 3z = −1,
x = 5 + 2y − z = 1.
Quindi il sistema ha una sola soluzione: (1, −1, 2).
Volendo, si pu`
o andare avanti con la riduzione e trovare la forma canonica






1 0 7 15
1 0 0 1
1 −2 1 5
a2,1 (2)
a3,2 (−3),a3,1 (−7)
 0 1 0 −1 
 0 1 3 5  −→  0 1 3 5 
−→
0 0 1 2
0 0 1 2
0 0 1 2
Il sistema equivalente `e quindi


 x


y
= 1
= −1
z= 2
da cui si legge direttamente la soluzione. L’utilizzo della forma canonica ha il vantaggio che non
richiede la sostituzione all’indietro. Lo svantaggio `e che la riduzione a forma canonica richiede un
numero maggiore di operazioni elementari rispetto alla riduzione a scala. Gli esperti di algoritmi
hanno stabilito che costa di meno, `e pi`
u efficiente, fermarsi alla riduzione a scala seguita dalla
sostituzione all’indietro.
Notare che rango A = rango A# = numero delle incognite.
Teorema 1 Sia Ax = b un sistema m × n. Se rango A = rango A# = rango (A | b) = n, allora il
sistema ha una sola soluzione.
Dim. Se rango A = rango A# = n, allora la riduzione a scala della matrice A porta ad una matrice
con n righe non nulle e la matrice completa A# ha la forma


p1 ∗ ∗ ∗ · · · ∗ ∗
 0 p2 ∗ ∗ · · · ∗ ∗ 


 0 0 p3 ∗ · · · ∗ ∗ 


 ..
..
.. .. . .
.. .. 
 .
.
.
. .
. . 


 0 0 0 0 · · · pn ∗ 


 0 0 0 0 ··· 0 0 


 .
..
.. .. . .
.. .. 
 ..
.
. .
. . 
.
0 0 0 0 ··· 0 0
dove p1 , p2 , . . . , pn sono n pivot (quindi tutti 6= 0) e le ultime m − n righe sono tutte nulle. Quindi
si ottiene un sistema triangolare in cui le ultime m − n equazioni sono superflue. Con il metodo
della sostituzione all’indietro si ricava l’unica soluzione del sistema. CVD
Osserviamo che rango A ≤ rango A# perch´e una riduzione a scala B # di A# comprende una
riduzione a scala B di A e quindi il numero di righe non nulle di B # `e maggiore o uguale al
numero delle righe non nulle di B. Segue che, oltre al caso ora visto,le rimanenti possibilit`a sono:
rango A < rango A# o rango A = rango A# < n.
Esempio 2 Risolvere il sistema


x 1 + x 2 − x 3 + x 4 = 1
2x1 + 3x2 + x3 = 4


3x1 + 5x2 + 3x3 − x4 = 5
15
Riduciamo a scala

1 1 −1 1
 2 3 1
0
3 5 3 −1
la matrice completa del


1
a1,2 (−2),a1,3 (−3)

4 
−→
5
sistema:
1
0
0
1
1
2
−1
3
6
1
−2
−4


1
1 1
a2,3 (−2)
2  −→  0 1
2
0 0
−1
3
0
1
−2
0

1
2 
−2
L’ultima riga d`
a l’equazione 0 = 0x1 + x2 + 0x3 + 0x4 = −2 e quindi il sistema `e incompatibile. In
questo esempio abbiamo rango A = 2 < rango A# = 3.
Teorema 2 Sia Ax = b un sistema m × n. Se rango A < rango A# = rango (A | b), allora il
sistema non ha soluzioni.
Dim. Se rango A < rango A# , nella riduzione a scala di A# compare una riga il cui primo elemento
non nullo p `e l’elemento dell’ultima colonna. Questa riga d`a un’equazione della forma 0x1 + 0x2 +
. . . + 0xn = p 6= 0 che non ha soluzioni. Segue che il sistema `e incompatibile. CVD
Consideriamo infine l’ultimo caso: rango A = rango A# < n.
Esempio 3 Risolvere il sistema


5x1 − 6x2 + x3 = 4
2x1 − 3x2 + x3 = 1


4x1 − 3x2 − x3 = 5
Riduciamo a scala la matrice completa del sistema:





1 −3 2 −1
1
5 6
1 4
(−1)
a1,2 (−2),a1,3 (−4)
 0
 2 −3 1 1  a3,1
1 
−→  2 −3 1
−→
4 −3 −1 5
4 −3 −1 5
0

1
m2 (1/3)
−→  0
0
−3
1
9
2
−1
−9


1
−1
a2,3 (−9)
1  −→  0
9
0
−3
1
0
2
−1
0
−3
3
9
2
−3
−9

−1
3 
9

−1
1 
0
Il sistema associato alla forma a scala `e
(
x1 − 3x2 + 2x3 = −1
x2 − x3 = 0
L’incognita libera `e x3 e la consideriamo come un parametro x3 = t. Dalle equazioni ricaviamo
con la sostituzione all’indietro x2 = 1 + t, x1 = −1 + 3x2 − 2x3 = −1 + 3(1 + t) − 2t = 2 + t. Segue
che l’insieme delle soluzioni `e l’insieme infinito
S = {(2 + t, 1 + t, t) | t ∈ R}
che dipende da 1 = 3 − 2, il numero delle equazioni meno il rango di A.
def
Teorema 3 Sia Ax = b un sistema m × n. Se r = rango A = rango A# = rango (A | b) < n,
allora il sistema ha infinite soluzioni che dipendono da n − r parametri liberi.
Dim. Una qualunque riduzione a scala B # ha solo r < n equazioni nelle n incognite e quindi
vi saranno r incognite pivot ed n − r incognite libere. Fissati arbitrariamente i valori di queste
n − r incognite libere, le r incognite libere sono univocamente determinate tramite sostituzione
all’indietro dalle equazioni del sistema. Poich´e ogni incognita libera pu`o assumere infiniti valori,
le soluzioni formano un insieme infinito. CVD
Riassumendo quanto visto:
Teorema di Rouch´
e-Capelli Sia Ax = b un sistema lineare m × n. Poniamo r = rango A ed
r# = rango A# = rango (A | b). Allora
• Se r < r# , il sistema `e incompatibile.
• Se r = r# , il sistema `e compatibile ed
– esiste una ed una sola soluzione se e solo se r = r# = n,
– esiste un numero infinito di soluzioni se e solo se r = r# < n.
16
Sistemi omogenei
Teorema Sia Ax = 0 un sistema lineare omogeneo m × n e sia r = rango A. Allora l’insieme S
delle soluzioni del sistema `e un sottospazio vettoriale di dimensione n − r di Rn . In particolare, se
r = n, il sistema ha la sola soluzione triviale x = 0 e, se m < n, il sistema ha infinite soluzioni.
Dim. Chiaramente r = r# , quindi il sistema `e sempre compatibile. Poich´e x = 0 `e sempre una
soluzione, se r = n la soluzione unica `e x = 0. Se m < n, allora r ≤ m < n e vi sono infinite
soluzioni. Sappiamo che nel caso omogeneo le soluzioni formano un sottospazio vettoriale di Rn .
Se xj1 , xj2 , . . . , xjn−r sono le incognite libere in una riduzione a scala del sistema, una base del
sottospazio delle soluzioni `e data dalle soluzioni ottenute ponendo, per ognii = 1, 2, . . . , n − r,
xj1 = 0, . . . , xji−1 = 0, xji = 1, xji+1 = 0, . . . , xjn−r = 0. CVD
Esempio Risolvere il sistema


x1 + 2x2 − 3x3 + 2x4 − 4x5 = 0
2x1 + 4x2 − 5x3 + x4 − 6x5 = 0


5x1 + 10x2 − 13x3 + 4x4 − 16x5 = 0
Riduzione a scala:



1
1 2
−3 2 −4 0
a1,2 (−2),a1,3 (−5)

 2 4
−5 1 −6 0 
0
−→
5 10 −13 4 −16 0
0

1 2 −3 2 −4
a2,3 (−2)
−→  0 0 1 −3 2
0 0 0
0
0
2
0
0
−3
1
2

2
−3
−6
−4
2
4

0
0 
0
0
0 
0
Le incognite libere sono x2 = u, x4 = v e x5 = w da cui, sostituendo all’indietro, si ricava
x3 = 3v − 2w, x1 = −2u + 7v − 2w. Quindi il sottospazio delle soluzioni `e dato da
S = {(−2u + 7v − 2w, u, 3v − 2w, v, w) | u, v, w ∈ R}.
Per u = 1, v = 0, w = 0, si ottiene a = (−2, 1, 0, 0, 0),
per u = 0, v = 1, w = 0, si ottiene b = (7, 0, 3, 1, 0),
per u = 0, v = 0, w = 1, si ottiene c = (−2, 0, −2, 0, 1).
Segue che S = {ua + vb + wc | a, b, c ∈ R} e quindi S = ha, b, ci, il sottospazio generato da a, b, c
in R5 .
Sia A una matrice m × n. La nullit`
a di A, null A, `e, per definizione, la dimensione del sottospazio
delle soluzioni del sistema omogeneo Ax = 0. Dal precedente Teorema ricaviamo
Teorema Sia A una matrice m × n. Allora
rango A + null A = n
Esercizi Risolvere i seguenti sistemi lineari


2x − y + 3z = 14




3x + y − 2z = −1
3x − y = 1
2x + y + 5z = 4




7x + 2y − 3z = 3
7x − 5y − 8z = −3

5x − y − 2z = 5

x1 + 2x2 − x3 + x4 = 1



2x − 3x + x − x = 2
1
2
3
4

x
−
5x
+
2x
−
2x
1
2
3
4 =1



4x1 + x2 − x3 + x4 = 3


x1 + 2x2 − x3 + x4 = 1
2x1 + 4x2 − 2x3 + 2x4 = 2


5x1 + 10x2 − 5x3 + 5x4 = 5

x1 + x2 + x3 − x4 = 4



x − x − x − x = 2
1
2
3
4

x
+
x
−
x
+
x
1
2
3
4 = −2



x1 − x2 + x3 + x4 = −8


2x1 − x2 + 3x3 + x4 − x5 = 11





x1 − 3x2 − 2x3 − x4 − 2x5 = 2
3x1 + x2 − 2x3 − x4 + x5 = −2



x1 + 2x2 + x3 + 2x4 + 3x5 = −3



5x − 3x − 3x + x + 2x = 2
1
2
3
4
5


x1 + 2x2 + x3 + x4 − 2x5 = 3
x3 + 4x4 − 3x5 = 2


2x1 + 4x2 − x3 − 10x4 + 5x5 = 0
17
Risolvere i seguenti sistemi lineari omogenei


2x + y − z = 0


3x + 2y − z = 0



3x − y − 2z = 0
2x + y − z = 0


x−y−z =0



5x − 4y − z = 0

5x + 2y − 2z = 0


4x1 − 2x2 − x3 − x4 = 0
3x1 + x2 − 2x3 + 3x4 = 0


5x1 − x2 − 2x3 + x4 = 0

x−y+z =0



3y + 2z = 0

3x − z = 0



5x + y − z = 0

2x1 + x2 − x3 + x4 = 0



x + x + x − x = 0
1
2
3
4

3x
−
x
+
x
−
2x
1
2
3
4 =0



4x1 + 2x2 − x3 + x4
Esempio Si consideri, al variare del parametro k ∈ R, il sistema lineare a coefficienti reali nelle
incognite x1 , x2 , x3 , x4

x1 − kx3 = 0



x + (k + 1)x + x = 0
1
2
3
Sk :
(k 2 + k)x3 + kx4 = k



x1 − kx3 + kx4 = −1
(a) Determinare, al variare di k, il rango della matrice incompleta associata a Sk ed il rango della
matrice completa associata a Sk .
(b) Determinare, al variare di k, le soluzioni di Sk .
(c) Dire se esiste un valore di k per il quale lo spazio delle soluzioni di Sk `e uguale al sottospazio
h(1, −1, 1. − 1)i di R4 .
La matrice completa del sistema `e


1
0
−k
0 0
 1 k+1
1
0 0 


 0
0
k2 + k k k 
1
0
−k
k −1
Applicando le operazioni elementari a1,2 (−1) e a1,4 (−1) si ottiene la matrice


1
0
−k
0 0
 0 k+1 k+1 0 0 


 0
0
k2 + k k k 
0
0
0
k −1
Se k(k + 1) 6= 0, la matrice completa
Per k = 0 si ottiene la matrice

1 0 0
 0 1 1

 0 0 0
0 0 0
e la matrice incompleta hanno entrambe rango 4.
Quindi la matrice completa ha rango
Per k = −1 si ottiene la matrice

1 0 1
 0 0 0

 0 0 0
0 0 0
3 mentre la matrice incompleta ha rango 2.
0
0
0
0
0
0
−1
−1
 
1 0 0 0 0
0
 0 1 1 0 0
0 
∼
0   0 0 0 0 1
−1
0 0 0 0 0
 
0
1 0 1 0
 0 0 0 1
0 
∼
−1   0 0 0 0
−1
0 0 0 0





0
1 

0 
0
Segue che la matrice completa e la matrice incompleta hanno entrambe rango 2.
Soluzioni:
se k(k + 1) 6= 0, il sistema ha una sola soluzione; con il metodo della sostituzione all’indietro si
ricava
1
1
1
x4 = − , x3 = , x2 = − , x1 = 1;
k
k
k
18
per k = 0 il sistema `e incompatibile;
per k = −1 il sistema ha infinite soluzioni; le incognite libere sono x2 e x3 e quindi con la
sostituzione all’indietro si trovano le soluzioni
x4 = 1,
x3 = u,
x2 = v,
x1 = −u
al variare di u, v in R.
La risposta all’ultimo quesito `e negativa: il sistema Sk per nessun valore di k `e un sistema lineare
omogeneo, unico caso in cui le soluzioni di un sistema lineare formano un sottospazio vettoriale.
Pi`
u semplicemente, basta osservare che (0, 0, 0, 0) ∈ h(1, −1, 1, −1)i non `e soluzione del sistema:
facendo uguali a 0 tutte le incognite, la quarta equazione diventa 0 = −1 che `e incompatibile.
Esercizi 1. Studiare, al variare del parametro h, le soluzioni del sistema nelle incognite x, y, z


2x + (h + 1)y − z = 3





3x + (2h − 1)y − z = 3
hx + 2hz = −h2



x + (h − 2)y = 0



(1 + h)x + (h − 2)y + 2hz = −h
2. Discutere il sistema nelle variabili x1 , x2 , x3 , x4


x1 − x2 + 2x4 = b
ax1 + ax2 − 2x4 = c


−ax2 + (a + 1)x4 = a
al variare dei parametri a, b, c ∈ R.
3. Si consideri il sistema lineare Sk nelle incognite x1 , x2 , x3 , x4 a coefficienti reali definito da


x1 + 2kx3 + x4 = 1

2kx + (2k + 1)x = 2k
2
3
Sk :
x1 + 2kx2 + (6k + 2)x3 + x4 = 4k + 2



2kx2 + (2k + 1)x3 + (4k 2 + 2k)x4 = 2k
(a) Al variare di k, calcolare il rango della matrice completa e della matrice incompleta associate
ad Sk .
(b) Determinare i valori di k per i quali il sistema Sk `e incompatibile.
(c) Determinare i valori di k per i quali il sistema Sk ammette una sola soluzione e per tali valori
calcolare la soluzione.
(d) Determinare i valori di k per i quali il sistema Sk ammette infinite soluzioni e per tali valori
calcolare le soluzioni.
(e) Determinare i valori di k, se esistono, per i quali l’insieme delle soluzioni del sistema Sk `e un
sottospazio vettoriale di R4 .
4. Si consideri il sistema

2x1 + x2 − x3 + x4 = 0



x + x + x − x = 0
1
2
3
4

4x
+
2x
−
x
+
x4 = 0
1
2
3



3x1 − x2 + x3 + kx4 = 0
Determinare tutti i valori della costante k per i quali il sistema
(a) non ha soluzioni,
(b) ha infinite soluzioni,
(c) ha un’unica soluzione.
5. Si consideri il sistema


x + y − 2z = 4
3x + 5y − 4z = 16


2x + 3y − az = b
Determinare tutti i valori delle costanti a e b per i quali il sistema
(a) non ha soluzioni,
19
(b) ha infinite soluzioni,
(c) ha un’unica soluzione.
6. Si consideri il sistema


x − ay = 3
2x + y = 6


−3x + (a + b)y = 1
Determinare tutti i valori della costante k per i quali il sistema
(a) non ha soluzioni,
(b) ha infinite soluzioni,
(c) ha un’unica soluzione.
7. Far vedere che il sistema


x + y + z = a
2x + 3y + z = b


3x + 5y + z = 0
ha infinite soluzioni se e solo se a − 2b + c = 0.
Applicazioni agli spazi vettoriali
Esempi 1. Trovare un sistema lineare omogeneo il cui spazio delle soluzioni U `e il sottospazio di
R4 generato dai vettori (in colonna)
u1 = (1, −2, 0, 3)t ,
u2 = (1, −1, −1, 4)t ,
u3 = (1, 0, −2, 5)t .
Il vettore v = (x1 , x2 , x3 , x4 )t appartiene al sottospazio U se e solo se v = c1 u1 + c2 u2 + c3 u3 .
Questo equivale a dire che (c1 , c2 , c3 ) `e soluzione del sistema

c1 + c2 + c3 = x1



−2c − c = x
1
2
2

−c2 − 2c3 = x2



3c1 + 4c2 + 5c3 = x3
La matrice incompleta del sistema `e la matrice A = u1 u2 u3 e la matrice completa `e la
matrice
 


1 1 1
x1
1
1
1 x1

 −2 −1 0 x2   0 1 2
2x1 + x2
 

(A | v) = 
 0 −1 −2 x3  ∼  0 0 0 2x1 + x2 + x3 
3
4
5 x4
0 0 0 −5x1 − x2 + x4
Segue che la matrice incompleta A ha rango 2. Affinch´e il sistema abbia soluzioni anche la matrice
completa deve avere rango 2 e questo accade se e solo se
(
2x1 + x2 + x3 = 0
−5x1 − x2 + x4 = 0
Queste sono le equazioni cercate. Si chiamano anche equazioni cartesiane del sottospazio U
(infinite scelte possibili). Le equazioni parametriche di U si ottengono invece combinando
linearmente i vettori di una base di U . Nel caso in esame, una base di U `e data dai vettori u1
e u2 (come si vede dalla riduzione a scala della matrice A che ha come colonne pivot le prime
due colonne). Allora le equazioni parametriche di U sono v = su1 + tu2 , ove s, t ∈ R si dicono i
parametri

x1 = s + t



x = −2s − t
2

x
3 = −t



x4 = 3s + 4t
2. Dato il sottospazio W tramite equazioni cartesiane, trovare una base di W . Ad esempio,
supponiamo che W sia il sottospazio di R4 dato dalle soluzioni del sistema omogeneo


x1 − x2 − x3 + x4 = 0
21 + x2 − x3 − 2x4 = 0


x1 − 4x2 − 2x3 + 5x4 = 0
20
Una riduzione a scala della matrice (incompleta) del sistema `e la matrice


1 −1 −1 1
0 3
1 −4
0 0
0
0
Segue che il sottospazio W ha dimensione 2. Le variabili libere sono x3 ed x4 . Ponendo x3 = 3s,
x4 = 3t (la moltiplicazione per 3 serve ad eliminare i denominatori, questo non cambia la variabilit`a
dei parametri), risolvendo il sistema si ottengono equazioni parametriche di W :

x1



x
2

x
3



x4
= 2s + t
= −s + 4t
= 3s
= 3t
Una base di W si trova ponendo (s, t) = (1, 0) e (s, t) = (0, 1). Segue che
W = h(2, −1, 3, 0), (1, 4, 0, 3)i.
3. Si considerino in R5 i sottospazi U e W definiti da
U = h(1, 3, −2, 2, 3), (1, 4, −3, 4, 2), (2, 3, −1, −2, 9)i,
W = h(1, 3, 0, 2, 1), (1, 5, −6, 6, 3), (2, 5, 3, 2, 1)i.
(a) Calcolare una base e la dimensione di U e W .
(b) Trovare equazioni cartesiane di U e W .
(c) Trovare una base e la dimensione di U + W e di U ∩ W .
(d) Trovare equazioni cartesiane di U + W e di U ∩ W .
(e) Completare la base di U ∩ W trovata ad una base di U e ad una base di W .
(f) Completare la base di U ∩ W trovata ad una base di U + W .
(g) Completare il sistema di equazioni trovato per W ad un sistema di equazioni per U ∩ W .
˜ = (1, 6, −7, 8, 2), far vedere che appartiene al sottospazio U + W e trovare
(h) Dato il vettore v
` vero o falso che u
˜ ∈ U, w
˜ ∈ W tali che v
˜=u
˜ + w.
˜ E
˜ ew
˜ sono univocamente determinati?
u
Soluzione:
(a) Per trovare una base di U mettiamo in riga le coordinate dei generatori di U e riduciamo a
scala la matrice trovata:

 

1 3 −2 2 3
1 3 −2 2 3
1 4 −3 4 2 ∼ 0 1 −1 2 −1
2 3 −1 −2 9
0 0 0 0 0
Segue che una base di U `e {u1
per W :

1
1
2
= (1, 3, −2, 2, 3), u2 = (0, 1, −1, 2, −1)} e dim U = 2. Similmente
3
5
5
0
−6
3
 
2 1
1
6 3 ∼ 0
2 1
0
3
1
0
0
−3
0

2 1
2 1
0 0
una base di W `e {(1, 3, 0, 2, 1), (0, 1, −3, 2, 1)} e dim W = 2.
(b) Per calcolare le equazioni di U risolviamo il sistema x = a1 u1 + a2 u2 nelle incognite a1 , a2 ,
x = (x1 , x2 , x3 , x4 , x5 ). Mettiamo i vettori in colonna e riduciamo a scala:
 


x1
1 0
1
0 x1


 3
1 x2 
−3x1 + x2
  0 1


 −2 −1 x3  ∼  0 0 −x1 + x2 + x3 
 


 2
2 x4   0 0 4x1 − 2x2 + x4 
3 −1 x5
0 0 −6x1 + x2 + x5
Segue che le equazioni di U sono


−x1 + x2 + x3 = 0
U : 4x1 − 2x2 + x4 = 0


−6x1 + x2 + x5 = 0
21
Similmente per W






1
3
0
2
1
0
1
−3
2
1
x1
x2
x3
x4
x5


 
 
∼
 
 
1 0
0 1
0 0
0 0
0 0
x1
−3x1 + x2
−9x1 + 3x2 + x3
4x1 − 2x2 + x4
2x1 − x2 + x5








−9x1 + 3x2 + x3 = 0
W : 4x1 − 2x2 + x4 = 0


2x1 − x2 + x5 = 0
(c) Per calcolare una base di
scala:

1
0

1
0
U + W , mettiamo in riga
 
1
3 −2 2 3
0
1 −1 2 −1
∼
3 0 2 1  0
0
1 −3 2 1
le basi trovate di U e di W e riduciamo a

3 −2 2 3
1 −1 2 −1

0 1 0 −1
0 0 0 0
Segue che una base di U + W `e {(1, 3, −2, 2, 3), (0, 1, −1, 2, −1), (0, 0, 1, 0, −1)} e dim(U + W ) = 3.
Per calcolare una base di U ∩W (che ha dimensione dim(U ∩W ) = dim U +dim W −dim(U +W ) = 1)
posso risolvere il sistema ottenuto mettendo assieme le equazioni di U e W :

−x1 + x2 + x3 = 0





4x1 − 2x2 + x4 = 0



−6x + x + x = 0
1
2
5
U ∩W:
−9x1 + 3x2 + x3 = 0





4x1 − 2x2 + x4 = 0



−4x1 + x2 + x5 = 0
A tal fine riduco a scala la matrice (incompleta) del sistema
 

−1 1
−1 1 1 0 0
 4 −2 0 1 0  0 1
 

−6 1 0 0 1  0 0
 

−9 3 1 0 0 ∼  0 0
 

 4 −2 0 1 0  0 0
0 0
−4 1 0 0 1

1 0 0
2 0 1

2 0 3

0 1 −2

0 0 0
0 0 0
Segue che il sottospazio delle soluzioni `e {(t, 4t, −3t, 4t, 2t) | t ∈ R} = h(1, 4, −3, 4, 2)i. Quindi
dim(U ∩ W ) = 1 e una base di U ∩ W `e data dal vettore (1, 4, −3, 4, 2)(= u1 + u2 ).
Altro modo per calcolare una base di U ∩ W . Si trovano equazioni parametriche di U , ad esempio
x = s1 u1 + s2 u2 :


x1 = s1



x2 = 3s1 + s2

x3 = −2s1 − s2



x4 = 2s1 + 2s2



x = 3s − s
5
1
2
Si sostituiscono queste equazioni nelle equazioni cartesiane di W e si trova


−9x1 + 3x2 + x3 = −9s1 + 3(3s1 + s2 ) + (−2s1 − s2 ) = −3(s1 − s2 ) = 0
4x1 − 2x2 + x4 = 4s1 − 2(3s1 + s2 ) + 2s1 + 2s2 = 0


2x1 − x2 + x5 = 2s1 − 3s1 − s2 + 3s1 − s2 = 2(s1 − s2 ) = 0
Segue che s1 = s2 e quindi, posto t = s1 = s2 , si trova di nuovo U ∩ W = {(t, 4t, −3t, 4t, 2t)}.
Questo metodo `e preferibile al precedente perch´e `e pi`
u rapido non richiedendo la riduzione a
scala di una matrice di taglia 6 × 5. In generale per calcolare U ∩ W conviene trovare equazioni
parametriche di uno dei sottospazi ed equazioni cartesiane dell’altro sottospazio poi sostituire le
equazioni parametriche nelle equazioni cartesiane e risolvere il sistema di equazioni che cos`ı si trova
e che ha per incognite i parametri del primo sottospazio.
22
(d) Equazioni di U ∩ W si ricavano subito dalle equazioni parametriche x1 = t, x2 = 4t, x3 = −3t,
x4 = 4t, x5 = 2t

4x1 − x2 = 0


3x + x = 0
1
3
U ∩W:

4x
−
x
1
4 =0



2x1 − x5 = 0
Per trovare equazioni di U + W mettiamo assieme in
x e riduciamo a scala la matrice trovata
 

1 0
1
0
0 x1
  0 1
 3
1
0
x
2
 

 −2 −1 1 x3  ∼  0 0
 

 2
2
0 x4   0 0
3 −1 −1 x5
0 0
colonna la base trovata di U + W e il vettore
0
0
1
0
0
x1
−3x1 + x2
−x1 + x2 + x3
4x1 − 2x2 + x4
−7x1 + 2x2 + x3 + x5






Segue che
(
(7)
U +W:
4x1 − 2x2 + x4 = 0
−7x1 + 2x2 + x3 + x5 = 0
(e) Per completare la base (1, 4, −3, 4, 2) di U ∩ W ad una base di U basta aggiungere un vettore di
U che non sia multiplo di (1, 4, −3, 4, 2), ad esempio (0, 1, −1, 2, −1). Idem per W , basta aggiungere
(0, 1, −3, 2, 1).
(f) Basta mettere assieme a v = (1, 4, −3, 4, 2) i due vettori u = (0, 1, −1, 2, −1) e w = (0, 1, −3, 2, 1)
che non sono multipli di (1, 4, −3, 4, 2) e stanno il primo in U ed il secondo in W . I tre vettori
v, u, w chiaramente appartengono a U + W ed `e immediato verifiicare che i tre vetttori sono linearmente indipendenti e quindi formano una base di U + W .
(g) Consideriamo un’equazione a1 x1 +a2 x2 +a3 x3 +a4 x4 +a5 x5 = 0 e imponiamo che (1, 4, −3, 4, 2)
sia soluzione dell’equazione; otteniamo
(8)
a1 + 4a2 − 3a3 + 4a4 + 2a5 = 0
e poi imponiamo che il sistema

−9x1 + 3x2 + x3 = 0



4x − 2x + x = 0
1
2
4
(9)

2x
−
x
+
x
=0
1
2
5



a1 x1 + a2 x2 + a3 x3 + a4 x4 + a5 x5 = 0
abbia rango 4. In tal caso infatti lo spazio delle soluzioni ha dimensione 1 e quindi coincide con
U ∩ W . Riducendoo a scala la matrice


−9 3 1 0 0
 4 −2 0 1 0
2 −1 0 0 1
si ottiene la matrice

1
0
0
1
3
0
−1
−2
0
2
4
−1

0
−1
2
e quindi se poniamo, ad esempio, a1 = a2 = 0, a3 = 2, a4 = 1, a5 = 1 la matrice (9) ha rango 4 e
la condizione (8) `e soddisfatta.
˜
(h) La risposta alla domanda riguardante l’unicit`a `e: falso, esistono infiniti modi di scrivere v
˜, w
˜ tali che v
˜=u
˜ + w,
˜
come somma di un elemento di U e di un elemento di W . Infatti trovati u
˜ = (˜
˜ − v0 ) e chiaramente u
˜ + v0 ∈ U e
per ogni v0 ∈ U ∩ W possiamo scrivere v
u + v0 ) + (w
˜ − v0 ∈ W .
w
˜ ev
˜ usiamo la base {v, u, w} di U + W trovata nel punto (f) e risolviamo il sistema
Per trovare u
23
˜ = xv + yu + zw. Mettendo in colonna i vettori si ottiene il sistema
v


x = 1



4x + y + z = 6

−3x − y − 3z = −7



4x + 2y + 2z = 8



2x − y − z = 2
˜ = v+u+w e
che si verifica facilmente avere x = y = z = 1 come unica soluzione. Segue che v
˜ =v+u e w
˜ = w.
quindi possiamo prendere ad esempio u
Esercizi 1. Dati i vettori di R4
u1 = (1, −2, 5, −3),
u2 = (2, 3, 1, −4),
u3 = (3, 8, −3, −5)
si consideri il sottospazio U = hu1 , u2 , u3 i.
(a) Calcolare una base e la dimensione di U .
(b) Estendere la base trovata ad una base di R4 .
(c) Trovare equazioni cartesiane di U .
2. Consideriamo i due sottoinsiemi U e W di R3 definiti da
U = {(x, y, z) ∈ R3 | x = y = z},
W = {(x, y, z) ∈ R3 | x = 0}.
(a) Far vedere che U e W sono sottospazi vettoriali di R4 .
(b) Far vedere che U ∩ W = {0} e U + W = R3 .
(c) Dato v = (a, b, c) ∈ R3 trovare u ∈ U , w ∈ W tali che v = u + w.
3. Si considerino in R5 il sottospazio
U = h(0, 1, 0, 2, 0), (0, 1, 0, 0, 1), (0, 0, 0, 1, 0)i
e il sottospazio W delle soluzioni del sistema lineare


13x1 + 2x2 − x4 − 2x5 = 0
2x2 − x4 − 2x5 = 0


x1 = 0
(a) Determinare una base e la dimensione sia di U che di W .
(b) Determinare una base di U ∩ W e calcolare la dimensione di U ∩ W e di U + W .
(c) Completare la base trovata di U ∩ W ad una base di U + W .
(d) Aggiungere il minimo numero di equazioni ad un sistema lineare che definisce W per ottenere
un sistema che abbia come soluzioni i vettori del sottospazio U ∩ W .
4. Si considerino i seguenti sottospazi di R4
U = h(1, 1, −1, −1), (−1, 1, −1, 1)i,
W = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 + x3 + x4 = 0, x2 = 0}.
` vero o falso che U e V sono in somma diretta?
(a) Determinare U ∩ W . E
(b) Determinare le equazioni cartesiane di U + W .
(c) Verificare che v = (2, 4, −1, −5) ∈ U +W e determinare vettori u ∈ U , w ∈ W tali che v = u+w.
24