Sistemi Lineari April 14, 2014 1 Matrici a scala Una matrice A si dice a scala (pi` u precisamente a scala per righe) o anche in forma gaussiana se le seguenti condizioni sono soddisfatte 1. tutte le righe nulle, se ne esistono, compaiono sotto quelle non nulle, 2. il primo termine non nullo di una riga (non nulla) sta pi` u a destra del primo termine non nullo della riga precedente. (Ricordo che una matrice `e nulla se tutti gli elementi sono nulli, non nulla se qualche elemento `e 6= 0.) Se A = (aij ), A `e a scala se esistono elementi non nulli a1j1 , a2j2 , . . . , arjr con j1 < j2 < . . . < jr tali che aij = 0 quando i ≤ r, j < ji oppure quando i > r. Gli elementi a1j1 , a2j2 , . . . , arjr si dicono i pivot della matrice a scala. Le colonne dove compaiono i pivot si dicono colonne pivot. Gli elementi di una colonna pivot che stanno sotto il pivot sono tutti nulli. Esempio La matrice seguente `e a scala 0 0 0 0 2 0 0 0 3 1 0 0 1 5 0 0 4 6 3 0 2 3 1 0 I pivot sono a12 = 2, a23 = 1, a35 = 3 e le colonne pivot sono la seconda, la terza e la quinta. Una matrice a scala si dice ridotta se tutti i pivot sono uguali a 1. Teorema Le righe non nulle di una matrice a scala sono linearmente indipendenti. Vediamolo nell’esempio: consideriamo le righe non nulle della matrice R1 = 0 2 3 1 4 2 R2 = 0 0 1 5 6 3 R3 = 0 0 0 0 3 1 La riga R2 non pu` o essere un multiplo della riga R3 perch´e i multipli di R3 hanno le prime quattro componenti tutte nulle mentre R2 ha la terza componente diversa da zero. La riga R1 non pu`o essere combinazione lineare di R2 ed R3 perch´e tutte queste combinazioni lineari hanno le prime due componenti uguali a 0 mentre R1 ha la seconda componente diversa da zero. Segue che R1 , R2 , R3 sono linearmente indipendenti. Il ragionamento si estende ad una qualunque matrice a scala per righe.. Abbiamo usato il seguente risultato (lascio al lettore la dimostrazione come esercizio di algebra lineare astratta) Lemma Supponiamo che due o pi` u vettori non nulli v1 , v2 , . . . , vn di uno spazio vettoriale V siano linearmente dipendenti. Allora uno dei vettori `e combinazione lineare dei vettori precedenti: esiste k > 1 tale che vk = c1 v1 + c2 v2 + . . . + ck−1 vk−1 . 1 Esempi 1. Consideriamo le matrici 1 2 3 1 2 A = 0 0 0 , B = 0 0 0 0 1 0 0 3 2 , 0 2 C = 0 0 1 0 1 1 1 0 2 2 , 0 2 D = 0 0 1 0 0 1 1 1 2 2 . 0 La matrice A non `e a scala perch´e ha una riga nulla, la seconda, che sta sopra una non nulla, la terza. Se in A si scambiano la seconda e la terza riga, la matrice che si ottiene `e ridotta. La matrice B `e a scala ma non ridotta perch´e ha un pivot diverso da 1. Le matrici C e D non sono a scala perch´e il primo elemento non nullo della terza riga non `e pi` u a destra del primo elemento non nullo della seconda riga. Se in C e D l’ultima riga fosse nulla, entrambe sarebbero a scala. 2. Una matrice nulla `e a scala e non ha pivot. 3. La matrice identica (di qualunque ordine) `e ridotta. 4. Una matrice quadrata A = (aij ) si dice triangolare superiore se aij = 0 quando i > j. Ad esempio 2 1 1 2 0 3 1 2 0 0 1 0 0 0 0 4 `e triangolare superiore. Se in una matrice triangolare superiore gli elementi diagonali sono tutti non nulli (risp. = 1) la matrice `e a scala (risp. ridotta). Se qualche elemento diagonale `e nullo pu` o essere a scala come no. Ad esempio 0 2 3 1 2 3 1 2 0 0 2 0 0 0 1 sono a scala mentre 0 0 4 non lo `e. 0 0 0 0 0 5 0 0 0 Esercizi per acquisire abilit` a nel riconoscere se una matrice `e a scala o ridotta o nessuna delle due. 0 1 0 3 2 1 0 0 3 2 1 0 2 0 −1 0 0 0 1 2 2. 0 2 1 0 4 3. 0 0 2 1 0 1. 0 0 0 0 3 0 0 0 0 5 0 0 0 3 0 0 0 0 0 0 0 0 1 2 0 0 0 0 0 0 0 0 1 2 3 0 0 0 1 1 1 4. 0 2 1 5. 0 0 0 6. 0 0 −1 7. 0 1 0 0 0 0 1 0 0 0 0 0 0 0 3 1 1 13 1 0 0 2 1 1 1 0 1 0 1 0 10. 11. 8. 9. 0 2 4 0 0 1 0 0 0 0 0 0 1 0 1 1 5 3 4 0 1 12. 13. 14. 15. 1 0 0 1 0 2 0 1 Esercizio Dire per quali valori del parametro k ∈ R la seguente matrice `e a scala 1 0 −k 0 0 0 1 + k 1 + k 0 0 0 0 k + k2 k k 0 0 0 k −1 2 Sistemi lineari Un’equazione P (x1 , x2 , . . . , xn ) = b si dice equazione lineare nelle incognite x1 , x2 , . . . , , xn se P (x1 , . . . , xn ) = a1 x1 +a2 x2 +. . .+an xn `e un polinomio di primo grado nelle variabili x1 , x2 . . . , , xn con a1 , a2 , . . . , an e b sono elementi del campo K chee si dicono, gli ai , i coefficienti dell’equazione e b il termine noto. Scriviamo (1) a1 x1 + a2 x2 + . . . + an xn = b. 2 Se n = 1 si usa x al posto di x1 , se n = 2, x, y al posto di x1 , x2 , n = 3, x, y, z al posto di x1 , x2 , x3 e si scrive ax = b, ax + by = c, ax + by + cz = d. Se qualche coefficiente ai `e nullo non si scrive il corrispondente termine, ad esempio 1x1 + 0x2 + 2x3 + 0x4 = x1 + 2x3 . Osservazione Il termine “lineare” dipende dal fatto che nel piano euclideo, fissato un riferimento cartesiano O, x, y (che identifica il piano con R2 ), l’equazione di una (linea) retta ha equazione ax + by = c. Vedremo pi` u avanti l’interpretazione geometrica delle equazioni lineari e dei sitemi lineari che stiamo per definire. Le seguenti equazioni non sono lineari √ x2 = 2, log x = 1, x2 + 3y 2 − xy + 2x − 2y = 3, ex + sin y + z = 0. Una soluzione di (1) `e una n-pla (c1 , c2 , . . . , cn ) ∈ K n tale che a1 c1 + a2 c2 + . . . + an cn = b. Si scrive x1 = c1 , x2 = c2 , . . . xn = cn . Ad esempio x = 2, y = −1 `e soluzione dell’equazione 2x + y = 3, mentre x = 2, y = 1 non `e soluzione. Esempio Cerchiamo le soluzioni dell’equazione ax = b. Se a 6= 0, l’equazione ha una sola soluzione, x = b/a. Se a = 0, l’equazione non ha soluzioni se b 6= 0, mentre tutti gli elementi di K sono soluzioni. Se K = R, C, l’equazione ha quindi infinite soluzioni. Se in (1) tutti i coefficienti sono nulli, l’equazione si dice degenere 0x1 + 0x2 + . . . + 0xn = 0 = b Se b 6= 0 l’equazione non ha soluzioni, se b = 0 tutti gli elementi di K n sono soluzioni. Un sistema lineare di m equazioni in n incognite `e una lista di m equazioni lineari nelle stesse incognite x1 , x2 , . . . , xn . Si scrive a11 x1 + a12 x2 + · · · + a1n xn = b1 a x + a x + ··· + a x = b 21 1 22 2 2n n 2 (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . am1 x1 + am2 x2 + · · · + amn xn = bm Usando il prodotto di matrici il sistema (2) si a11 a12 · · · a21 a22 · · · (3) .. .. .. . . . am1 am2 · · · pu`o scrivere a1n x1 b1 x 2 b2 a2n .. .. = .. . . . amn xn bm Gli aij ∈ K si dicono i coefficienti del sistema e i bi ∈ K i termini noti. La matrice A = (aij ) si dice la matrice dei coefficienti o anche matrice incompleta. Se poniamo x1 b1 .. .. x = . , b = . xn bm possiamo scrivere (3) in forma compatta (4) Ax = b. Se m 6= n le colonne x e b hanno dimensioni diverse. La matrice a11 a12 · · · a1n a21 a22 · · · a2n def A# = (A | b) = . .. .. .. .. . . . am1 am2 3 ··· amn b1 b2 .. . bm si dice la matrice completa del sistema. Esempio La matrice completa del sistema x1 − 2x2 + x3 = 2 3x1 + x2 + x3 = −5 −x1 + 7x2 − 4x3 = 1 `e la matrice 1 3 −1 −2 1 7 1 1 −4 2 −5 1 Esempio Scrivere il sistema lineare nelle incognite x, y, z la cui matrice completa `e −1 −2 1 6 0 3 4 −5 Risposta ( −x − 2y + z = 6 3y + 4z = −5 Esercizi per acquisire abilit` a nel trovare la matrice completa di un sistema lineare. Trovare la matrice completa dei seguenti sistemi lineari: ( kx1 − 2x2 + 3kx3 = 0 x1 − 2x2 + 3x3 = 0 x−y+z−t=2 x1 + k 2 x3 = 1 3x1 + 4x2 − 5x3 = 0 3x + 4y − 3z + 5t = 3 (1 + k)x1 − x2 = k − 1 4x1 − 2x2 + 7x3 = 0 dove k `e una costante non specificata (sistema dipendente da un parametro). Esercizi per acquisire abilit` a nel trovare il sistema lineare nota la sua matrice completa. Scrivere il sistema lineare la cui matrice completa e le incognite sono date da: 1 −1 0 3 1 2 3 2 −2 x, y, z 1. x, y 2. 0 2 0 1 4 0 0 −1 4 0 2 −1 4 1 2 0 −4 1 x, y, z 3. 0 1 3 3 x1 , x2 , x3 4. 0 1 3 0 0 1 2 0 0 −0 0 k −2 0 2 1 3 −5 0 0 k − 1 −1 1 x1 , x2 , x3 5. 0 2 −1 0 x, y, z 6. 0 0 k−2 4 0 0 0 0 3 0 0 0 7. Scrivere i sistemi lineari la cui matrice completa `e la matrice dell’esercizio precedente per i valori k = 0, 1, 2 del parametro. Se m = n (il numero delle equazioni `e uguale al numero delle incognite) il sistema si dice quadrato di ordine n; se m > n (se vi sono pi` u equazioni che incognite) si dice sovradeterminato e se m < n (meno equazioni che incognite) sottodeterminato. Se i termini noti sono tutti uguali a 0, i.e. b = 0, il sistema si dice omogeneo. Una n-pla (c1 , c2 , . . . , cn ) ∈ K n si dice una soluzione del sistema (2) se la n-pla `e soluzione di t tutte le equazioni lineari del sistema. Se mettiamo la n-pla in colonna c = c1 c2 · · · cn , c `e soluzione se e solo se Ac = b. Se l’equazione i-ma, ai1 x1 + ai2 + . . . + ain xn = bi , `e degenere, i.e. ai1 = ai2 = . . . ain = 0, e bi 6= 0, il sistema non ammette soluzioni; se invece bi = 0, l’equazione non pone vincoli alle soluzioni e usualmente non si scrive. Osservazione Un sistema lineare o non ha soluzioni (come nel caso in cui `e presente un’equazione degenere con termine noto diverso da zero) o ha una sola soluzione o ne ha infinite (purch´e il 4 campo K sia infinito, come, ad esempio, quando K = R, C). Infatti supponiamo che esistano due soluzioni distinte u, v ∈ K n , u 6= v, di (4): Au = b, u 6= v Av = b, Ora, siano s, t ∈ K tali che s + t = 1. Facciamo vedere che su + tv `e una soluzione del sistema A(su + tv) = A(su) + A(tv) = sAu + tAv = sb + tb = (s + t)b = b. Basta ora convincersi (farlo!) che, al variare di s, t ∈ K tali che s + t = 1, le colonne su + tv formano un insieme infinito. Un sistema che ammette soluzioni si dice compatibile, altrimenti incompatibile. Osservazione Un sistema omogeneo Ax = 0m ha sempre la soluzione 0n (detta la soluzione triviale): infatti A0n = 0m . L’insieme S = {u ∈ K n | Au = 0} delle soluzioni del sistema lineare omogeneo Ax = 0 `e un sottospazio di K n . Infatti se u, v ∈ S, allora A(u + v) = Au + Av = 0 + 0 = 0 e quindi u + v ∈ S; se u ∈ S e c ∈ K, allora A(cu) = cAu = c0 = 0 e quindi cu ∈ S. Osservazione Se c0 `e una qualunque fissata soluzione del sistema compatibile Ax = b, l’insieme delle soluzioni del sistema `e c0 + S = {c0 + u | u ∈ S} ove S ≤ K n `e il sottospazio delle soluzioni del sistema omogeno Ax = 0 (detto sistema omogeno associato). Infatti, se Ac0 = b, Au = 0, allora A(c0 + u) = Ac0 + Au = b + 0 = b. Quindi tutte le colonne c0 + u, u ∈ S, sono soluzioni del sistema. Facciamo ora vedere che ogni soluzione c del sistema ha questa forma: posto u = c − c0 , `e A(c − c0 ) = Ac − Ac0 = b − b = 0 e quindi u ∈ S. Basta ora osservare che c = c0 + u. 3 Eliminazione gaussiana Esempio 1 Sistemi 2 × 2 Consideriamo il sistema di due equazioni in due incognite ( E1 : ax + by = e E2 : cx + dy = f e supponiamo che nessuna delle due equazioni sia degenere, i.e. sia i coefficienti a, b di E1 che quelli c, d di E2 non siano entrambi nulli. Geometricamente, le due equazioni rappresentano due rette nel piano coordinato e quindi abbiamo tre possibilit`a: le due rette si intersecano in un punto, sono parallele ma distinte o coincidono. Nel primo caso le coordinate del punto di intersezione sono l’unica soluzione del sistema. Nel secondo caso il sistema non ha soluzioni e nel terzo le coordinate di ciascun punto della retta danno una soluzione del sistema (quindi infinite soluzioni). Ricordo che due rette sono parallele se e solo se hanno la stessa pendenza ovvero se e solo se − d b =− a c ⇔ ad = bc (la seconda comprende il caso a = 0 ⇔ b = 0, rette entrambe verticali). Guidati da queste semplici considerazioni geometriche, risolviamo ora algebricamente il sistema. Primo caso ad − bc 6= 0 (corrispondente al caso di rette non parallele). Facciamo vedere che il sistema ha una sola soluzione. Moltiplichiamo la prima equazione per −c, la seconda per a e sommiamo le due equazioni; otteniamo −cE1 + aE2 : − acx − bcy + acx + ady = −ce + af ⇔ −bcy + ady = (ad − bc)y = af − ce da cui segue y= af − ce ad − bc 5 Osserviamo che a e c non possono essere entrambi nulli, altrimenti ad − bc = 0. Se a 6= 0, il sistema E1 , −cE1 + aE2 ha le stesse soluzioni del sistema E1 , E2 e quindi, sostituendo il valore trovato per y nell’equazione E1 , troviamo ax + b af − ce = e ⇔ a(ad − bc)x = e(ad − bc) − b(af − ce) = a(de − bf ) ad − bc da cui, semplificando, segue de − bf . ad − bc Similmente, se c 6= 0, il sistema −cE1 + aE2 , E2 ha le stesse soluzioni del sistema E1 , E2 e quindi, sostituendo il valore trovato per y nell’equazione E2 , troviamo x= cx + d af − ce = f ⇔ c(ad − bc)x = f (ad − bc) − d(af − ce) = c(de − bf ) ad − bc e troviamo lo stesso valore trovato sopra per x. Osservazione Anticipiamo una definizione che verr`a data pi` u avanti. Se A = a11 a21 a12 a22 `e una matrice quadrata di ordine 2, il determinante di A `e definito da a a a12 a12 def det A = det 11 = a11 a22 − a12 a21 = |A| = 11 a21 a22 a21 a22 Possiamo ora interpretare le formule trovate sopra per la soluzione del sistema. Poniamo a b e b a e A= , A1 = , A2 = c d f d c f ove A1 (risp. A2 ) `e la matrice che si ottiene da A sostituendo la prima (risp. seconda) colonna con la colonna dei termini noti del sistema. Posto ∆ = det A = ad − bc, ∆1 = det A1 = de − bf, ∆2 = det A2 = af − ce la soluzione si pu` o scrivere (regola di Cramer per sistemi quadrati di ordine 2 con ∆ 6= 0) x= ∆1 , ∆ y= ∆2 . ∆ Vedremo che queste formule si generalizzano a sistemi quadrati di ordine qualunque. Secondo caso ad = bc (che corrisponde al caso di rette parallele). Osserviamo che a = 0 ⇔ c = 0: infatti se a = 0 deve essere b 6= 0 perch´e, per ipotesi, E1 `e un’equazione non degenere; d’altra parte se a = 0, allora ad = 0 e quindi, essendo ad − bc = 0, anche bc = 0; poich´e b 6= 0 deve essere c = 0; similmente si dimostra che c = 0 ⇒ a = 0 e anche che b = 0 ⇔ d = 0. Supponiamo ora che a 6= 0, b 6= 0 e quindi c 6= 0, d 6= 0. Da ad = bc segue che d c = a b Posto λ = c/a = d/b 6= 0 risulta (c, d) = λ(a, b). A questo punto abbiamo due possibilit`a: primo sottocaso f = 6 λe ⇔ af 6= ce (corrispondente al caso di rette parallele ma non coincidenti). In questo sottocaso il sistema chiaramente non ha soluzioni; secondo sottocaso f = λe ⇔ af = ce (rette coincidenti). In questo caso E2 = λE1 e quindi ogni soluzione di E1 `e soluzione di E2 e viceversa. Le soluzioni di E1 sono infinite e a x = t, y = − t, t ∈ K. b b Se a = c = 0 e quindi b 6= 0 6= d (rette orizzontali), E1 : by = e, E2 : dy = f. Il sistema non ha soluzioni se eb 6= fd ⇔ de 6= bf , infinite soluzioni se Se b = d = 0 e quindi a 6= 0 6= c (rette verticali), E1 : ax = e, E2 : cx = f. 6 e b = f d ⇔ de = bf . Il sistema non ha soluzioni se e a 6= f c ⇔ ce 6= af , infinite soluzioni se e b = f d ⇔ ce = af . Esempi 1. Risolvere il sistema ( E1 : x − 2y = 1 E2 : 3x + y = 2 Seguendo il procedimento esposto, −3E1 + E2 : 7y = −1 e quindi il sistema diventa ( x − 2y = 1 7y = −1 e quindi si ottiene y = −1/7 d` a x = 5/7. Usando la regola nella prima equazione che, sostituito 1 1 1 −2 1 −2 = 7, ∆1 = di Cramer, ∆ = 2 1 = 5, ∆2 = 3 2 = −1, x = ∆1 /∆ = 5/7, 3 1 y = ∆2 /∆ = −1/7. 2. Risolvere il sistema ( E1 : x − 2y = 1 E2 : 3x − 6y = 2 In questo caso −3E1 + E2 : 0 = −1 e quindi si ottiene una equazione degenere incompatibile. Nessuna soluzione. 3. Risolvere il sistema ( E1 : x − 2y = 1 E2 : 3x − 6y = 3 In questo caso −3E1 + E2 : 0 = 0, equazione superflua. Dunque le soluzioni del sistema sono le infinite soluzioni dell’equazione E1 che possiamo scrivere x = 1 + 2t, y = t, t ∈ K. Esempio 2 Sistema triangolare. Risolvere il seguente sistema quadrato di ordine 4 nelle incognite x1 , x2 , x3 , x4 x1 + 7x2 − 3x3 − x4 = −2 −6x2 + 2x3 + x4 = 0 x3 − 2x4 = 1 3x4 = 6 Si risolve l’ultima equazione: x4 = 2, si sostituisce questo valore di x4 nella terza equazione e si trova l’equazione x3 − 4 = 1 che d` a x3 = 5; si sostituiscono i valori trovati per x4 e x3 nella seconda equazione e si trova l’equazione −6x2 + 10 + 2 = 0 e quindi x2 = 2; si sostituiscono infine i valori trovati per x4 , x3 , x2 nella prima equazione e si ottiene x1 = 1. Una sola soluzione. Esempio 3 Sistema a scala (= la matrice completa del sistema `e a scala). Risolvere il sistema 2x1 − 2x2 + 3x3 − 6x4 + 7x5 = −3 x3 − 4x4 + 5x5 = 1 2x4 − 4x5 = 2 La matrice completa del sistema `e 2 0 0 −2 0 0 3 −6 7 1 −4 5 0 2 −4 −3 1 2 i pivot sono nelle colonne 1, 3 e 4. Le incognite corrispondenti ai pivot si dicono incognite pivot, le rimanenti si dicono incognite libere, in questo caso le incognite pivot sono x1 , x3 , x4 , quelle libere sono x2 , x5 . Per risolvere il sistema si assegnano valori arbitrari, detti parametri, alle incognite libere, x2 = u, x5 = v e poi, a partire dal fondo si calcolano i valori delle incognite pivot 7 in funzione dei parametri: 1) porre x5 = v nella terza equazione e calcolare x4 : 2x4 − 4v = 2 ⇔ 2x4 = 2 + 4v ⇔ x4 = 1 + 2v 2) porre x4 = 1 + 2v e x5 = v nella seconda equazione e calcolare x3 : x3 − 4(1 + 2v) + 5v = 1 ⇔ x3 − 4 − 3v = 1 ⇔ x3 = 5 + 3v 3) porre x2 = u, x3 = 5 + 3v, x4 = 1 + 2v, x5 = v nella prima equazione e calcolare x1 : 2x1 − 2u + 3(5 + 3v) − 6(1 + 2v) + 7v = −3 ⇔ x1 = −6 + u − 2v Questo procedimento di sostituzione a partire dall’ultima equazione e risalendo si chiama sostituzione all’indietro (back-substitution). La soluzione generale del sistema in forma parametrica `e data da x1 = −6 + u − 2v, x2 = u, x3 = 5 + 3v, x4 = 1 + 2v, x5 = v. Operazioni elementari Abbiamo visto nell’esempio 1 come sia utile manipolare le equazioni di un sistema senza cambiare le soluzioni del sistema in modo da ottenere un sistema pi` u facile da risolvere. ` immediato verificare che le seguenti operazioni non cambiano le soluzioni di un sistema lineare: E 1) scambiare due equazioni, 2) moltiplicare un’equazione per una costante non nulla, 3) sommare un multiplo di una equazione ad un’altra equazione. Esempio Consideriamo il sistema E1 : 2x1 + 4x2 − 3x3 = −2 E2 : x1 − 3x2 + 2x3 = 3 E3 : 3x1 + 5x2 − x3 = 1 Chiaramente il sistema E2 : x1 − 3x2 + 2x3 = 3 E1 : 2x1 + 4x2 − 3x3 = −2 E3 : 3x1 + 5x2 − x3 = 1 ottenuto scambiando la prima e la seconda equazione ha le stesse soluzioni del precedente sistema. Stesse soluzioni ha il sistema E1 : 2x1 + 4x2 − 3x3 = −2 3E2 : 3x1 − 9x2 + 6x3 = 9 E3 : 3x1 + 5x2 − x3 = 1 ottenuto moltiplicando per 3 la seconda equazione. Idem per il sistema E1 : 2x1 + 4x2 − 3x3 = −2 E2 : x1 − 3x2 + 2x3 = 3 E3 + 2E1 : 7x1 + 13x2 − 7x3 = −3 ottenuto sommando alla terza riga la prima moltiplicata per 2. Queste operazioni si traducono in operazioni sulle righe della matrice completa del sistema: R1) scambiare due righe, R2) moltiplicare una riga per una costante non nulla, R3) sommare ad una riga il multiplo di un’altra riga. Queste operazioni si chiamano operazioni elementari sulle righe di una matrice. Pi` u precisamente si,j : scambiare le righe i-ma e j-ma, mi (a) : moltiplicare la riga i-ma per la costante a 6= 0, 8 ai,j (c) : sommare alla riga j-ma la i-ma riga moltiplicata per la costante c. Queste operazioni sono tutte invertibili: l’inversa di si,j `e la stessa si,j , quella di mi (a) `e mi (a−1 ) e quella di ai,j (c) `e ai,j (−c). Esempio 2 1 3 2 1 3 2 1 3 −2 1 −3 s1,2 3 −→ 2 4 1 3 5 4 −3 −2 2 4 m2 (3) 3 −→ 3 −9 −3 2 5 −1 1 3 5 4 −3 −2 2 4 a1,3 (2) −3 2 3 −→ 1 −3 5 −1 1 7 13 4 −3 −3 2 5 −1 2 −3 −1 −3 6 −1 −3 2 −7 3 −2 1 −2 9 1 −2 3 −3 Date due matrici A, B della stessa taglia m × n, la matrice B si dice equivalente per righe alla matrice A se B si ottiene applicando ad A un numero finito di operazioni elementari sulle righe. Scriveremo A ∼ B se B `e equivalente per righe ad A. Esercizio Dimostrare che ∼ `e una relazione di equivalenza, i.e. valgono le seguenti propriet`a: • propriet` a riflessiva: A ∼ A, • propriet` a simmetrica: se A ∼ B allora B ∼ A, • propriet` a transitiva: se A ∼ B e B ∼ C allora A ∼ C. Chiaramente se A e B sono le matrici complete di due sistemi lineari e A ∼ B, i due sistemi hanno le stesse soluzioni. Teorema Ogni matrice `e equivalente per righe ad una matrice a scala (per righe). Dim. Se A = 0 la matrice `e a scala. Supponiamo A 6= 0. 1. Sia la colonna di indice j1 la prima (a partire da sinistra) colonna non nulla di A (colonna pivot). Quindi esiste nella colonna j1 -ma un elemento non nullo che, dopo un eventuale scambio di righe possiamo supporre essere a1j1 6= 0. 2. Per ogni riga di indice i > 2, con l’ operazione elementare a1,i (c) con c = −ai,j1 /a1,j1 , ottengo una matrice che ha l’elemento di posto ij1 uguale a 0. Quindi ottengo una matrice A1 equivalente per righe ad A che ha a1,j1 come primo pivot. 3. Consideriamo adesso la sottomatrice A01 ottenuta da A1 rimuovendone la prima riga. Ripeto su A01 il procedimento descritto nei punti 1 e 2, ottenendo una matrice equivalente per righe con un secondo pivot, a2,j2 . Reintroducendo in quest’ultima la prima riga di A1 si ottiene una matrice A2 con due pivot ed equivalente per righe ad A. 4. Ripetendo questo procedimento fino a che resta una sottomatrice con le righe tutte nulle, si ottiene una matrice a scala equivalente per righe alla matrice A. CVD Rango di una matrice Data una matrice A di taglia m × n, denotiamo con R(A) (riso. C(A)) il sottospazio di Rn (riso. Rm ) generato dalle righe (risp. dalle colonne) della matrice A. Il rango della matrice A `e la dimensione di R(A), ovvero il numero delle righe linearmente indipendenti della matrice A. Teorema La dimensione di R(A) e la dimensione di C(A) coincidono. Quindi il rango di una matrice `e uguale sia al numero di righe linearmente indipendenti che al numero di colonne linearmente indipendenti. La dimostrazione verr` a data pi` u avanti. Segue subito da questo Teorema che rango A ≤ min{m, n}. Teorema Due matrici equivalenti per righe hanno lo stesso rango. Dim. Facciamo vedere che, data una matrice A, se e `e una operazione elementare, allora rango e(A) = rango A. Chiamiamo R1 , R2 , . . . , Rm le righe della matrice A. Allora R(A) = hR1 , R2 , . . . , Rm i. Se e = si,j , chiaramente R(e(A)) = R(A) perch´e l’operazione cambia solo l’ordine delle righe. Se e = mi (a), a 6= 0, allora R(e(A)) = hR1 , . . . , Ri , . . . , Rm i = hR1 , . . . , aRi , . . . , Rm i. Se e = ai,j (c), allora R(e(A)) = hR1 , . . . , Ri , . . . , cRi + Rj , . . . , Rm i = hR1 , . . . , Ri , . . . , Rj , . . . , Rm i 9 perch´e Rj = (cRi +Rj )−cRi . Se B `e equivalente per righe ad A, allora B = eh ◦eh−1 ◦· · ·◦e2 ◦e1 (A), dove e1 , e2 , . . . , eh sono operazioni elementari. Segue che rango B = rango eh ◦ eh−1 ◦ · · · ◦ e2 ◦ e1 (A) = rango eh (eh−1 ◦ · · · ◦ e2 ◦ e1 (A)) = rango eh−1 ◦ · · · ◦ e2 ◦ e1 (A) = . . . = rango e2 (e1 (A)) = rango e1 (A) = rango A. CVD Teorema Il rango di una matrice A `e uguale al numero di righe non nulle di una qualunque matrice a scala B ad essa equivalente per righe. Dim. Sappiamo che R(A) = R(B). Quindi rango A = dim R(A) = dim R(B). Sappiamo che le righe non nulle di B sono linearmente indipendenti e quindi formano una base di R(B). CVD Esempio Ridurre a scala (per righe) la seguente matrice e calcolarne il rango 1 2 −3 1 2 A = 2 4 −4 6 10 3 6 −6 9 13 La prima `e una colonna non nulla e 1 2 a1,2 (−2) A −→ 0 0 3 6 La seonda colonna pivot `e 1 0 0 conviene prendere l’elemento di posto −3 1 2 1 2 −3 1 a1,3 (−3) 2 4 6 −→ 0 0 2 4 9 −4 2 0 0 3 6 la terza colonna con pivot = 2 2 −3 1 2 1 2 a1,3 (−3/2) 0 2 4 6 −→ 0 0 0 3 6 7 0 0 −3 1 2 4 0 0 11 come primo pivot: 2 6 7 2 6 −2 e quest’ultima `e una matrice a scala con i pivot evidenziati. Il rango di A `e 3.Applicando le operazioni elementari m2 (1/2) e m3 (−1/2) si ottiene la matrice a scala ridotta 1 2 −3 1 2 0 0 1 2 3 0 0 0 0 1 Una matrice si dice in forma canonica per righe se 1. `e una matrice ridotta a scala per righe, 2. gli elementi di ogni colonna pivot sono tutti uguali a zero tranne il pivot (uguale a 1). Da una matrice a scala `e facile ottenere una forma canonica equivalente per righe: con operazioni di tipo mi (a) si fanno diventare uguali ad 1 tutti i pivot e con operazioni elementari di tipo ai,j (c) si fanno divenatre uguali a zeo tutti gli elementi che stanno sopra i pivot. Nell’esempio precedente 1 2 0 7 11 1 2 −3 1 2 (−11) a2,1 (3) 0 0 1 2 3 −→ 0 0 1 2 3 a3,1−→ 0 0 0 0 1 0 0 0 0 1 1 2 0 7 0 1 2 0 7 0 a3,2 (−3) 0 0 1 2 3 −→ 0 0 1 2 0 0 0 0 0 1 0 0 0 0 1 Ogni matrice ha infinite matrici a scala ad essa equivalenti. Possiamo per`o fornire alcune precisazioni. Teorema Se A e B sono matrici a scala con R(A) = R(B) (in particolare se sono equivalenti per righe) e se a1j1 , a2j2 , . . . , arjr e b1k1 , b2k2 , . . . , bsks sono i pivot di A e B rispettivamente, allora r = s (hanno lo stesso numero di righe non nulle) e j1 = k1 , j2 = k2 , . . . , jr = kr (i pivot possono non essere uguali ma occupano la stessa posizione). Dim. Poich´e A e B sono equivalenti, R(A) = R(B) e quindi r = dim R(A) = dim R(B) = s. Poich´e A = 0 se e solo se B = 0, possiamo supporre r = s > 0. Facciamo vedere che j1 = k1 . Supponiamo che j1 < k1 . Segue che la j1 -ma colonna di B `e nulla. La prima riga R1 di A appartiene ad R(B) = R(A) e quindi, dette R10 , R20 , . . . , R?r le righe non nulle di B, R1 `e combinazione 10 lineare delle righe Ri0 , R1 = c1 R10 + c2 R20 + . . . + cr Rr0 . Poich´e la j1 -ma riga di B `e nulla, abbiamo a1j1 = c1 0 + c2 0 + . . . + cr 0 = 0, assurdo essendo a1j1 un pivot e quindi ne0. Segue che j1 ≥ k1 . Scambiando il ruolo di A e B si ottiene allo stesso modo che k1 ≥ j1 . Dunque j1 = k1 . L’asserto `e dimostrato nel caso in cui r = 1. Sia A1 (risp. B1 ) la sottomatrice ottenuta da A (risp. B) sopprimendovi la prima riga. Facciamo vedere che R(A1 ) = R(B1 ). Da questo segue, come visto sopra, che j2 = k2 . Poi si itera il procedimento. Sia Ri , i ≥ 2 la (i − 1)-ma riga di A1 . Poich´e R(A) = R(B), Ri = ci1 R10 + ci2 R20 + . . . + cir Rr0 . Poich´e i ≥ 2 e A `e matrice a scala, la j1 -ma componente di Ri `e nulla. D’altra parte, B `e matrice a scala e quindi tutti gli elementi della k1 -ma colonna sono tutti nulli eccetto il primo, il pivot b1k1 6= 0. Quindi b2k1 = . . . = bmk1 = 0. Segue, ricordando che j1 = k1 , 0 = aij1 = a1k1 = ci1 b1k1 + ci2 b2k1 + . . . + cir brk1 = ci1 b1k1 + ci2 0 + . . . + cir 0 = ci1 b1k1 e quindi ci1 = 0. Segue che R(A1 ) ≤ R(B1 ). Scambiando il ruolo di A e B si trova R(B1 ) ≤ R(A1 ) e quindi R(A1 ) = R(B1 ). CVD Teorema Siano A e B matrici in forma canonica per righe. Allora R(A) = R(B) se e solo se hanno le stesse righe non nulle. Segue che ogni matrice `e equivalente per righe ad una ed una sola forma canonica per righe. Dim. Se A e B hanno le stesse righe non nulle chiaramente R(A) = R(B). Viceversa, supponiamo R(A) = R(B). Sia R la i-ma riga di A, 1 ≤ i ≤ r. allora R = c1 R10 + c2 R20 + . . . + cr Rr0 (notazioni della dim. precedente). Sia aiji il pivot di R (il primo elemento non ` nullo di R). E 1 = aiji = c1 b1ji + c2 b2ji + . . . + cr brji Dal teorema precedente segue che biji `e il pivot della i-ma riga di B. Poich´e B `e in forma canonica, abbiamo bhji = 0 per ogni h 6= i. Dunque aiji = ci biji . Poich´e i pivot , sia di A che di B, sono tutti uguali a 1, troviamo che ci = 1. Se h 6= i, abbiamo aijh = c1 b1jh + c2 b2jh + . . . + cr brjh . Ora bhjh = 1 `e il pivot della riga Rh0 e quindi, essendo B in forma canonica, abbiamo bkjh = 0 se k 6= h. Segue che aijh = ch bhjh = ch . Ora ahjh `e il pivot della h-ma riga di A. Poich´e A `e in forma canonica, ahjh `e l’unico elemento 6= 0 della colonna jh -ma. Poich´e, per ipotesi, i 6= h, `e aijh = 0 e quindi ch = 0 per ogni h 6= i. Segue che R = Ri0 . Supponiamo che A1 e A2 siano due matrici in forma canonica per righe equivalenti per righe. Segue che R(A1 ) = R(A2 ) e quindi A1 e A2 hanno le stesse righe dunque A1 = A2 . CVD Esempio Consideriamo i seguenti vettori di R4 u1 = (1, 5, −5, 9), u2 = (3, 7, −3, 11), w1 = (1, 3, −2, 5), u3 = (3, 5, 0, 7), w2 = (2, 4, −1, 6). ` vero o falso che i sottospazi U = hv1 , v2 , v3 i e W = hw1 , w2 i coincidono? E Consideriamo le matrici 1 5 −5 9 1 3 −2 5 A = 3 7 −3 11 , B = 2 4 −1 6 3 5 0 7 le cui righe sono le coordinate dei vettori ui e dei vettori wj rispettivamente. Calcoliamo le canoniche per righe di entrambe le matrici. 1 5 −5 9 1 5 −5 9 1 5 −5 a1,2 (−3),a1,3 (−3) m2 (−1/4),m3 (−1/5) 3 7 −3 11 0 −8 12 −16 0 2 −3 −→ −→ 3 5 0 7 0 −10 15 −20 0 2 −3 5 1 5 −5 9 1 0 −1 1 5 −5 9 2 a2,1 (−5) a2,3 (−1) m2 (1/2) 2 −→ 0 2 −3 4 −→ 0 1 − 23 2 −→ 0 1 − 23 0 0 0 0 0 0 0 0 0 0 0 0 5 −2 5 a1,2 (−2) 1 3 −2 5 m2 (−1/2) 1 3 −2 5 a2,1 (−3) 1 0 2 −→ −→ −→ 3 −1 6 0 −2 3 −4 0 1 −2 2 0 1 − 23 forme 9 4 4 1 2 3 4 11 −1 2 Segue che U = R(A) = R(B) = W . Esercizi Trovare una matrice a scala equivalente per righe alla matrice data e calcolarne il rango. 2 1 2 −4 3 2 1. 2. 3. 1 −3 −4 8 1 −1 2 2 3 1 4 −3 4 4. −2 6 2 1 4 8. 2 −3 4 9. 3 −2 6 2 −1 12. 1 −2 1 −5 2 −2 −1 3 −2 3 15. 1 −1 1 2 −1 2 18. 2 1 2 1 0 3 3 2 1 4 1 5 2 3 7 2 −1 5. 6. 3 2 2 5 3 7 10 3 −3 2 3 −1 10. 2 −2 1 2 1 6 −6 3 4 1 −2 1 3 1 3 13. 3 −6 2 7 0 5 4 −8 3 10 4 7 4 7 3 1 16. 3 5 3 5 2 −2 2 −2 0 5 −2 5 −2 2 0 0 0 19. 3 4 5 1 1 3 2 3 4 4 6 8 2 2 2 −2 2 6 5 0 −5 7. 6 4 12 2 3 2 −1 1 −2 3 −2 1 3 5 3 11. 2 −2 −1 0 1 2 1 14. 0 3 1 2 0 2 0 1 1 −1 −1 3 −2 0 17. 2 −1 2 4 −2 3 1 2 1 2 1 2 4 3 5 4 20. 3 6 4 9 7 1 2 4 3 −12 −7 1 2 7 4 8 1 5 10 6 2 7 11 9 Lo spazio delle colonne Ricordo che, data una matrice A di taglia m × n, C(A) denota il sottospazio di Rn generato dalle n colonne della matrice. Faremo vedere che dim C(A) = rango A = dim R(A). Questo significa che il numero delle colonne linearmente indipendenti di una matrice coincide con il numero delle righe linearmente indipendenti della matrice. Questo risultato sar`a conseguenza di un metodo che adesso esponiamo per estrarre dalle colonne di A una base di C(A). Consideriamo per esempio la seguente matrice in forma canonica per righe 1 2 0 3 0 0 0 1 5 0 A= 0 0 0 0 1 0 0 0 0 0 Chiaramente le colonne linearmente indipendenti sono le colonne pivot, la prima C1 , la terza C3 e la quinta C5 . Si noti che C1 = e1 , C3 = e2 , C5 = e3 , ove e1 , e2 , e3 sono i primi tre elementi della base standard di R5 (messi in colonna). Le rimanenti due, C2 e C4 , sono combinazione lineare delle colonne che le precedono: C2 = 2e1 = 2C1 , C4 = 3e1 + 5e2 = 3C1 + 5C3 . Questo esempio fa capire cosa succede i generale per una matrice A, di taglia m × n, in forma canonica per righe. Le colonne linearmente indipendenti sono le colonne pivot (che sono tante quanti i pivot della matrice e quindi tante quanto `e il rango di A). Se Cj1 , Cj2 , . . . , Cjr , r = rango A, sono le colonne pivot, allora Cj1 = e1 , Cj2 = e2 , ...,Cjr = er , ove e1 , e2 , ..., er sono i primi r elementi della base standard di Rn messi in colonna. Ciascuna delle colonne non pivot `e combinazione lineare delle colonne pivot che la precedono. Dunque C(A) = he1 , e2 , . . . , er i e dim C(A)0rango A. Consideriamo ora una matrice arbitraria A di taglia m × n e troviamo la sua forma canonica per righe, chiamiamola B. Siano a1 , a2 , . . . , an , rispettivamente b1 , b2 , . . . , bn , le colonne di A e B: A = a1 a2 . . . an , B = b1 b2 . . . bn 12 I sistemi lineari omogenei (5) x1 a1 + x2 a2 + . . . + xn an = 0 (6) x1 b1 + x2 b2 + . . . + xn bn = 0 hanno le stesse soluzioni perch´e i due sistemi hanno matrici associate equivalenti per righe. Se bj1 = e1 , bj2 = e2 , ...,bjr = er sono le colonne pivot di B, r = rango B = rango A, dico che le colonne aj1 , aj2 , ..., ajr formano una base dello spazio delle colonne C(A). Facciamo vedere infatti che 1) le colonne aj1 , aj2 , ..., ajr sono linearmente indipendenti, 2) ogni rimanente colonna aj , con j 6= j1 , j2 , . . . , jr `e combinazione lineare delle colonne aj1 , aj2 , ..., ajr . Primo punto: ragioniamo per assurdo e supponiamo che esistano scalari cj1 , cj2 , . . . , cjr non tutti nulli tali che cj1 aj1 + cj2 aj2 + . . . + cjr ajr = 0 Segue che (0, . . . , 0, cj1 , 0, . . . , 0, cj2 , 0, . . . , 0, cjr , 0, . . . , 0) `e una soluzione non nulla del sistema (5) e quindi anche del sistema (6). Segue che cj1 bj1 + cj2 bj2 + . . . + cjr bjr = cj1 e1 + cj2 e2 + . . . + cjr er = 0. Poich´e abbiamo supposto che gli scalari cj1 , cj2 , . . . , cjr non sono tutti nulli, troviamo un assurdo, essendo le colonne e1 , e2 , . . . , er linearmente indipendenti. Secondo punto: dato j 6= j1 , j2 , . . . , jr , sia h il massimo intero tale che 1 ≤ h ≤ r e j > jh . Allora bj = cj1 bj1 + cj2 bj2 + . . . + cji bjh per opportuni scalari cj1 , cj2 , . . . , cjh . Segue che (x1 , x2 , . . . , xn ) con −1 se k = j xk = ck se k = j1 , j2 , . . . , jh 0 altrimenti `e soluzione del sistema (6) e quindi anche del sistema (5). Segue che aj = cj1 aj1 + cj2 aj2 + . . . + cji ajh . Nel caso in cui j < j1 , allora bj = 0. Segue che (x1 , x2 , . . . , xn ) con ( 1 se k = j xk = 0 se k = 6 j `e soluzione del sistema (6) e quindi anche del sistema (5). Segue che aj = 0. Abbiamo dimostarto che ogni aj `e combinazione lineare delle colonne aj1 , aj2 , ..., ajr . Segue che C(A) = haj1 , aj2 , . . . , ajr i. In particolare dim C(A) = rango A. Teorema Il massimo numero di colonne linearmente indipendenti di una matrice A coincide con il rango della matrice A. ` necessario trovare la forma canonica per righe di A per determinare le colonne che danno una E ` sufficiente trovare una riduzione a scala della matrice A. Questo base di C(A)? La risposta `e no. E perch´e la forma canonica per righe di una matrice si ottiene da una qualunque riduzione a scala per righe della matrice senza cambiare la posizione delle colonne pivot. Per estrarre una base dello spazio delle colonne di una matrice A dalle colonne di A • si trova una matrice a scala per righe B equivalente ad A, • la base cercata `e data dalle colonne di A che hanno lo stesso indice delle colonne pivot di B. 13 Esempio Consideriamo la matrice 1 2 A= 5 −3 2 −1 4 −2 10 −5 −6 3 Una riduzione a scala di A `e la matrice 1 2 0 0 0 0 0 0 −1 0 0 0 −2 1 0 0 −2 −3 −3 2 −1 −1 −1 1 −1 1 1 0 Le colonne pivot sono la prima, la quarta e la quinta. Segue che C(A) = h 1 2 5 t 3 , −2 −3 −3 t 2 , −1 −1 t 1 i. −1 Esempio Consideriamo i vettori u1 = (1, 3, 3), u2 = (1, 5, −1), u3 = (2, 7, −4) e u4 = (1, 4, 1). Vogliamo estrarre dai vettori u1 , u2 , u3 , u4 una base del sottospazio U = hu1 , u2 , u3 , u4 i. Si mettono in colonna i quattro vettori, si calcola una riduzione a scala e i vettori cercati sono quelli corrispondenti alle colonne che hanno lo stesso indice delle colonne pivot della ridotta a scala: 1 1 2 1 1 1 2 1 3 5 7 4 ∼ 0 2 1 1 3 −1 −4 1 0 0 0 0 Le colonne pivot della ridotta sono la prima e la seconda. Segue che U = h(1, 3, 3), (1, 5, −1)i. Esercizi 1. Determinare basi di R(A) e di C(A) per le seguenti matrici 1 2 3 0 3 1 −2 1 1 −3 2 , , 5 6 7 , 0 −6 −3 6 3 4 −11 7 9 10 11 0 12 1 1 3 −1 1 1 2 −2 4 3 6 , 2 1 3 1 5 2 6 2 10 3 5 , −1 7 −1 −3 −1 −5 1 2 1 3 2 4 2 6 1 3 2 6 2 7 5 15 1 −2 , 4 3 7 5 14 1 4 . 6 15 2. Estrarre una base dai generatori dei seguenti sottospazi di R4 h(1, 1, −1, 2), (2, 1, 3, −4), (1, 2, −6, 10)i, h(1, 4, 1, 3), (2, 8, 3, 5), (1, 4, 0, 4), (2, 8, 2, 6)i. Risoluzione dei sistemi lineari con il metodo di Gauss Dato un sistema lineare Ax = b, il metodo di Gauss consiste nel • trovare una matrice a scala (B | c) equivalente per righe alla matrice completa del sistema (A | b), • risolvere con il metodo della sostituzione all’indietro il sistema a scala equivalente Bx = c. Esempio 1 Risolvere il sistema 3x − 2y + 2z = 9 x − 2y + z = 5 2x − y − 2z = −1 Riduzione a scala della matrice completa 3 −2 2 9 1 −2 1 s1,2 1 −2 1 5 −→ 3 −2 2 2 −1 −2 −1 2 −1 −2 5 1 a1,2 (−3),a1,3 (−2) 0 9 −→ −1 0 14 −2 4 3 1 −1 −4 5 −6 −11 1 −→ 0 0 a3,2 (−1) −2 1 3 1 3 −4 5 1 a2,3 (−3) 5 −→ 0 0 −11 −2 1 0 5 1 1 m3 (−1/13) 5 −→ 0 3 −13 −26 0 −2 1 0 1 5 3 5 1 2 Il sistema corrispondente alla riduzione a scala `e x − 2y + z = 5 y + 3z = 5 z=2 Questo sistema ha le stesse soluzioni del sistema di partenza. Per trovarle usiamo il metodo di sostituzione all’indietro: z = 2, y = 5 − 3z = −1, x = 5 + 2y − z = 1. Quindi il sistema ha una sola soluzione: (1, −1, 2). Volendo, si pu` o andare avanti con la riduzione e trovare la forma canonica 1 0 7 15 1 0 0 1 1 −2 1 5 a2,1 (2) a3,2 (−3),a3,1 (−7) 0 1 0 −1 0 1 3 5 −→ 0 1 3 5 −→ 0 0 1 2 0 0 1 2 0 0 1 2 Il sistema equivalente `e quindi x y = 1 = −1 z= 2 da cui si legge direttamente la soluzione. L’utilizzo della forma canonica ha il vantaggio che non richiede la sostituzione all’indietro. Lo svantaggio `e che la riduzione a forma canonica richiede un numero maggiore di operazioni elementari rispetto alla riduzione a scala. Gli esperti di algoritmi hanno stabilito che costa di meno, `e pi` u efficiente, fermarsi alla riduzione a scala seguita dalla sostituzione all’indietro. Notare che rango A = rango A# = numero delle incognite. Teorema 1 Sia Ax = b un sistema m × n. Se rango A = rango A# = rango (A | b) = n, allora il sistema ha una sola soluzione. Dim. Se rango A = rango A# = n, allora la riduzione a scala della matrice A porta ad una matrice con n righe non nulle e la matrice completa A# ha la forma p1 ∗ ∗ ∗ · · · ∗ ∗ 0 p2 ∗ ∗ · · · ∗ ∗ 0 0 p3 ∗ · · · ∗ ∗ .. .. .. .. . . .. .. . . . . . . . 0 0 0 0 · · · pn ∗ 0 0 0 0 ··· 0 0 . .. .. .. . . .. .. .. . . . . . . 0 0 0 0 ··· 0 0 dove p1 , p2 , . . . , pn sono n pivot (quindi tutti 6= 0) e le ultime m − n righe sono tutte nulle. Quindi si ottiene un sistema triangolare in cui le ultime m − n equazioni sono superflue. Con il metodo della sostituzione all’indietro si ricava l’unica soluzione del sistema. CVD Osserviamo che rango A ≤ rango A# perch´e una riduzione a scala B # di A# comprende una riduzione a scala B di A e quindi il numero di righe non nulle di B # `e maggiore o uguale al numero delle righe non nulle di B. Segue che, oltre al caso ora visto,le rimanenti possibilit`a sono: rango A < rango A# o rango A = rango A# < n. Esempio 2 Risolvere il sistema x 1 + x 2 − x 3 + x 4 = 1 2x1 + 3x2 + x3 = 4 3x1 + 5x2 + 3x3 − x4 = 5 15 Riduciamo a scala 1 1 −1 1 2 3 1 0 3 5 3 −1 la matrice completa del 1 a1,2 (−2),a1,3 (−3) 4 −→ 5 sistema: 1 0 0 1 1 2 −1 3 6 1 −2 −4 1 1 1 a2,3 (−2) 2 −→ 0 1 2 0 0 −1 3 0 1 −2 0 1 2 −2 L’ultima riga d` a l’equazione 0 = 0x1 + x2 + 0x3 + 0x4 = −2 e quindi il sistema `e incompatibile. In questo esempio abbiamo rango A = 2 < rango A# = 3. Teorema 2 Sia Ax = b un sistema m × n. Se rango A < rango A# = rango (A | b), allora il sistema non ha soluzioni. Dim. Se rango A < rango A# , nella riduzione a scala di A# compare una riga il cui primo elemento non nullo p `e l’elemento dell’ultima colonna. Questa riga d`a un’equazione della forma 0x1 + 0x2 + . . . + 0xn = p 6= 0 che non ha soluzioni. Segue che il sistema `e incompatibile. CVD Consideriamo infine l’ultimo caso: rango A = rango A# < n. Esempio 3 Risolvere il sistema 5x1 − 6x2 + x3 = 4 2x1 − 3x2 + x3 = 1 4x1 − 3x2 − x3 = 5 Riduciamo a scala la matrice completa del sistema: 1 −3 2 −1 1 5 6 1 4 (−1) a1,2 (−2),a1,3 (−4) 0 2 −3 1 1 a3,1 1 −→ 2 −3 1 −→ 4 −3 −1 5 4 −3 −1 5 0 1 m2 (1/3) −→ 0 0 −3 1 9 2 −1 −9 1 −1 a2,3 (−9) 1 −→ 0 9 0 −3 1 0 2 −1 0 −3 3 9 2 −3 −9 −1 3 9 −1 1 0 Il sistema associato alla forma a scala `e ( x1 − 3x2 + 2x3 = −1 x2 − x3 = 0 L’incognita libera `e x3 e la consideriamo come un parametro x3 = t. Dalle equazioni ricaviamo con la sostituzione all’indietro x2 = 1 + t, x1 = −1 + 3x2 − 2x3 = −1 + 3(1 + t) − 2t = 2 + t. Segue che l’insieme delle soluzioni `e l’insieme infinito S = {(2 + t, 1 + t, t) | t ∈ R} che dipende da 1 = 3 − 2, il numero delle equazioni meno il rango di A. def Teorema 3 Sia Ax = b un sistema m × n. Se r = rango A = rango A# = rango (A | b) < n, allora il sistema ha infinite soluzioni che dipendono da n − r parametri liberi. Dim. Una qualunque riduzione a scala B # ha solo r < n equazioni nelle n incognite e quindi vi saranno r incognite pivot ed n − r incognite libere. Fissati arbitrariamente i valori di queste n − r incognite libere, le r incognite libere sono univocamente determinate tramite sostituzione all’indietro dalle equazioni del sistema. Poich´e ogni incognita libera pu`o assumere infiniti valori, le soluzioni formano un insieme infinito. CVD Riassumendo quanto visto: Teorema di Rouch´ e-Capelli Sia Ax = b un sistema lineare m × n. Poniamo r = rango A ed r# = rango A# = rango (A | b). Allora • Se r < r# , il sistema `e incompatibile. • Se r = r# , il sistema `e compatibile ed – esiste una ed una sola soluzione se e solo se r = r# = n, – esiste un numero infinito di soluzioni se e solo se r = r# < n. 16 Sistemi omogenei Teorema Sia Ax = 0 un sistema lineare omogeneo m × n e sia r = rango A. Allora l’insieme S delle soluzioni del sistema `e un sottospazio vettoriale di dimensione n − r di Rn . In particolare, se r = n, il sistema ha la sola soluzione triviale x = 0 e, se m < n, il sistema ha infinite soluzioni. Dim. Chiaramente r = r# , quindi il sistema `e sempre compatibile. Poich´e x = 0 `e sempre una soluzione, se r = n la soluzione unica `e x = 0. Se m < n, allora r ≤ m < n e vi sono infinite soluzioni. Sappiamo che nel caso omogeneo le soluzioni formano un sottospazio vettoriale di Rn . Se xj1 , xj2 , . . . , xjn−r sono le incognite libere in una riduzione a scala del sistema, una base del sottospazio delle soluzioni `e data dalle soluzioni ottenute ponendo, per ognii = 1, 2, . . . , n − r, xj1 = 0, . . . , xji−1 = 0, xji = 1, xji+1 = 0, . . . , xjn−r = 0. CVD Esempio Risolvere il sistema x1 + 2x2 − 3x3 + 2x4 − 4x5 = 0 2x1 + 4x2 − 5x3 + x4 − 6x5 = 0 5x1 + 10x2 − 13x3 + 4x4 − 16x5 = 0 Riduzione a scala: 1 1 2 −3 2 −4 0 a1,2 (−2),a1,3 (−5) 2 4 −5 1 −6 0 0 −→ 5 10 −13 4 −16 0 0 1 2 −3 2 −4 a2,3 (−2) −→ 0 0 1 −3 2 0 0 0 0 0 2 0 0 −3 1 2 2 −3 −6 −4 2 4 0 0 0 0 0 0 Le incognite libere sono x2 = u, x4 = v e x5 = w da cui, sostituendo all’indietro, si ricava x3 = 3v − 2w, x1 = −2u + 7v − 2w. Quindi il sottospazio delle soluzioni `e dato da S = {(−2u + 7v − 2w, u, 3v − 2w, v, w) | u, v, w ∈ R}. Per u = 1, v = 0, w = 0, si ottiene a = (−2, 1, 0, 0, 0), per u = 0, v = 1, w = 0, si ottiene b = (7, 0, 3, 1, 0), per u = 0, v = 0, w = 1, si ottiene c = (−2, 0, −2, 0, 1). Segue che S = {ua + vb + wc | a, b, c ∈ R} e quindi S = ha, b, ci, il sottospazio generato da a, b, c in R5 . Sia A una matrice m × n. La nullit` a di A, null A, `e, per definizione, la dimensione del sottospazio delle soluzioni del sistema omogeneo Ax = 0. Dal precedente Teorema ricaviamo Teorema Sia A una matrice m × n. Allora rango A + null A = n Esercizi Risolvere i seguenti sistemi lineari 2x − y + 3z = 14 3x + y − 2z = −1 3x − y = 1 2x + y + 5z = 4 7x + 2y − 3z = 3 7x − 5y − 8z = −3 5x − y − 2z = 5 x1 + 2x2 − x3 + x4 = 1 2x − 3x + x − x = 2 1 2 3 4 x − 5x + 2x − 2x 1 2 3 4 =1 4x1 + x2 − x3 + x4 = 3 x1 + 2x2 − x3 + x4 = 1 2x1 + 4x2 − 2x3 + 2x4 = 2 5x1 + 10x2 − 5x3 + 5x4 = 5 x1 + x2 + x3 − x4 = 4 x − x − x − x = 2 1 2 3 4 x + x − x + x 1 2 3 4 = −2 x1 − x2 + x3 + x4 = −8 2x1 − x2 + 3x3 + x4 − x5 = 11 x1 − 3x2 − 2x3 − x4 − 2x5 = 2 3x1 + x2 − 2x3 − x4 + x5 = −2 x1 + 2x2 + x3 + 2x4 + 3x5 = −3 5x − 3x − 3x + x + 2x = 2 1 2 3 4 5 x1 + 2x2 + x3 + x4 − 2x5 = 3 x3 + 4x4 − 3x5 = 2 2x1 + 4x2 − x3 − 10x4 + 5x5 = 0 17 Risolvere i seguenti sistemi lineari omogenei 2x + y − z = 0 3x + 2y − z = 0 3x − y − 2z = 0 2x + y − z = 0 x−y−z =0 5x − 4y − z = 0 5x + 2y − 2z = 0 4x1 − 2x2 − x3 − x4 = 0 3x1 + x2 − 2x3 + 3x4 = 0 5x1 − x2 − 2x3 + x4 = 0 x−y+z =0 3y + 2z = 0 3x − z = 0 5x + y − z = 0 2x1 + x2 − x3 + x4 = 0 x + x + x − x = 0 1 2 3 4 3x − x + x − 2x 1 2 3 4 =0 4x1 + 2x2 − x3 + x4 Esempio Si consideri, al variare del parametro k ∈ R, il sistema lineare a coefficienti reali nelle incognite x1 , x2 , x3 , x4 x1 − kx3 = 0 x + (k + 1)x + x = 0 1 2 3 Sk : (k 2 + k)x3 + kx4 = k x1 − kx3 + kx4 = −1 (a) Determinare, al variare di k, il rango della matrice incompleta associata a Sk ed il rango della matrice completa associata a Sk . (b) Determinare, al variare di k, le soluzioni di Sk . (c) Dire se esiste un valore di k per il quale lo spazio delle soluzioni di Sk `e uguale al sottospazio h(1, −1, 1. − 1)i di R4 . La matrice completa del sistema `e 1 0 −k 0 0 1 k+1 1 0 0 0 0 k2 + k k k 1 0 −k k −1 Applicando le operazioni elementari a1,2 (−1) e a1,4 (−1) si ottiene la matrice 1 0 −k 0 0 0 k+1 k+1 0 0 0 0 k2 + k k k 0 0 0 k −1 Se k(k + 1) 6= 0, la matrice completa Per k = 0 si ottiene la matrice 1 0 0 0 1 1 0 0 0 0 0 0 e la matrice incompleta hanno entrambe rango 4. Quindi la matrice completa ha rango Per k = −1 si ottiene la matrice 1 0 1 0 0 0 0 0 0 0 0 0 3 mentre la matrice incompleta ha rango 2. 0 0 0 0 0 0 −1 −1 1 0 0 0 0 0 0 1 1 0 0 0 ∼ 0 0 0 0 0 1 −1 0 0 0 0 0 0 1 0 1 0 0 0 0 1 0 ∼ −1 0 0 0 0 −1 0 0 0 0 0 1 0 0 Segue che la matrice completa e la matrice incompleta hanno entrambe rango 2. Soluzioni: se k(k + 1) 6= 0, il sistema ha una sola soluzione; con il metodo della sostituzione all’indietro si ricava 1 1 1 x4 = − , x3 = , x2 = − , x1 = 1; k k k 18 per k = 0 il sistema `e incompatibile; per k = −1 il sistema ha infinite soluzioni; le incognite libere sono x2 e x3 e quindi con la sostituzione all’indietro si trovano le soluzioni x4 = 1, x3 = u, x2 = v, x1 = −u al variare di u, v in R. La risposta all’ultimo quesito `e negativa: il sistema Sk per nessun valore di k `e un sistema lineare omogeneo, unico caso in cui le soluzioni di un sistema lineare formano un sottospazio vettoriale. Pi` u semplicemente, basta osservare che (0, 0, 0, 0) ∈ h(1, −1, 1, −1)i non `e soluzione del sistema: facendo uguali a 0 tutte le incognite, la quarta equazione diventa 0 = −1 che `e incompatibile. Esercizi 1. Studiare, al variare del parametro h, le soluzioni del sistema nelle incognite x, y, z 2x + (h + 1)y − z = 3 3x + (2h − 1)y − z = 3 hx + 2hz = −h2 x + (h − 2)y = 0 (1 + h)x + (h − 2)y + 2hz = −h 2. Discutere il sistema nelle variabili x1 , x2 , x3 , x4 x1 − x2 + 2x4 = b ax1 + ax2 − 2x4 = c −ax2 + (a + 1)x4 = a al variare dei parametri a, b, c ∈ R. 3. Si consideri il sistema lineare Sk nelle incognite x1 , x2 , x3 , x4 a coefficienti reali definito da x1 + 2kx3 + x4 = 1 2kx + (2k + 1)x = 2k 2 3 Sk : x1 + 2kx2 + (6k + 2)x3 + x4 = 4k + 2 2kx2 + (2k + 1)x3 + (4k 2 + 2k)x4 = 2k (a) Al variare di k, calcolare il rango della matrice completa e della matrice incompleta associate ad Sk . (b) Determinare i valori di k per i quali il sistema Sk `e incompatibile. (c) Determinare i valori di k per i quali il sistema Sk ammette una sola soluzione e per tali valori calcolare la soluzione. (d) Determinare i valori di k per i quali il sistema Sk ammette infinite soluzioni e per tali valori calcolare le soluzioni. (e) Determinare i valori di k, se esistono, per i quali l’insieme delle soluzioni del sistema Sk `e un sottospazio vettoriale di R4 . 4. Si consideri il sistema 2x1 + x2 − x3 + x4 = 0 x + x + x − x = 0 1 2 3 4 4x + 2x − x + x4 = 0 1 2 3 3x1 − x2 + x3 + kx4 = 0 Determinare tutti i valori della costante k per i quali il sistema (a) non ha soluzioni, (b) ha infinite soluzioni, (c) ha un’unica soluzione. 5. Si consideri il sistema x + y − 2z = 4 3x + 5y − 4z = 16 2x + 3y − az = b Determinare tutti i valori delle costanti a e b per i quali il sistema (a) non ha soluzioni, 19 (b) ha infinite soluzioni, (c) ha un’unica soluzione. 6. Si consideri il sistema x − ay = 3 2x + y = 6 −3x + (a + b)y = 1 Determinare tutti i valori della costante k per i quali il sistema (a) non ha soluzioni, (b) ha infinite soluzioni, (c) ha un’unica soluzione. 7. Far vedere che il sistema x + y + z = a 2x + 3y + z = b 3x + 5y + z = 0 ha infinite soluzioni se e solo se a − 2b + c = 0. Applicazioni agli spazi vettoriali Esempi 1. Trovare un sistema lineare omogeneo il cui spazio delle soluzioni U `e il sottospazio di R4 generato dai vettori (in colonna) u1 = (1, −2, 0, 3)t , u2 = (1, −1, −1, 4)t , u3 = (1, 0, −2, 5)t . Il vettore v = (x1 , x2 , x3 , x4 )t appartiene al sottospazio U se e solo se v = c1 u1 + c2 u2 + c3 u3 . Questo equivale a dire che (c1 , c2 , c3 ) `e soluzione del sistema c1 + c2 + c3 = x1 −2c − c = x 1 2 2 −c2 − 2c3 = x2 3c1 + 4c2 + 5c3 = x3 La matrice incompleta del sistema `e la matrice A = u1 u2 u3 e la matrice completa `e la matrice 1 1 1 x1 1 1 1 x1 −2 −1 0 x2 0 1 2 2x1 + x2 (A | v) = 0 −1 −2 x3 ∼ 0 0 0 2x1 + x2 + x3 3 4 5 x4 0 0 0 −5x1 − x2 + x4 Segue che la matrice incompleta A ha rango 2. Affinch´e il sistema abbia soluzioni anche la matrice completa deve avere rango 2 e questo accade se e solo se ( 2x1 + x2 + x3 = 0 −5x1 − x2 + x4 = 0 Queste sono le equazioni cercate. Si chiamano anche equazioni cartesiane del sottospazio U (infinite scelte possibili). Le equazioni parametriche di U si ottengono invece combinando linearmente i vettori di una base di U . Nel caso in esame, una base di U `e data dai vettori u1 e u2 (come si vede dalla riduzione a scala della matrice A che ha come colonne pivot le prime due colonne). Allora le equazioni parametriche di U sono v = su1 + tu2 , ove s, t ∈ R si dicono i parametri x1 = s + t x = −2s − t 2 x 3 = −t x4 = 3s + 4t 2. Dato il sottospazio W tramite equazioni cartesiane, trovare una base di W . Ad esempio, supponiamo che W sia il sottospazio di R4 dato dalle soluzioni del sistema omogeneo x1 − x2 − x3 + x4 = 0 21 + x2 − x3 − 2x4 = 0 x1 − 4x2 − 2x3 + 5x4 = 0 20 Una riduzione a scala della matrice (incompleta) del sistema `e la matrice 1 −1 −1 1 0 3 1 −4 0 0 0 0 Segue che il sottospazio W ha dimensione 2. Le variabili libere sono x3 ed x4 . Ponendo x3 = 3s, x4 = 3t (la moltiplicazione per 3 serve ad eliminare i denominatori, questo non cambia la variabilit`a dei parametri), risolvendo il sistema si ottengono equazioni parametriche di W : x1 x 2 x 3 x4 = 2s + t = −s + 4t = 3s = 3t Una base di W si trova ponendo (s, t) = (1, 0) e (s, t) = (0, 1). Segue che W = h(2, −1, 3, 0), (1, 4, 0, 3)i. 3. Si considerino in R5 i sottospazi U e W definiti da U = h(1, 3, −2, 2, 3), (1, 4, −3, 4, 2), (2, 3, −1, −2, 9)i, W = h(1, 3, 0, 2, 1), (1, 5, −6, 6, 3), (2, 5, 3, 2, 1)i. (a) Calcolare una base e la dimensione di U e W . (b) Trovare equazioni cartesiane di U e W . (c) Trovare una base e la dimensione di U + W e di U ∩ W . (d) Trovare equazioni cartesiane di U + W e di U ∩ W . (e) Completare la base di U ∩ W trovata ad una base di U e ad una base di W . (f) Completare la base di U ∩ W trovata ad una base di U + W . (g) Completare il sistema di equazioni trovato per W ad un sistema di equazioni per U ∩ W . ˜ = (1, 6, −7, 8, 2), far vedere che appartiene al sottospazio U + W e trovare (h) Dato il vettore v ` vero o falso che u ˜ ∈ U, w ˜ ∈ W tali che v ˜=u ˜ + w. ˜ E ˜ ew ˜ sono univocamente determinati? u Soluzione: (a) Per trovare una base di U mettiamo in riga le coordinate dei generatori di U e riduciamo a scala la matrice trovata: 1 3 −2 2 3 1 3 −2 2 3 1 4 −3 4 2 ∼ 0 1 −1 2 −1 2 3 −1 −2 9 0 0 0 0 0 Segue che una base di U `e {u1 per W : 1 1 2 = (1, 3, −2, 2, 3), u2 = (0, 1, −1, 2, −1)} e dim U = 2. Similmente 3 5 5 0 −6 3 2 1 1 6 3 ∼ 0 2 1 0 3 1 0 0 −3 0 2 1 2 1 0 0 una base di W `e {(1, 3, 0, 2, 1), (0, 1, −3, 2, 1)} e dim W = 2. (b) Per calcolare le equazioni di U risolviamo il sistema x = a1 u1 + a2 u2 nelle incognite a1 , a2 , x = (x1 , x2 , x3 , x4 , x5 ). Mettiamo i vettori in colonna e riduciamo a scala: x1 1 0 1 0 x1 3 1 x2 −3x1 + x2 0 1 −2 −1 x3 ∼ 0 0 −x1 + x2 + x3 2 2 x4 0 0 4x1 − 2x2 + x4 3 −1 x5 0 0 −6x1 + x2 + x5 Segue che le equazioni di U sono −x1 + x2 + x3 = 0 U : 4x1 − 2x2 + x4 = 0 −6x1 + x2 + x5 = 0 21 Similmente per W 1 3 0 2 1 0 1 −3 2 1 x1 x2 x3 x4 x5 ∼ 1 0 0 1 0 0 0 0 0 0 x1 −3x1 + x2 −9x1 + 3x2 + x3 4x1 − 2x2 + x4 2x1 − x2 + x5 −9x1 + 3x2 + x3 = 0 W : 4x1 − 2x2 + x4 = 0 2x1 − x2 + x5 = 0 (c) Per calcolare una base di scala: 1 0 1 0 U + W , mettiamo in riga 1 3 −2 2 3 0 1 −1 2 −1 ∼ 3 0 2 1 0 0 1 −3 2 1 le basi trovate di U e di W e riduciamo a 3 −2 2 3 1 −1 2 −1 0 1 0 −1 0 0 0 0 Segue che una base di U + W `e {(1, 3, −2, 2, 3), (0, 1, −1, 2, −1), (0, 0, 1, 0, −1)} e dim(U + W ) = 3. Per calcolare una base di U ∩W (che ha dimensione dim(U ∩W ) = dim U +dim W −dim(U +W ) = 1) posso risolvere il sistema ottenuto mettendo assieme le equazioni di U e W : −x1 + x2 + x3 = 0 4x1 − 2x2 + x4 = 0 −6x + x + x = 0 1 2 5 U ∩W: −9x1 + 3x2 + x3 = 0 4x1 − 2x2 + x4 = 0 −4x1 + x2 + x5 = 0 A tal fine riduco a scala la matrice (incompleta) del sistema −1 1 −1 1 1 0 0 4 −2 0 1 0 0 1 −6 1 0 0 1 0 0 −9 3 1 0 0 ∼ 0 0 4 −2 0 1 0 0 0 0 0 −4 1 0 0 1 1 0 0 2 0 1 2 0 3 0 1 −2 0 0 0 0 0 0 Segue che il sottospazio delle soluzioni `e {(t, 4t, −3t, 4t, 2t) | t ∈ R} = h(1, 4, −3, 4, 2)i. Quindi dim(U ∩ W ) = 1 e una base di U ∩ W `e data dal vettore (1, 4, −3, 4, 2)(= u1 + u2 ). Altro modo per calcolare una base di U ∩ W . Si trovano equazioni parametriche di U , ad esempio x = s1 u1 + s2 u2 : x1 = s1 x2 = 3s1 + s2 x3 = −2s1 − s2 x4 = 2s1 + 2s2 x = 3s − s 5 1 2 Si sostituiscono queste equazioni nelle equazioni cartesiane di W e si trova −9x1 + 3x2 + x3 = −9s1 + 3(3s1 + s2 ) + (−2s1 − s2 ) = −3(s1 − s2 ) = 0 4x1 − 2x2 + x4 = 4s1 − 2(3s1 + s2 ) + 2s1 + 2s2 = 0 2x1 − x2 + x5 = 2s1 − 3s1 − s2 + 3s1 − s2 = 2(s1 − s2 ) = 0 Segue che s1 = s2 e quindi, posto t = s1 = s2 , si trova di nuovo U ∩ W = {(t, 4t, −3t, 4t, 2t)}. Questo metodo `e preferibile al precedente perch´e `e pi` u rapido non richiedendo la riduzione a scala di una matrice di taglia 6 × 5. In generale per calcolare U ∩ W conviene trovare equazioni parametriche di uno dei sottospazi ed equazioni cartesiane dell’altro sottospazio poi sostituire le equazioni parametriche nelle equazioni cartesiane e risolvere il sistema di equazioni che cos`ı si trova e che ha per incognite i parametri del primo sottospazio. 22 (d) Equazioni di U ∩ W si ricavano subito dalle equazioni parametriche x1 = t, x2 = 4t, x3 = −3t, x4 = 4t, x5 = 2t 4x1 − x2 = 0 3x + x = 0 1 3 U ∩W: 4x − x 1 4 =0 2x1 − x5 = 0 Per trovare equazioni di U + W mettiamo assieme in x e riduciamo a scala la matrice trovata 1 0 1 0 0 x1 0 1 3 1 0 x 2 −2 −1 1 x3 ∼ 0 0 2 2 0 x4 0 0 3 −1 −1 x5 0 0 colonna la base trovata di U + W e il vettore 0 0 1 0 0 x1 −3x1 + x2 −x1 + x2 + x3 4x1 − 2x2 + x4 −7x1 + 2x2 + x3 + x5 Segue che ( (7) U +W: 4x1 − 2x2 + x4 = 0 −7x1 + 2x2 + x3 + x5 = 0 (e) Per completare la base (1, 4, −3, 4, 2) di U ∩ W ad una base di U basta aggiungere un vettore di U che non sia multiplo di (1, 4, −3, 4, 2), ad esempio (0, 1, −1, 2, −1). Idem per W , basta aggiungere (0, 1, −3, 2, 1). (f) Basta mettere assieme a v = (1, 4, −3, 4, 2) i due vettori u = (0, 1, −1, 2, −1) e w = (0, 1, −3, 2, 1) che non sono multipli di (1, 4, −3, 4, 2) e stanno il primo in U ed il secondo in W . I tre vettori v, u, w chiaramente appartengono a U + W ed `e immediato verifiicare che i tre vetttori sono linearmente indipendenti e quindi formano una base di U + W . (g) Consideriamo un’equazione a1 x1 +a2 x2 +a3 x3 +a4 x4 +a5 x5 = 0 e imponiamo che (1, 4, −3, 4, 2) sia soluzione dell’equazione; otteniamo (8) a1 + 4a2 − 3a3 + 4a4 + 2a5 = 0 e poi imponiamo che il sistema −9x1 + 3x2 + x3 = 0 4x − 2x + x = 0 1 2 4 (9) 2x − x + x =0 1 2 5 a1 x1 + a2 x2 + a3 x3 + a4 x4 + a5 x5 = 0 abbia rango 4. In tal caso infatti lo spazio delle soluzioni ha dimensione 1 e quindi coincide con U ∩ W . Riducendoo a scala la matrice −9 3 1 0 0 4 −2 0 1 0 2 −1 0 0 1 si ottiene la matrice 1 0 0 1 3 0 −1 −2 0 2 4 −1 0 −1 2 e quindi se poniamo, ad esempio, a1 = a2 = 0, a3 = 2, a4 = 1, a5 = 1 la matrice (9) ha rango 4 e la condizione (8) `e soddisfatta. ˜ (h) La risposta alla domanda riguardante l’unicit`a `e: falso, esistono infiniti modi di scrivere v ˜, w ˜ tali che v ˜=u ˜ + w, ˜ come somma di un elemento di U e di un elemento di W . Infatti trovati u ˜ = (˜ ˜ − v0 ) e chiaramente u ˜ + v0 ∈ U e per ogni v0 ∈ U ∩ W possiamo scrivere v u + v0 ) + (w ˜ − v0 ∈ W . w ˜ ev ˜ usiamo la base {v, u, w} di U + W trovata nel punto (f) e risolviamo il sistema Per trovare u 23 ˜ = xv + yu + zw. Mettendo in colonna i vettori si ottiene il sistema v x = 1 4x + y + z = 6 −3x − y − 3z = −7 4x + 2y + 2z = 8 2x − y − z = 2 ˜ = v+u+w e che si verifica facilmente avere x = y = z = 1 come unica soluzione. Segue che v ˜ =v+u e w ˜ = w. quindi possiamo prendere ad esempio u Esercizi 1. Dati i vettori di R4 u1 = (1, −2, 5, −3), u2 = (2, 3, 1, −4), u3 = (3, 8, −3, −5) si consideri il sottospazio U = hu1 , u2 , u3 i. (a) Calcolare una base e la dimensione di U . (b) Estendere la base trovata ad una base di R4 . (c) Trovare equazioni cartesiane di U . 2. Consideriamo i due sottoinsiemi U e W di R3 definiti da U = {(x, y, z) ∈ R3 | x = y = z}, W = {(x, y, z) ∈ R3 | x = 0}. (a) Far vedere che U e W sono sottospazi vettoriali di R4 . (b) Far vedere che U ∩ W = {0} e U + W = R3 . (c) Dato v = (a, b, c) ∈ R3 trovare u ∈ U , w ∈ W tali che v = u + w. 3. Si considerino in R5 il sottospazio U = h(0, 1, 0, 2, 0), (0, 1, 0, 0, 1), (0, 0, 0, 1, 0)i e il sottospazio W delle soluzioni del sistema lineare 13x1 + 2x2 − x4 − 2x5 = 0 2x2 − x4 − 2x5 = 0 x1 = 0 (a) Determinare una base e la dimensione sia di U che di W . (b) Determinare una base di U ∩ W e calcolare la dimensione di U ∩ W e di U + W . (c) Completare la base trovata di U ∩ W ad una base di U + W . (d) Aggiungere il minimo numero di equazioni ad un sistema lineare che definisce W per ottenere un sistema che abbia come soluzioni i vettori del sottospazio U ∩ W . 4. Si considerino i seguenti sottospazi di R4 U = h(1, 1, −1, −1), (−1, 1, −1, 1)i, W = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 + x3 + x4 = 0, x2 = 0}. ` vero o falso che U e V sono in somma diretta? (a) Determinare U ∩ W . E (b) Determinare le equazioni cartesiane di U + W . (c) Verificare che v = (2, 4, −1, −5) ∈ U +W e determinare vettori u ∈ U , w ∈ W tali che v = u+w. 24
© Copyright 2024 ExpyDoc