´Algebra Lineal Volumen I Transformaciones lineales

´
Algebra
Lineal
Volumen I
Transformaciones lineales
Jorge Luis Arocha
versi´
on compilada el
17 de mayo de 2015
Jorge Luis Arocha P´erez
Instituto de Matem´aticas
Universidad Nacional Aut´onoma de M´exico
M´exico D.F. 04510
BibTeX:
@textbook{ArochaLA
AUTHOR = {Arocha, Jorge L.}
TITLE = {\’Algebra Lineal}
YEAR = {2014}
NOTE = {Available at combinatoria.matem.unam.mx}
}
Mathematics Subject Classification 2010: 00—01, 12—01, 15—01
c
°2014
Jorge Luis Arocha P´erez
Permitida la reproducci´on para uso individual y no comercial.
Todos los dem´as derechos est´an reservados.
Introducci´on
´
Este libro lo escrib´ı como texto b´asico para el curso de “Algebra
Lineal” para estudiantes de Licenciatura que he impartido por muchos a˜
nos en la Facultad de Ciencias
de la Universidad Nacional Aut´onoma de M´exico.
´
Se presupone que los estudiantes hayan cursado ya las materias de “Algebra
superior” y “Geometr´ıa Anal´ıtica” o sea tengan ciertos conocimientos sobre matrices,
vectores, polinomios, n´
umeros complejos, etc.
El objetivo es desarrollar el ´algebra lineal sobre campos arbitrarios pero se hace
´enfasis en los reales, los complejos y los residuos m´odulo un n´
umero primo. Despu´es de
una introducci´on corta a la teor´ıa de campos se estudian los espacios vectoriales, las
transformaciones lineales, los determinantes y finalmente los teoremas de descomposici´on de operadores.
Por ahora, aqu´ı no hay pr´acticamente nada de transformaciones bilineales, productos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes est´a escribir
un segundo volumen o aumentar este libro con cap´ıtulos sobre estos temas.
El material desarrollado es demasiado para un semestre y usualmente yo imparto en
un semestre los cap´ıtulos I–IV (aquellas secciones que no est´an marcadas como avanzadas). Un segundo semestre podr´ıa comenzar con las secciones de polinomios sobre
campos, continuar con la descomposici´on de operadores lineales y terminar con aquellos temas que ya se˜
nal´e, faltan aqu´ı. Otras secciones las escrib´ı porque me parecieron
un buen material de lectura complementaria para los alumnos curiosos.
Una particularidad de la exposici´on es que para m´ı, las matrices no tienen orden, por
ejemplo, las matrices de cambio de base estan naturalmente indexadas por conjuntos
de vectores y los conjuntos de vectores no tienen un orden natural. Como resultado de
esto este libro es fundamentalmente conceptual y no computacional.
El libro es inusualmente colorido y visualmente agresivo. La raz´on de esto es que
cuando estaba en el papel de alumno yo prefer´ıa estudiar por las libretas de notas de
mis compa˜
neras de clase. Se me hac´ıa muy f´acil memorizar la imagen completa de una
p´agina llena de rayas, flores, corazones etc. y dentro de todo esto, las matem´aticas. La
idea es que cada p´agina luzca visualmente diferente. He tratado dentro de lo posible,
lograr esto.
Los caracteres de matem´aticas est´an en un color diferente. El texto y las secciones
avanzadas est´an marcados con un birrete. Uso unos lentes para marcar aquello que
el lector no debe dejar pasar. Errores comunes que cometen los que no est´an familiarizados con el material est´an marcados con calaveras. Los teoremas est´an resaltados
visualmente, etc.
Se incluyen m´as de un centenar de ejercicios. Los ejercicios m´as notables consisten
en material adicional que un estudiante de matem´aticas o f´ısica debe conocer tarde o
temprano. Las soluciones de los ejercicios no rutinarios se dan al final del libro.
He compilado un glosario de t´erminos que es a la vez un ´ındice del libro y un
diccionario de los conceptos introducidos y/o usados.
Incluyo una gu´ıa de estudio. De esta gu´ıa yo escojo las preguntas para los ex´amenes.
Esto representa una ventaja enorme para los estudiantes ya que una de las dificultades
IV
m´as importantes de ser estudiante es comprender que es lo que se espera de ellos.
Finalmente, quiero agradecer a mis colegas Javier Bracho, Francisco Larri´on y Omar
Antol´ın que han influenciado de una u otra manera a esclarecer mis ideas sobre el
tema y que contribuyeron substancialmente a hacer de este, un libro mejor. Muchos
de mis estudiantes m´as notables han encontrado errores en mis notas de clase, mi
agradecimiento a todos ellos.
Jorge L. Arocha
M´exico D.F. Octubre de 2014
Cap´ıtulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4). Distributividad (5). El ´algebra “abstracta”(5).
1.2 N´
umeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (8). Reales (8).
Complejos (9).
1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composici´
on de morfismos (13).
1.4 Campos de restos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
El anillo de los enteros m´odulo n (14). Dominios de integridad (15). El campo
de los enteros m´odulo p (16).
1.5 Campos primos. Caracter´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
Campos primos (17). Caracter´ıstica (19).
1.6 Aritm´etica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
M´
ultiplos y exponentes enteros (19). Asociatividad general (19). Distributividad
general (20). F´
ormula multinomial (20). La expansi´
on de ΠΣαij (21).
*1.7 Anillos con divisi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
Quaterniones (23). Caso finito (24).
Cap´ıtulo 2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1 El plano cartesiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Definici´on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
27
28
El espacio de n-adas Kn (29). El espacio de polinomios K [x] (30). El espacio
de sucesiones KN (30). El espacio de series K [[x]] (30). El espacio de funciones
KN (30). El espacio de N-adas KN (31). El espacio de N-adas finitas K{N }
(31). Subcampos (32). El espacio de N-adas de vectores EN (32). El espacio de
NM-matrices KN M (32). El espacio de tensores (33).
2.3 Subespacios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
Uni´
on e intersecci´
on de subespacios (34). Combinaciones lineales (35). Cerradura lineal (36).
2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
Conjuntos generadores (38). Conjuntos linealmente independientes (38). Bases
(39). Dimensi´
on (41). Bases can´onicas (43).
2.5 Clasificaci´on de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
Isomorfismos lineales (44). Coordinatizaci´
on (45). Clasificaci´
on (46). Campos
de Galois (46). Como pensar en espacios vectoriales (47).
2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
48
VI
Contenido
Subespacios de Rn (48). Suma de conjuntos y subespacios (49). La igualdad
modular (49). Suma directa (50). Isomorfismo can´
onico entre la suma y la suma
directa. (51). Subespacios complementarios (52). Espacios vectoriales versus
conjuntos (53).
2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
Subespacios afines (54). El espacio cociente (56). El isomorfismo con los complementarios (56).
*2.8 El espacio af´ın . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
La regla del paralelogramo (58). Cerradura af´ın (58). Generadores e independencia (59). Bases afines (59).
*2.9 El caso de dimensi´on infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
El Lema de Zorn (61). Existencia de bases (61). Cardinales (62). Equicardinalidad de las bases (63).
Cap´ıtulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1 Definici´on y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
65
Im´
agenes de subespacios (65). Homotecias (66). Inmersiones (67). Proyecciones
(67).
3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . .
68
El espacio vectorial de las transformaciones lineales (68). Composici´on de transformaciones lineales (69). El ´algebra de operadores lineales (70). El grupo general lineal (71).
3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
N
Extensiones y restricciones (71). El isomorfismo entre F
criterio de isomorfismo (73).
71
y Mor (E, F) (73). Un
3.4 Coordinatizaci´on de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . .
74
El producto escalar can´onico (75). El producto de matrices (76). Productos de
matrices y vectores (76). La transformaci´
on lineal de una matriz (77). La matriz
de una transformaci´on lineal (77). Composici´
on de TLs y producto de matrices
(78). Matrices inversas (79).
3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
Cambios de base en un espacio vectorial (80). Cambios de base en el espacio
de transformaciones lineales (81). Cambios de base en el espacio de operadores
lineales (82).
3.6 El n´
ucleo y la imagen de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
Definiciones (82). Transformaciones lineales con n´
ucleo trivial (83). Descomposici´
on de transformaciones lineales (83). Un criterio de isomorfismo (84). Descomposici´
on can´onica de transformaciones lineales (85).
*3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . .
86
Trasformaciones semilineales reales (86). Propiedades de las transformaciones
semilineales (87). Automorfismos semilineales. (87). Coalineaciones (88). Estructura de las coalineaciones (90).
Cap´ıtulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
El grupo sim´etrico (93). Ciclos y ´orbitas (94). El grupo alternante (95). El signo
de una permutaci´on (97).
93
93
Contenido
4.2 Determinantes. Propiedades b´asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
VII
97
Definici´
on de los determinantes (98). Determinantes de matrices peque˜
nas (98).
El determinante de la identidad (99). Matrices con filas nulas (100). El determinante de la transpuesta (100). El determinante del producto (100). Matrices
con filas iguales (101). Matrices de permutaciones (102). Permutaciones de columnas y renglones (103).
4.3 Expansi´on de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
104
Cambios de ´ındices (104). Complementos algebraicos (106). La expansi´on de un
determinante por sus renglones (106). La expansi´on de Laplace en forma gr´afica
(107). Multinearidad de los determinantes (108). La inversa de una matriz (110).
El determinante de un operador lineal (111).
*4.4 La expansi´on generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
112
Matrices diagonales y triangulares por bloques (113). La expansi´
on generalizada
de Laplace en forma gr´afica (114).
4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
116
Matrices no singulares (116). Espacios de columnas y renglones (116). Lema de
aumento de matrices no singulares (117). Bases de una matriz (118).
4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
119
Regla de Cramer (120). Existencia de soluciones (121). Eliminaci´
on de ecuaciones dependientes (121). El n´
ucleo y la imagen de una matriz (122). Bases del
subespacio af´ın de soluciones (122).
4.7 M´etodo de eliminaci´on de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
123
Transformaciones elementales (124). Ejemplo (125). El caso general (125). Soluci´
on de ecuaciones matriciales, matriz inversa (126).
Cap´ıtulo 5 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.1 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
129
Suma y producto de polinomios (129). La funci´on de evaluaci´on (130). Divisi´on
de polinomios (131). Divisibilidad (131). Factores y raices (133). Ideales de
polinomios (134). Unicidad de la factorizaci´
on en irreducibles. (135). El conjunto
ordenado de polinomios m´
onicos (136). Desarrollo de Taylor (137).
*5.2 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . .
138
Forma polar. Igualdad de Moivre (139). Continuidad (140). L´ımite de sucesiones
complejas (141). Teorema de Gauss (142).
5.3 Factorizaci´on de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . .
143
Caso Complejo (144). Caso real (144).
*5.4 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . .
145
Campos de fracciones (146). Funciones racionales (147).
Cap´ıtulo 6 Descomposici´
on de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . 149
6.1 Suma directa de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
149
Subespacios invariantes, componentes irreducibles (150). Ejemplos en dimensi´
on
2 (152). Las matrices y los subespacios invariantes (152).
6.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
153
VIII
Contenido
El morfismo de K [x] en End (E) (153). La sub´algebra K [h] (155). El polinomio
m´ınimo (155). El per´ıodo de un vector (156). Anuladores (157). Propiedades
del per´ıodo. (157).
6.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
158
N´
ucleos de polinomios de operadores lineales (158). Operadores lineales radicales (159). Componentes radicales (160). Existencia de un vector de per´ıodo
m´aximo (161).
6.4 Subespacios c´ıclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
162
h-combinaciones (162). Conjuntos h-generadores (162). Subespacios c´ıclicos
(163). Conjuntos h-independientes (164). h-bases (165).
6.5 Descomposici´on en subespacios c´ıclicos radicales. . . . . . . . . . . . . . . . . . .
166
El espacio cociente por un subespacio invariante (166). Polinomios y el espacio
cociente (167). El per´ıodo en el espacio cociente (168). Existencia de h-bases
(169). Unicidad de la descomposici´on (170). Estructura de los operadores c´ıclicoradicales (173).
6.6 Polinomio caracter´ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
174
Rectas invariantes (174). El polinomio caracter´ıstico de un operador lineal (174).
El polinomio caracter´ıstico y el polinomio m´ınimo (176).
6.7 Formas normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
178
Forma normal de Jord´an (179). Forma normal real (180). Forma normal can´onica (182).
Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
Gu´ıa de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
IX
El a´lgebra es la oferta hecha por el Diablo a los matem´aticos.
El Diablo dice:
“Yo te dar´e a ti esta poderosa maquinaria
que responder´a cualquier pregunta que tu quieras.
Todo lo que se necesita que tu hagas es entregarme tu alma:
dame la geometr´ıa y tendr´as esta maravillosa m´aquina”
...el da˜
no a nuestra alma est´a ah´ı,
porque cuando usted pasa a hacer c´alculos algebraicos,
esencialmente usted deja de pensar...
Sir Michael Atiyah
La forma correcta de leer las matem´aticas consiste en primero
leer las definiciones de los conceptos y las afirmaciones de los teoremas; luego,
poner el libro a un lado y tratar de descubrir por si mismo las pruebas adecuadas.
Si los teoremas no son triviales, el intento puede fallar,
pero es probable que de todas maneras sea instructivo.
Para el lector pasivo un c´omputo rutinario y un milagro de creatividad,
se leen con la misma facilidad, y m´as tarde, cuando deba depender de s´ı mismo,
se dar´a cuenta de que se fueron tan f´acilmente como vinieron.
El lector activo, que se ha enterado de lo que no funciona,
entiende mejor la raz´on del ´exito del m´etodo del autor,
y despu´es encontrar´a las respuestas que no est´an en los libros...
Paul Halmos
X
Capítulo primero
Campos
l objeto del a´lgebra lineal es el estudio de los espacios vectoriales. Estos
espacios son estructuras algebraicas cuyos objetos son de dos tipos los vectores
y los escalares. Las operaciones definidas en los espacios vectoriales son la
suma y resta de vectores, la suma resta multiplicaci´on y divisi´on de escalares y la
multiplicaci´on de escalares por vectores. La mayor´ıa de los temas estudiados en este
libro no dependen del conjunto de escalares y el lector puede casi siempre considerar
que los escalares son los reales R y que el espacio vectorial es el espacio “geom´etrico”
com´
un Rn .
Sin embargo, como esta teor´ıa no depende (al menos en gran parte) del conjunto de
escalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matem´aticas
y las ciencias naturales) es conveniente elevar un paso el nivel de abstracci´on y pensar
que el conjunto de escalares es un campo arbitrario K .
El primer objetivo de este cap´ıtulo es dar al lector un conocimiento b´asico de lo
que es un campo. Esto se pretende lograr por tres medios: dando la definici´on formal,
estudiando algunas propiedades (como la caracter´ıstica) de los mismos, viendo que las
reglas usuales de manipulaci´on de f´ormulas en un campo no se diferencian esencialmente
de las f´ormulas en los reales y sobre todo, dando los ejemplos fundamentales de campos.
1.1
Operaciones binarias
Sea A un conjunto. Una operaci´
on binaria es una funci´on del producto cartesiano
A × A en A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A
se le hace corresponder un tercer elemento de A. Demos algunos ejemplos sencillos:
1) a + b
2) a − b
3) ab
4) ab
suma
resta
producto
divisi´on
5)
6)
7)
8)
ab
loga b
mcd (a, b)
mcm (a, b)
exponenciaci´on
logaritmo
m´ax com´
un divisor
m´ın com´
un m´
ultiplo
Lo primero que observamos de los ejemplos anteriores es que no hemos definido
en cual conjunto est´a definida la operaci´on. Esto no es correcto formalmente, as´ı por
2
Cap´ıtulo 1. Campos
ejemplo la divisi´on es una operaci´on que no est´a definida en el conjunto de los n´
umeros
enteros. Sin embargo el lector podr´a f´acilmente encontrar los conjuntos en los cuales
estos ejemplos son operaciones binarias.
Ejercicio 1 ¿En cuales conjuntos las operaciones 1-8 est´an correctamente definidas?
Ejercicio 2 ¿Que es una operaci´on unaria? De ejemplos. [185]
Ejercicio 3 Dados tres n´umeros reales a, b, c definamos A (a, b, c) como el area del
tri´angulo con lados a, b y c. ¿Es esta una operaci´on ternaria en R? [185]
Lo segundo que debemos de observar, es la variedad de notaciones usadas para
representar las operaciones binarias. Sobre todo, son complicadas las notaciones de la
operaciones 4-6. Lo que tienen en com´
un, es que no nos alcanza una l´ınea de s´ımbolos para escribirlas. Necesitamos subir y/o bajar adem´as de movernos de derecha a
izquierda. O sea, necesitamos dos dimensiones para escribirlas.
Quiz´a sea m´as ilustrativo, poner un ejemplo m´as complejo
π/4
¢
R ¡
de notaci´
on dos-dimensional. La integral en el recuadro
a sin x + b sin x2 dx a la izquierda est´a bien definida para cualesquiera valores
0
reales a, b y por lo tanto es una operaci´on binaria en R.
M´as sencillos son los ejemplos de notaciones lineales 1-3,7-8. En realidad, para las
notaciones lineales solo hay tres posibilidades:
◦ (a, b) notaci´
on prefija o funcional
a◦b
notaci´
on operacional
(a, b) ◦ notaci´
on sufija
Las operaciones 1-3 est´an en notaci´on operacional y las operaciones 7-8 est´an en
notaci´on prejija. La notaci´on sufija es u
´til sobre todo en la programaci´on de compiladores para lenguajes de computadoras (tales como pascal o C++) ya que frecuentemente
lo m´as f´acil es decirle a una computadora “toma el n´
umero a”, “toma el n´
umero
b”,“s´
umalos” y no hacerlo de otra manera.
Ejercicio 4 La notaci´on sufija para a (b + c) /2 es bc+a×2÷ . ¿Cual ser´a la notaci´on
sufija para la expresi´on (a + b) (x + y)? [185]
Cualquier intento, de tratar de unificar las notaciones usadas en la comunicaci´on
entre humanos, solo llevar´ıa a confusiones mucho peores. Sin embargo, tenemos la
libertad de escoger una notaci´on unificada para las operaciones binarias abstractas que
definamos. De una vez, postularemos que siempre usaremos la notaci´on operacional
para definir operaciones binarias abstractas.
Recalquemos que una operaci´on “abstracta” no significa nada m´as que es una operaci´on que puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2.
Secci´on 1.1
Operaciones binarias
3
Despu´es, tempranamente en el estudio de las matem´aticas, la expresi´on a + b significa
que a un n´
umero a (no se sabe cual) le sumamos un n´
umero b (tampoco se sabe cual).
Ahora, la expresi´on a + b significar´a que a un objeto a (n´
umero, polinomio, matriz,
quien sabe que) le “sumamos” (no se sabe lo que quiere decir “suma”) un objeto b (del
que tampoco se sabe mucho).
Conmutatividad
¿Es 3+2 igual a 2+3? S´ı. ¿Es 32 igual a 23 ? No. Una operaci´on binaria
∀a, b ∈ A
denotada por ◦ y definida en el conjunto A se dice que es conmutaa ◦ b = b ◦ a tiva si se cumple la propiedad en el recuadro a la izquierda. Ser o no
conmutativa es la propiedad m´as sencilla que diferencia las operaciones binarias.
Ejercicio 5 ¿Cuales de las operaciones 1-9 son conmutativas? [185]
Asociatividad
¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5?
¿No ser´a que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna
diferencia entre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 =
2 + (3 + 5) .
Una operaci´on binaria denotada por ◦ y definida en el
conjunto A se dice que es asociativa si se cumple la pro- ∀a, b, c ∈ A
a ◦ (b ◦ c) = (a ◦ b) ◦ c
piedad en el recuadro de la derecha.
Los estudiantes preuniversitarios se encuentran por primera vez con la dificultad de una operaci´on no asociativa en el caso de la operaci´on de
3
exponenciaci´on. A esta temprana edad es muy necesario insistir que la expresi´on 22
¡
¢
3
3
es ambigua porque 2(2 ) = 256 6= 64 = 22 .
Ejercicio 6 ¿Cuales de las operaciones 1-9 son asociativas? [185]
La asociatividad de una operaci´on es una propiedad crucial. Sin esta propiedad, el
manejo algebraico de una operaci´on se complica bastante.
Es m´as, gracias a ella podemos introducir la notaci´on de la operaci´on
11
“repetida”. Si tenemos 11 elementos a1 , a2 , . . . , a11 entonces, para denotar P
a
la suma a1 + a2 + · · · + a11 podemos usar la notaci´on (mucho m´as c´omoda) n=1 n
que se muestra en el recuadro a la derecha. Esta notaci´on no requiere de la
conmutatividad de la operaci´on “suma” gracias a que los ´ındices tienen un orden y
sabemos cual elemento debe ir primero y cual despu´es.
Si tenemos que la operaci´on es no solamente asociativa sino tambi´en conmutativa
entonces podemos ser m´as generosos con esta notaci´on.
Cap´ıtulo 1. Campos
4
Supongamos que aρ , a` , aκ , a9 y a∇ son elementos de un conjunto con una
suma asociativa y conmutativa. Entonces la suma de estos (¡no importa el
n∈N
orden!) la podemos denotar por la expresi´on en el recuadro a la izquierda,
donde N es el conjunto de ´ındices {ρ, κ, `, ∇, 9}.
Si la operaci´on binaria definida noPse llama “suma” sino “producto”, entonces
Q es
usual, en lugar de usar la letra griega
(sigma may´
uscula), usar la letra griega
(pi
may´
uscula). Podemos, en este caso, usar la primera o segunda notaci´on dependendiendo
de si nuestro producto es conmutativo o no.
P
an
Elementos neutros
La suma de n´
umeros naturales tiene un elemento especial y u
´nico: el cero. Su
propiedad definitoria es que cualquier n´
umero sumado con cero da el mismo n´
umero.
La misma propiedad la tiene el uno con respecto al producto de n´
umeros naturales.
Para una operaci´on binaria denotada por ◦ y definida en el ∀a ∈ A
conjunto A se dice que e ∈ A es un elemento neutro si este a ◦ e = e ◦ a = a
cumple la propiedad en el recuadro.
Una operaci´on binaria no puede tener m´as de un elemento neutro. Efectivamente,
sean e y e0 elementos neutros. Por ser e neutro, tenemos e ◦ e0 = e0 . Por ser e0 neutro,
tenemos e ◦ e0 = e. De estas dos igualdades obtenemos e = e0 .
Ejercicio 7 ¿Cuales de las operaciones 1-9 tienen neutro? [185]
Los elementos neutros juegan un papel importante en las notaciones para operaciones repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean
adem´as N y M dos conjuntos finitos y disjuntos de ´ındiQ
Q
Q
ai •
ai =
ai ces. Naturalmente, de la definici´on se sigue la propiedad
i∈N
i∈M
i∈N∪M
del recuadro a la izquierda.
Pero ¿que pasa si alguno de los conjuntos de ´ındices (digamos M) es vac´ıo? Si
queremos que esta propiedad se conserve entonces observamos que
Y
Y
Y
Y
ai •
ai =
ai =
ai
i∈N
Q
i∈∅
i∈N∪∅
i∈N
por lo que necesariamente i∈∅ ai tiene que ser el elemento neutro de nuestra operaci´on
(si no hay neutro entonces estamos en problemas).
Es por esto, como el lector seguramente ya sabe, que la suma vac´ıa de n´
umeros es
igual a cero y el producto vac´ıo de n´
umeros es igual a uno.
Elementos inversos
Secci´on 1.1
Operaciones binarias
5
Para cada n´
umero entero a hay un u
´nico n´
umero −a tal que sumado con a da cero.
Generalizemos esta propiedad a operaciones binarias arbitrarias. Sea ◦ una operaci´on
binaria en el conjunto A con elemento neutro. Se dice que a ∈ A
a ◦ b = b ◦ a = e tiene elemento inverso b si se cumple la propiedad en el recuadro
a la izquierda.
Para cualquier operaci´on binaria asociativa el elemento inverso de otro es u
´nico.
Efectivamente si b y c son inversos de a entonces b = b ◦ e = b ◦ (a ◦ c) = (b ◦ a) ◦ c =
e ◦ c = c o sea que b y c tienen que ser el mismo.
Ejercicio 8 Describa los inversos en las operaciones 1-9. [185]
Distributividad
Frecuentemente nos encontramos con conjuntos en los cuales hay m´as de una operaci´on binaria definida. El ejemplo m´as sencillo son los naturales en los que sabemos
sumar y sabemos multiplicar. Estas dos operaciones est´an relacionadas con la propiedad
de que podemos sacar factor com´
un o sea ax + ay = a (x + y).
Sean ◦ y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ A
conjunto A. Se dice que la operaci´on ¦ es distribu- a ¦ (b ◦ c) = (a ¦ b) ◦ (a ¦ c)
tiva respecto a la operaci´on ◦ si se cumplen las dos (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a)
propiedades en el recuadro a la derecha.
Que ¦ sea distributiva respecto a ◦ no es lo mismo que ◦ sea distributiva
respecto a ¦. Por ejemplo, en los naturales el producto es distributivo con
respecto a la suma: a (b + c) = (ab) + (ac) y sin embargo, la suma de
naturales no es distributiva respecto al producto: a + (bc) 6= (a + b) (a + c).
Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivas una con respecto a la otra. [185]
El ´
algebra “abstracta”
Filos´oficamente, el concepto de “abstracci´on” es la propiedad, que tiene el pensamiento humano, de que podemos fijarnos solamente en ciertas propiedades “esenciales”
de un objeto o fen´omeno, y olvidarnos de las restantes.
La abstracci´on es imprescindible para el lenguaje. El concepto “silla” nos permite reconocer una silla, independientemente si esta es de madera, de hierro, pl´astica,
grande, c´omoda, con tres, cuatro o cinco patas etc. Casi cada palabra del espa˜
nol (y
de cualquier idioma) representa un concepto abstracto, sea esta verbo, sustantivo o
adjetivo.
Cap´ıtulo 1. Campos
6
La ciencia lleva este nivel de abtracci´on a un nivel a´
un mayor. Parte de este conocimiento cient´ıfico, pasa al conocimiento p´
ublico. Baste recordar conceptos como:
velocidad, volumen, higiene, ADN, penicilina, electr´on, metal, colesterol, tri´angulo,
etc. Algunos de los mencionados, son muy antiguos, otros surgieron hace muy poco.
Sin embargo, la mayor´ıa de estos conocimientos queda solamente en manos de los
especialistas en la materia.
Con las matem´aticas pasa igual. No hace falta saber que la suma de naturales es una
operaci´on binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto
de “operaci´on” y que estas operaciones pueden cumplir o no ciertas propiedades es
relativamente “nuevo”.
En la primera mitad del siglo XX, progresivamente, la comunidad matem´atica se
fu´e dando cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstractas. Tanto fu´e el entusiasmo, que muchos, en un principio, le llamaron a
esta forma de pensar “Algebra moderna”. Otros a´
un m´as entusiastas le llamaron “Matem´atica moderna”. En la actualidad este lenguaje es parte intr´ınseca e indivisible del
pensamiento en matem´aticas y cualquier calificaci´on de “moderna” suena muy tonta.
Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra
abstracta”. Esto, en mi opini´on, aunque m´as moderado, tampoco tiene ning´
un sentido. Toda a´lgebra es abstracta, de hecho, todas las matem´aticas son abstractas. Estoy
convencido de que, el tiempo se encargar´a de acabar con todos estos calificativos.
1.2
N´
umeros
En esta secci´on repasaremos los principales tipos de n´
umeros que el lector ya conoce: naturales, enteros, racionales, reales y complejos. Esto nos dar´a la posibilidad de
introducir las definiciones m´as b´asicas del ´algebra: grupos, anillos y campos.
Naturales
Hay una frase famosa que dice “Dios hizo los naturales y el hombre todo lo dem´as”. El conjunto de los
a veces
b veces
n´
umeros naturales N = {0, 1, 2, ...} es el conjunto de
los cardinales de los conjuntos finitos. En N hay dos operaciones binarias bien definidas:
la suma y el producto. De hecho, el producto es una operaci´on derivada de la suma y la
suma solo se puede definir en t´erminos de conjuntos. Por ejemplo, a + b es el cardinal
de la uni´on de dos conjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b.
Como la uni´on de conjuntos es asociativa tambi´en lo es la suma de naturales. De la
definici´on se obtiene que el producto de naturales tambi´en es asociativo. Tanto la suma
como el producto son conmutativos. La suma tiene elemento neutro 0 y el producto
tiene elemento neutro 1. El producto es distributivo respecto a la suma.
ab = a
... + a} = |b + {z
... + b}
| + {z
Secci´on 1.2
N´
umeros
7
Enteros
Ning´
un elemento de N salvo el cero tiene inverso para la
suma. Para lograr la existencia de inversos inventamos los −b + a = c ⇔ a = b + c
n´
umeros negativos Z− = {−1, −2, −3, ...} y en el conjunto −b + (−a) = − (a + b)
Z = N ∪ Z− de los n´
umeros enteros definimos la suma como la operaci´on conmutativa definida por las propiedades
en el recuadro a la derecha.
Grupos
Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada
elemento tiene inverso. O sea, los enteros dan el G1) la operaci´on es asociativa
primer ejemplo de grupo. A un conjunto no vac´ıo G2) tiene elemento neutro
con una operaci´on binaria se le llama grupo si se G3) todo elemento tiene inverso
cumplen los tres axiomas G1-G3. A
los grupos cuya operaci´on es conmutativa se les llama abelianos en honor al matem´atico noruego Niels Henrik Abel (1802-1829). Abel fu´e el
que resolvi´o el problema algebraico m´as importante de su ´epoca. Demostr´o, que no existen f´ormulas en radicales para resolver las ecuaciones
polinomiales de grado 5 o mayor (a diferencia de las ecuaciones de grado
≤ 4 para las cuales si hay f´ormulas generales). Al momento de encontrar
esta demostraci´on, el problema ya duraba varios siglos sin resolverse.
Abel muri´o a los 26 a˜
nos a causa de una neumon´ıa.
Anillos
La operaci´on de producto de naturales se extiende f´acilmena (−b) = − (ab)
te al conjunto de los enteros mediante las reglas en el recuadro.
(−a) b = − (ab)
Nuevamente el producto es asociativo,conmutativo y distributivo
(−a) (−b) = ab
con respecto a la suma. O sea los enteros tambi´en dan el primer
ejemplo de anillo.
Un conjunto A no vac´ıo con dos operaA1) (A, +) es un grupo abeliano
ciones binarias + y • se le llama anillo si
A2) • es asociativa
se cumplen los axiomas en el recuadro a la
A3) • es distributiva con respecto a +
derecha. Si el anillo es tal que la operaci´on •
A4) • tiene elemento neutro
es conmutativa entonces se dice que tenemos
un anillo conmutativo.
En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro
para el producto se le llama uno y se denota por 1. Al inverso de un elemento con
respecto a la suma de un elemento se le llama su opuesto. Al inverso con respecto al
producto de un elemento se le llama inverso multiplicativo o simplemente inverso a
secas.
Observemos que si a es un elemento de un anillo entonces a • 0 = a • 0 + a − a =
Cap´ıtulo 1. Campos
8
a • (0 + 1) − a = a − a = 0. De la misma manera vemos que 0 • a = 0. Si 1 = 0
entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de un solo elemento. Para
descartar esta trivialidad supondremos siempre que 1 6= 0. De aqu´ı se desprende que 0
no puede tener inverso ya que 0 = a • 0 = 1 es una contradicci´on.
En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de
a. Como 1 × 1 = 1 tenemos 1−1 = 1. Tambi´en (−1)−1 = −1 ya que si a = −1 entonces
0 = a (a + 1) = aa + a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo
anillo 1 y −1 tienen inversos. En Z ning´
un elemento salvo 1 y −1 tiene inverso.
Normalmente en la definici´
on de anillo no se pide el axioma A4. En este caso, a los anillos
que tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de
anillo no unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar,
para nosotros todos los anillos son unitarios.
Racionales
Para lograr que cada elemento diferente de cero tenga inverso inventamos las fracciones y con ellas el conjunto de n´
umeros racionales Q. Una fracci´on es un par ordenado
de n´
umeros enteros denotado por a/b donde b 6= 0. Dos
a
c
= ⇔ a • d = c • b fracciones son iguales cuando se cumple la igualdad en el
b
d
recuadro. Los n´
umeros racionales Q son las fracciones con
la relaci´on de igualdad as´ı definida. Los enteros son parte de los racionales por cuanto
podemos identificar cada n´
umero entero a ∈ Z con la fracci´on a/1.
La suma y el producto de n´
umeros racionales se definen por las igualdades en el recuadro. Nuevamente los a + c = a • d + c • b
b•d
racionales con la suma forman un grupo abeliano y otra b d
a•c
a c
vez el producto es asociativo, conmutativo, tiene ele•
=
mento neutro y es distributivo con respecto a la suma.
b d
b•d
Sin embargo, ahora todo elemento diferente de cero tiene inverso multiplicativo. O sea los racionales nos dan el primer ejemplo de campo.
Un conjunto K no vac´ıo con dos operaciones
C1) (K, +) es un grupo abeliano
binarias + y • se le llama campo si se cumC2) (K\0, •) es un grupo abeliano
plen los tres axiomas C1-C3. Un campo es un
C3) • es distributiva con respecto a + anillo conmutativo en la cual todo elemento
diferente de cero tiene inverso multiplicativo.
Ejercicio 10 Si ◦ es una operaci´on en A entonces, en A2 est´a definida la operaci´on
0
0
0
0
por coordenadas
◦) ¢es un grupo
¡ 2 ¢ (x, y) ◦ (x , y ) = (x ◦ x , y ◦ y ). Pruebe que si
¡ (A,
2
entonces A , ◦ es un grupo, si (A, +, •) es un anillo entonces, A , +, • es tambi´en
un anillo.
Ejercicio¡ 11 Sea¢ (K, +, •) un campo. Como K es un anillo entonces, por el ejercicio
anterior, K2 , +, • tambi´en es un anillo. ¿Ser´a K2 un campo? [186]
Secci´on 1.2
N´
umeros
9
Reales
Dicen que cuando Pit´agoras (Samos 569-475 A.C.) descubri´o que
la longitud de la hipotenusa de un tri´angulo rect´angulo con catetos de longitud uno no es un n´
umero racional
√
2
qued´o horrorizado. A nosotros nos parece esto
1
una exageraci´on. Sin embargo, si nos ponemos
en el lugar de Pit´agoras comprenderemos que
1
en aquel momento era inconcebible que existan √
p
2 6=
n´
umeros que no sean cociente de dos enteros.
q
La pintura a la izquierda es un detalle del fresco de Rafael “La escuela de Atenas” en la cual
supuestamente, se muestra a Pit´agoras.
√
Sigamos a Pit´agoras y probemos que efectivamente 2 no es un racional. Para esto
denotemos °
por kak
umero de veces que el natural a se divide entre 2. Tenemos
√
° n´
° 2 el
°
p
2
2
2 = q ⇒ °2q °2 = °p °2 ⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradicci´on ya que
un n´
umero impar no puede ser igual a uno par.
√
Ejercicio 12 Sea n un natural. Pruebe que n es un natural o no es racional. [186]
√
Ejercicio 13 Basandose en el anterior de otra prueba de que 2 no es racional. [186]
Esto motiva la construci´on de los n´
umeros reales R. La construci´on de los reales es
un proceso complicado y se han descubierto muchas formas de formalizar esta construci´on siendo la m´as popular la de las cortaduras de Dedekind. Para nuestros prop´ositos
basta una definici´on menos formal y m´as intuitiva: un n´
umero real es simplemente un
l´ımite de racionales. Las propiedades de la suma y producto de racionales se traspasan
f´acilmente a los reales usando las propiedades del l´ımite de sucesiones. De esta manera
obtenemos nuestro campo principal (R, +, •) . El campo de los reales se destaca porque
es ordenado (siempre podemos decidir si un n´
umero real es mayor, menor o igual a
cero) y porque es cerrado (el l´ımite de reales si existe es un real). Por otro lado, no
es un factor a despreciar el hecho de que el espacio en que vivimos es (o al menos nos
parece que es) R3 .
Ejercicio 14 Pruebe que la longitud de un segmento de recta es un n´umero real.
[186]
Complejos
En 1546 Gerolamo Cardano public´o su libro “Ars Magna” en el cual di´o m´etodos
(basados en parte en el trabajo de otros matem´aticos) para el calculo de las raices
de los polinomios de grado 3 y 4. Estos m´etodos, a veces requer´ıan el extraer raices
Cap´ıtulo 1. Campos
10
cuadradas de n´
umeros negativos, incluso cuando el resultado final era un n´
umero real.
Rafael Bombelli estudi´o este asunto en detalle y es considerado como el descubridor de
los n´
umeros complejos.
Para lograr que todos los √
polinomios tengan raices
inventamos el imaginario i = −1 y definimos que un (a + bi) + (a0 + b0 i) =
n´
umero complejo es algo de la forma a + bi donde a, b ∈ (a + a0 ) + (b + b0 ) i
R. La suma y el producto de complejos se definen por las
f´ormulas en los recuadros a la derecha y abajo a la izquierda.
Las propiedades de la suma y el producto se despren(a + bi) × (a0 + b0 i) =
den inmediatamente de sus definiciones y es f´acil comPara
(aa0 − bb0 ) + (ab0 + a0 b) i probar que (C, +, •) es un anillo conmutativo. −1
ver que es un campo, observamos que (a + bi) =
¢
¡ 2
2 −1
(a − bi). La principal propiedad que hace que para muchas cosas el cama +b
po C sea el m´as simple es que el (a diferencia de R) es algebraicamente cerrado,
o sea que todo polinomio de grado n > 0 con coeficientes en complejos tiene n raices
complejas.
1.3
Morfismos
En las matem´aticas cada vez que se estudian ciertos objetos, es necesario tambi´en
estudiar las funciones entre ellos, que “preservan” las propiedades de dichos objetos.
En esta secci´on estudiaremos las funciones entre conjuntos con operaciones binarias.
Morfismos de grupos
Sean ◦ y • operaciones binarias definidas en los conjuntos A y B respectivamente.
Una funci´on f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos
de A se cumple que f (a1 ◦ a2 ) = f (a1 ) • f (a2 ).
Todo morfismo conserva las propiedades fundamentales de las operaciones
binarias. M´as precisamente, si f : (A, ◦) → (B, •) es un morfismo entonces,
1. • es una operaci´on binaria dentro de la imagen de f.
2. Si ◦ es conmutativa entonces • es conmutativa en la imagen de f.
3. Si ◦ es asociativa entonces • es asociativa en la imagen de f.
4. Si e es neutro de ◦ entonces f (e) es neutro de • en la imagen de f.
5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B.
Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y
a3 en A tales que f (ai ) = bi para i ∈ {1, 2, 3}. Como f es un morfismo, obtenemos la
igualdad
(*)
b1 • b2 = f (a1 ) • f (a2 ) = f (a1 ◦ a2 )
Secci´on 1.3
Morfismos
11
que prueba la primera afirmaci´on. Si ◦ es conmutativa entonces, usando (*) obtenemos
b1 • b2 = f (a1 ◦ a2 ) = f (a2 ◦ a1 ) = b2 • b1
por lo que • es tambi´en conmutativa. Si ◦ es asociativa entonces, usando (*) obtenemos
(b1 • b2 ) • b3 = f (a1 ◦ a2 ) • f (a3 ) = f ((a1 ◦ a2 ) ◦ a3 ) =
= f (a1 ◦ (a2 ◦ a3 )) = f (a1 ) • f (a2 ◦ a3 ) = b1 • (b2 • b3 )
y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operaci´on ◦
entonces,
b1 • f (e) = f (a1 ) • f (e) = f (a1 ◦ e) = f (a1 ) = b1
f (e) • b1 = f (e) • f (a1 ) = f (e ◦ a1 ) = f (a1 ) = b1
por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces,
f (a) • f (a0 ) = f (a ◦ a0 ) = f (e)
f (a0 ) • f (a) = f (a0 ◦ a) = f (e)
de lo que concluimos que f (a0 ) es el inverso de f (a).
Ejercicio 15 Justifique todas las igualdades utilizadas en la prueba de 1.1.
¿Y porqu´e siempre dentro de la imagen de f y no en todo B? La respuesta es que
lo u
´nico que sabemos de B est´a dado por el morfismo. Aquellos elementos de B que
no tienen preimagen no los podemos enlazar con los de A y por lo tanto no podemos
decir nada de ellos. De aqu´ı en lo adelante a la imagen de cualquier funci´on f (y en
particular de un morfismo) la denotaremos por Im f.
Si (A, ◦) es un grupo entonces (Im f, •) es un grupo.
Prueba. Por 1.1.1 • es una operaci´on binaria en Im f. Por 1.1.3 esta operaci´on es
asociativa. Por 1.1.4 esta operaci´on tiene elemento neutro. Por 1.1.5 cada elemento
b = f (a) ∈ Im f tiene su inverso f (a0 ) donde a0 es el inverso de a en A. Esto completa
la prueba de todos los axiomas de grupo.
Recordemos que si f : A → B es una funci´on entonces al conjunto A se le llama
dominio de f y al conjunto B codominio de f. Si el dominio y el codominio de un
morfismo son grupos entonces se dice que este es un morfismo de grupos.
Ejercicio 16 Construya un morfismo inyectivo de (R, +) en (R, •). ¿Cual es la imagen
de este morfismo? ¿Es esta imagen un grupo?
Morfismos de anillos
¿Y que pasa con la distributividad? ¿Tambi´en se conserva? El primer problema que
tenemos que resolver es que en la distributividad est´an involucradas dos operaciones.
Sean (A, +, •) y (B, +, •) dos conjuntos cada uno con dos operaciones binarias. Ob-
Cap´ıtulo 1. Campos
12
servese que estas son cuatro operaciones distintas pero hemos usado estas notaciones
porque el trabajar con cuatro s´ımbolos diferentes ya es demasiada confusi´on.
Una funci´on f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 • a2 ) = f (a1 ) • f (a2 ).
Recalquemos que el “y” quiere decir que se tienen que cumplir las dos propiedades. O
sea, si hay dos operaciones entonces, se requiere que la funci´on sea morfismo para cada
una de ellas.
Si • es distributiva con + en A entonces,
• es distributiva con + en la imagen de f.
Prueba. Sean x, y, z ∈ A tales que f (x) = a, f (y) = b y f (z) = c. Tenemos
a • (b + c) = f (x) • (f (y) + f (z)) = f (x) • f (y + z) = f (x • (y + z)) =
= f (x • y + x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b + a • c
y esto prueba la tesis.
Si el dominio y el codominio de un morfismo son anillos entonces se dice que este
es un morfismo de anillos. Si el dominio y el codominio de un morfismo son campos
entonces se dice que este es un morfismo de campos.
Ejercicio 17 Demuestre que si (A, +, •) es un anillo y f : A → B es un morfismo
entonces, (Im f, +, •) es un anillo. Demuestre que lo mismo ocurre para los campos.
Ejercicio 18 Pruebe que si f : A → B es un morfismo de anillos y A es un campo
entonces f es inyectivo. En particular todo morfismo de campos es inyectivo. [186]
Isomorfismos
A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para conjuntos con una como tambi´en con dos operaciones binarias. As´ı que tenemos
isomorfismos de grupos, de anillos y de campos. Para cada isomorfismo f existe una
funci´on inversa f−1 . ¿Cuando ser´a f−1 un morfismo? La respuesta es que siempre.
La inversa de un isomorfismo es un isomorfismo.
Prueba. Sea f : (A, ◦) → (B, •) un isomorfismo. Sean b1 , b2 cualesquiera elementos
de B. Denotemos a1 = f−1 (b1 ) y a2 = f−1 (b2 ). Tenemos
f−1 (b1 • b2 ) = f−1 (f (a1 ) • f (a2 )) = f−1 (f (a1 ◦ a2 )) = a1 ◦ a2 = f−1 (b1 ) ◦ f−1 (b2 )
que es lo que se requer´ıa demostrar. Si el isomorfismo involucra dos operaciones binarias
entonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la
tesis.
Secci´on 1.3
Morfismos
13
Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ◦) → (B, •) es un isomorfismo entonces de que • es conmutativa implica que ◦ es conmutativa y en conclusi´on
◦ es conmutativa si y solo si • es conmutativa. Lo mismo ocurre con la asociatividad, con la existencia de neutros e inversos y para el caso de dos operaciones con la
distributividad. O sea que ◦ tiene ex´actamente las mismas propiedades de •.
Pero no solo son operaciones parecidas sino que son en cierto sentido la misma.
Para convencernos de esto supongamos que conocemos la operaci´on ◦ y conocemos el
isomorfismo f pero no sabemos nada de la operaci´on •. ¿Podremos¡calcular b1 • b2 ? La
¢
respuesta es s´ı, lo podemos calcular por la identidad b1 • b2 = f f−1 (b1 ) ◦ f−1 (b2 ) .
Rec´ıprocamente, ◦ se define de forma u
´nica por la operaci´on • y el isomorfismo f
−1
mediante la identidad a1 • a2 = f (f (a1 ) ◦ f (a2 )). En conclusion ambas operaciones
se definen una a otra.
Para que el lector comprenda mejor eso de que
◦ u v
•
1 −1
◦ y • son la misma operaci´on veamos un ejemplo.
1
1 −1
Sea A el conjunto de letras {u, v} y B el conjunto de u u v
v v u
−1 −1
1
los n´
umeros {1, −1}. Definamos las operaciones ◦ y •
mediante las tablas del recuadro a la derecha.
El lector debe observar que la segunda tabla es la tabla usual de multiplicaci´on de
enteros. Adem´as, para obtener la segunda tabla de la primera lo u
´nico que necesitamos
es cambiar ◦ por • , u por 1 y v por −1. Esto lo que quiere decir, es que la funci´on
u 7→ 1 , v 7→ −1 es un isomorfismo de (A, ◦) en (B, •). El lector puede ver que ambas
tablas son en esencia la misma, solamente que las notaciones para los elementos y la
operaci´on est´an cambiadas.
Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces
se dice que ellos son isomorfos. Etimol´ogicamente, la palabra “isomorfo” significa que
“tienen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir
que los dos son iguales con la salvedad de que podemos cambiar las notaciones de los
elementos y las operaciones.
Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos
se les llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos de un conjunto en si mismo se les llama endomorfismos y a los endomorfismos
biyectivos se les llama automorfismos.
En otras ramas de las matem´aticas tambi´en se definen morfismos e isomorfismos. Sin embargo no siempre es suficiente la biyectividad para definir los isomorfismos. Por ejemplo,
en topolog´ıa los morfismos son las funciones continuas. Pero la inversa de una biyecci´
on
continua no siempre es continua. Por esto, un isomorfismo de espacios topol´
ogicos hay que definirlo
como una biyecci´
on continua cuya inversa es continua.
Composici´
on de morfismos
Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la funci´on
g ◦ f : A → C definida por (g ◦ f) (a) = g (f (a)) se le llama la composici´
on de f con
g. A partir de ahora el s´ımbolo ◦ solo lo utilizaremos para denotar la composici´on de
14
Cap´ıtulo 1. Campos
funciones. Observese el orden en que escribimos las funciones ya que la composici´on de
funciones no es conmutativa.
La composici´on de funciones es asociativa.
Prueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definici´on de
composici´on para cualquier a ∈ A tenemos
(h ◦ (g ◦ f)) (a) = h ((g ◦ f) (a)) = h (g (f (a))) = (h ◦ g) (f (a)) = ((h ◦ g) ◦ f) (a)
que es lo que se quer´ıa probar
Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces
f, g y g ◦ f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f ◦ g
tambi´en lo es.
Las composici´ones de morfismos son morfismos.
Prueba. Denotemos las operaciones en A, B y C con el mismo s´ımbolo •. Como f y
g son morfismos tenemos (g ◦ f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) •
g (f (b)) = (g ◦ f) (a) • (g ◦ f) (b) que es lo que se necesitaba probar.
Ejercicio 19 Pruebe que el conjunto de los automorfismos de un conjunto con una o
dos operaciones binarias es un grupo con respecto a la composici´on de funciones.
Ejercicio 20 Sean f y g dos funciones. Pruebe que si g ◦ f es la identidad entonces,
f es inyectiva y g es sobreyectiva. [186]
1.4
Campos de restos
Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muy
conocidos por el lector. Es imprescindible, para dar una intuici´on saludable de lo que
es un campo, introducir otros que no sean tan usuales. En esta secci´on presentaremos
ciertos campos que tienen un n´
umero finito de elementos. Para construirlos, usaremos
las propiedades de los morfismos de la secci´on anterior.
El anillo de los enteros m´
odulo n
Sea n un n´
umero natural mayor que 1. Para un entero
a ¢ b = (a + b) mod n
a la notaci´on a mod n significa el resto de la divisi´on de a
a ¡ b = (ab) mod n
entre n. O sea, el menor natural k tal que existe un entero
t para los cuales a = k + tn. Por definici´on a mod n ∈ Zn = {0, 1, ..., n − 1} y en Zn
hay naturalmente definidas dos operaciones binarias como se muestra en el recuadro.
Secci´on 1.4
Campos de restos
15
Ejercicio 21 Construya las tablas de sumar y multiplicar en Z2 , Z3 y Z4 .
(Zn , ¢, ¡) es un anillo conmutativo.
def
Prueba. Denotemos f : Z 3 a 7−→ a mod n ∈ Zn o sea f (a) = a mod n. Observemos
que por definici´on de las operaciones ¢ y ¡ se tiene que a ¢ b = f (a + b) y a ¡ b =
f (ab). Adem´as, para cualesquiera x, y ∈ Z existen enteros p, q tales que x = f (x)+qn,
y = f (y) + pn y por lo tanto f (x) = f (y) si y solo si x − y es multiplo de n.
Probemos que f : (Z, +) → (Zn , ¢) es un morfismo. Tenemos que f (x) + f (y) =
x + y − (q + p) n y por lo tanto f (x) + f (y) − (x + y) es m´
ultiplo de n. Luego,
f (x + y) = f (f (x) + f (y)) o lo que es lo mismo, f (x + y) = f (x) ¢ f (y) y esto prueba
que f es morfismo para la suma.
Ahora probaremos que f : (Z, ·) → (Zn , ¡) es un morfismo. Tenemos que f (x) f (y) =
(x − qn) (y − pn) = xy+(nqp − yq − xp) n y por lo tanto f (x) f (y) −xy es m´
ultiplo
de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lo mismo, f (xy) = f (x) ¡ f (y) y esto
prueba que f es morfismo para el producto.
Como f es sobreyectiva, (Z, +, •) es anillo conmutativo y los morfismos preservan
las propiedades de las operaciones, concluimos que (Zn , ¢, ¡) es tambi´en un anillo
conmutativo.
Hemos denotado la suma y el producto en Zn con los s´ımbolos extra˜
nos
¢ y ¡. El objetivo de esto fu´e el asegurarnos que en la demostraci´on del
resultado anterior el lector no se confundiera con la suma y el producto
habitual de n´
umeros enteros. De ahora en lo adelante no haremos m´as esto. La suma
en Zn se denotar´a con el s´ımbolo + y el producto, con la ausencia de s´ımbolo alguno,
o a lo m´as, con un punto. Para poder hacer esto es necesario que el lector comprenda
(muchas veces solo del contexto) en que sentido estamos utilizando estas notaciones.
As´ı por ejemplo, 2 + 3 = 5 si la suma es la habitual de enteros o es la de Z11 pero
2 + 3 = 1 si la suma es la de Z4 .
Dominios de integridad
Despu´es de saber que (Zn , +, ·) es un anillo conmutativo, lo natural es preguntarnos
si este es un campo. Lo u
´nico que le falta a un anillo conmutativo para ser campo, es la
existencia de inversos para el producto. Veamos por ejemplo el caso de Z6 . Aqu´ı tenemos
2 · 3 = 0. Que raro, el producto de dos n´
umeros diferentes de cero es igual a cero. ¿Es
posible eso en un campo? Veremos que no.
Un anillo conmutativo se le llama dominio de integridad si el producto elementos
distintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios
de integridad. Tambi´en, ya vimos que Z6 no es dominio de integridad.
16
Cap´ıtulo 1. Campos
Todo campo es un dominio de integridad.
Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad
por el inverso multiplicativo de p obtenemos 0 = p−1 0 = p−1 pq = q. Luego, q = 0.
Luego, Z6 no es un campo. Este ejemplo se generaliza f´acilmente. Sea n = pq una
descomposici´on en factores no triviales (ambos diferentes a 1) de n. Sabemos que p
y q est´an en Zn y que pq = n = 0 mod n. Luego, si n es un n´
umero compuesto (no
primo) entonces, Zn no es un dominio de integridad y por lo tanto no es un campo.
El campo de los enteros m´
odulo p
Y ¿que pasa cuando p es primo?
Zp es un dominio de integridad.
Prueba. Sean x, y ∈ {1, . . . , p − 1} . Si xy = 0 en Zp entonces xy = 0 mod p. Luego,
en Z tenemos que xy = kp. Como p es primo entonces, p divide a x o a y pero esto
no puede ser ya que ambos son menores que p.
Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios
de integridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.
Todo dominio de integridad finito es un campo.
Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay
que demostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario
no nulo de A. Denotemos por fa la funci´on A 3 x 7→ ax ∈ A. Esta funci´on es inyectiva
ya que
(ax = ay) ⇒ (a (x − y) = 0) ⇒ (x − y = 0) ⇒ x = y.
Como fa es una funci´on inyectiva de un conjunto finito en si mismo es tambi´en sobreyectiva. Luego tiene que existir b tal que fa (b) = ab = 1. Como el producto es
conmutativo, esto demuestra que a tiene inverso.
Como Zp es finito, concluimos inmediatamente que Zp es un campo si y
solo si p es un n´
umero primo. Los campos Zp son los primeros ejemplos
de campos que tienen un n´
umero finito de elementos. A los campos
finitos se les lama campos de Galois en honor al matem´atico franc´es
Evariste Galois (1811-1832). Al resolver el problema de encontrar cuales
ecuaciones polinomiales son solubles en radicales y cuales no, Galois de
facto invent´o la Teor´ıa de Grupos. Galois muri´o a los 20 a˜
nos en un
duelo provocado por asuntos amorosos y/o pol´ıticos. El apellido Galois se pronuncia
en espa˜
nol como “galu´a”
Secci´on 1.5
Campos primos. Caracter´ıstica
17
Ejercicio 22 Halle los inversos de los elementos no nulos de Z5 . [186]
Ejercicio 23 Demuestre que Z211 con las operaciones (a, b) + (x, y) = (a + x, b + y)
y (a, b) (x, y) = (ax + 7by, ay + xb) es un campo de 121 elementos. [187]
1.5
Campos primos. Caracter´ıstica
Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que
es campo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L
∀c ∈ L\{0} se tienen que cumplir las siguientes propiedades
1. a + b ∈ L, −a ∈ L, (L es un subgrupo aditivo)
2. ab ∈ L, c−1 ∈ L, (L\{0} es un subgrupo multiplicativo)
Rec´ıprocamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de
suma, opuesto, producto e inverso est´an correctamente definidas dentro de L y el tiene
que contener a 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K,
con m´as raz´on se cumplen dentro de L. Esto indica que para comprobar si L es un
subcampo basta comprobar las propiedades 1 y 2. El ejemplo m´as sencillo de esto es
Q, que es subcampo R, que a su vez es subcampo de C.
El concepto de subcampo incluye las operaciones. Si por un lado {0, ..., p−1} =
Zp es un subconjunto de Q, por el otro, Zp NO es un subcampo de Q (ya que
por ejemplo 2 (p − 1) = p − 2 en Zp lo que no es cierto en Q). De la misma
manera, ning´
un Zp es subcampo de Zq para p 6= q.
Campos primos
Todo campo es subcampo de si mismo. A los campos que no tienen ning´
un subcampo distinto de si mismo se les llama campos primos. Los campos primos son los
m´as sencillos y deduciremos cuales son todos ellos.
Todo campo K contiene un u
´nico subcampo primo
que est´a contenido en cualquier subcampo de K.
Prueba. La intersecci´on de una colecci´on arbitraria de subcampos de K es un subcampo. Para ver esto observamos que si a y b pertenecen a todos los subcampos de la
colecci´on entonces a + b tambi´en. Por lo tanto, a + b est´a en la intersecci´on de ellos.
Lo mismo ocurre para el producto, para los neutros y los inversos. En particular, la
intersecci´on de todos los subcampos de K es un subcampo que no contiene subcampos
y est´a contenida en cualquier subcampo de K.
18
Cap´ıtulo 1. Campos
El campo Q de los n´
umeros racionales es primo.
Prueba. Sea K un subcampo de Q. Tenemos 1 ∈ K y por lo tanto todas las sumas
1 + ... + 1 y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros est´an
en K. Tambi´en los inversos multiplicativos de los n´
umeros enteros y sus productos
tienen que estar todos en K. Luego, todos los racionales est´an en K.
Los campos Zp de los restos m´odulo un n´
umero primo son campos primos.
Prueba. Sea K un subcampo de Zp . Tenemos 1 ∈ K y por lo tanto todas las sumas
1 + ... + 1 est´an en K. Como cualquier elemento de Zp es suma de unos obtenemos que
Zp ⊆ K.
Teorema de Clasificaci´
on de Campos Primos
Los campos Zp y el campo Q son los u
´nicos campos primos.
Prueba. Sea un K campo primo. Para un n´
umero natural n denotemos por n =
n veces
z }| {
1 + ... + 1 donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un elemento del campo. Denotemos por P = {n ∈ K | n ∈ N} . Hay dos
posibilidades excluyentes
1. La aplicaci´on n 7→ n es una biyecci´on de en N en P.
2. Existen dos naturales distintos n y m tales que n = m.
En el primer caso K contiene a los naturales. Como K es un campo tambi´en tiene
que contener a los opuestos de los naturales, o sea a los enteros. Por la misma raz´on, K
tiene que contener a los inversos de los enteros con lo que se prueba que los racionales
son un subcampo de K. Como K es primo obtenemos que K = Q.
En el segundo caso, sea p el natural m´as peque˜
no para el cual existe n < p tal que
n = p. Tenemos n = p ⇒ p − n = p − n = 0. Si n > 0 entonces, p − n < p y adem´as
p − n = 0 lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.
Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen
naturales a, k tales que x = a + kp y a < p. De aqu´ı
kp veces
k veces
z
}|
{
z }| {
· · + 1} + · · · + 1| + ·{z
x = a + kp = a + kp = a + 1
· · + 1} = a + 0 + · · · + 0 = a
| + ·{z
p veces
p veces
lo que muestra que P es el anillo Zp de los restos m´odulo p. Si p no es primo entonces,
en Zp ⊆ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto
no es posible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K.
Como K es primo obtenemos que K = Zp .
Secci´on 1.6
Aritm´etica de campos
19
Caracter´ıstica
Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . Se dice
que un campo es de caracter´ıstica 0 si este contiene a Q. Se dice que un campo es de
caracter´ıstica p si este contiene a Zp . La caracter´ıstica de un campo es un n´
umero
primo o es cero. La propiedad fundamental de la caracter´ıstica de un campo es la
siguiente:
Si K es un campo de caracter´ıstica t
entonces, ta = 0 para cualquier a ∈ K.
Prueba. Si t es un n´
umero primo entonces, el campo contiene a Zt y
def
... + x} = 1x + ... + 1x = (t1) x
tx = |x + {z
t veces
Como 1 ∈ Zt entonces tambi´en t1 ∈ Zt . En Zt se tiene que t1 = 0. Si t = 0 la
afirmaci´on es trivial.
Ejercicio 24 ¿Contradice o no 1.15 que todo campo es un dominio de integridad?
[187]
Ejercicio 25 Pruebe el rec´ıproco de 1.15: Si t es el menor natural tal que para todo
a ∈ K se tiene que ta = 0 entonces la caracter´ıstica de K es igual a t.
Ejercicio 26 ¿Es cierto o no que en todo campo (a = −a) ⇒ (a = 0)? [187]
1.6
Aritm´
etica de campos
Los campos se comportan en la mayor´ıa de las cosas importantes como los n´
umeros
reales. Por m´as que tratemos construir un campo raro pero muy raro (lo que es posible)
no lograremos que se dejen de cumplir todas las propiedades de la aritm´etica las cuales
nos son familiares desde temprana edad. Pasemos a describir en toda su generalidad
algunas consecuencias simples y otras un poco m´as complicadas de los axiomas de
campo lo que nos convencer´a de lo afirmado.
M´
ultiplos y exponentes enteros
En todo campo para cualquier n´
umero entero n y cualquier elemento del campo a
se usan las siguientes notaciones
⎧
⎧ n veces
n veces
z
}|
{
z }| {
⎪
⎪
⎨ a
⎨ aa...a
si n > 0
+ a + ... + a si n > 0
n
na =
=
a
1
si n = 0
0
si n = 0
⎪
⎪
⎩
⎩
1
si n < 0
(−n) (−a)
si n < 0
a− n
Cap´ıtulo 1. Campos
20
y se cumplen las propriedades usuales: (n + m) a = na + ma y an+m = an am .
Asociatividad general
Recordemos nuevamente el uso del s´ımbolo de sumatoria Σ. Si A es un conjunto finito de elementos del campo entonces podemos escribir la expresi´on
ai
en el recuadro a la izquierda para expresar que queremos sumar todos los
i=1
elementos del conjunto A = {a1 , ..., an }.
La asociatividad de la operaci´on de suma nos dice que esta expresi´on tiene sentido
u
´nico ya que no es necesario explicitar las sumas hay que realizar primero y cuales
despu´es.
En realidad incluso esta notaci´on es redundante, m´as consisa es esta otra X
notaci´on en el recuadro a la derecha que podemos usar gracias a la conmutaa
tividad de la suma. O sea no importa si en la suma a1 est´a delante de a2 o al a∈A
rev´ez. Solo es necesario especificar cual es el conjunto A de elementos que se
est´an sumando.
Como tenemos que el producto de elementos de un campo es tambi´en
n
Y
Y
asociativo y conmutativo podemos usar las expresiones equivalentes
ai =
a de la izquierda para denotar el producto de todos los elementos del
i=1
a∈A
conjunto A = {a1 , ..., an } .
n
X
Distributividad general
M´as dif´ıcil es dar una forma general de la ley distributiva. Usando las leyes de
los campos obtenemos (a + b) (c + d) = a (c + d) + b (c + d) = ac + ad + bc + bd
Ã
!Ã
!
y el lector podr´a convencerse f´acilmente, haciendo
X
X
XX
nos A y B, que en
a
b =
ab el c´alculo para conjuntos peque˜
general se cumple la f´ormula de la izquierda.
a∈A
b∈B
a∈A b∈B
M´as general, para muchos factores tenemos
Ã
!Ã
! Ã
!
X
X
X
XX X
a
b ···
c =
...
ab · · · c
a∈A
b∈B
c∈C
a∈A b∈B
c∈C
A esta igualdad la llamaremos forma general de la ley distributiva y tendremos
muchas ocaciones en que la usaremos.
F´
ormula multinomial
Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos
sean iguales obtenemos la siguiente f´ormula:
Ã
!n
X
X
X
a
=
...
a1 · · · an (*)
a∈A
a 1 ∈A
a n ∈A
Secci´on 1.6
Aritm´etica de campos
21
Esta f´ormula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el
producto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad
tiene (gracias a la asociatividad y conmutatividad del producto) una manera mucho
m´as sencilla de expresarse como a4 b3 c3 . Para arreglar este defecto, d´emosle nombres
a los elementos de A y pongamos A = {x1 , ..., xm }. Ahora, si n1 , ..., nm son naturales
entonces, un monomio
xn1 1 · · · xnmm aparece como sumando a la derecha en la f´ormula
P
(*) si y solo si
ni =P
n (ya que los sumandos en (*) son productos de n elementos de
A). Supongamos que
ni = n. Si todos los ni son uno o cero entonces en (*) hay n!
sumandos iguales al monomio xn1 1 · · · xnmm (ya que podemos ordenarlos de ese n´
umero
de maneras). Si digamos n7 es mayor que 1 entonces tenemos que dividir por n7 ! ya que
al permutar x7 ...x7 no obtenemos nuevos sumandos en (*). Lo mismo sucede con los
otros ni . Como por definici´on 0! = 1! = 1, finalmente obtenemos la siguiente expresi´on
conocida como f´
ormula multinomial.
à m !n
X
X
n!
xi
=
xn1 1 · · · xnmm
n
!...n
!
1
m
i=1
donde la suma a la derecha
umeros
P de la igualdad recorre todas las soluciones en n´
naturales de la ecuaci´on
ni = n. En el caso particular m = 2, haciendo el cambio
de variable n1 = k obtenemos
n
X
n! n 1 n 2 X
n!
(x + y)n =
x y =
xk yn−k
n !n2 !
k! (n − k) !
n +n =n 1
k=0
1
2
que es la famosa f´ormula del binomio de Newton.
Si bien las f´ormulas que hemos demostrado parecen ser complicadas
los argumentos que llevan a ellas son muy sencillos. Es importante
que el estudiante se familiarize bien con estos argumentos ya que
las formas multilineales y en particular los determinantes son muy
parecidos a la parte derecha de la igualdad (*).
Sir Isaac Newton (Inglaterra 1643-1727) es probablemente el
cient´ıfico m´as renombrado de todos los tiempos. Fundador de la
mec´anica, la ´optica y el c´alculo diferencial. Sus tres leyes de la
mec´anica fundaron la base de la ingenier´ıa que llev´o a la revoluci´on industrial.
Ejercicio 27 Sea K un campo de caracter´ıstica p > 0. Demuestre que la funci´on
K 3 x 7→ xp ∈ K es un morfismo de campos. Demuestre que si K es un campo
finito entonces esta funci´on es un automorfismo de K. A este automorfismo se le llama
automorfismo de Frobenius. [187]
La expansi´
on de ΠΣαij
Cap´ıtulo 1. Campos
22
Ahora deduciremos otra consecuencia de la forma general de la ley Y X
distributiva que usaremos mucho m´as adelante. Supongamos que N es un
αij
conjunto finito de ´ındices y que para cada pareja de ´ındices (i, j) tenemos i∈N j∈N
un elemento del campo K que denotaremos por αij . Nuestro objetivo es
usar la ley distributiva para expresar el elemento del campo del recuadro a la derecha
como una suma de productos.
Para esto lo m´as c´omodo es pensar que el conjunto N es {1, . . . , n} y expresar la
forma general de la ley distributiva en nuestro caso de la siguiente manera
Ã
! Ã
!
X
X
X X
XY
α1j1 · · ·
αnjn =
...
α1j1 · · · α1jn =
αiji
j1 ∈N
jn ∈N
j1 ∈N
jn ∈N
i∈N
donde la suma m´as a la derecha en esta igualdad recorre todos los elementos (j1 , . . . , jn )
del producto cartesiano N×· · ·×N de n copias de N o sea, Nn . Otra manera de pensar
a (j1 , . . . , jn ) es que tenemos una funci´on f : N = {1, . . . , n} 3 i 7→ ji = f (i) ∈ N y en
nuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN
de todas las funciones de N en N. Luego, en estas notaciones finalmente obtenemos
XY
YX
αij =
αif(i)
i∈N j∈N
f∈N N i∈N
que es una f´ormula que ya no depende de cual es el conjunto N.
Debemos recalcar una vez m´as que todo lo dicho en esta secci´on es v´alido para
cualquier campo, sea este R, C, Q, Zp o cualquier otro campo que a´
un no conoscamos.
Esta es la ventaja intr´ınseca de la abstracci´on. No tenemos que demostrar el teorema
de Pit´agoras para tri´angulos de acero, madera, etc. Estas propiedades no tienen nada
que ver con que el cuadrado de la hipotenusa sea igual a la suma de los cuadrados de
los catetos. De la misma manera el binomio de Newton no tiene nada que ver con que
si los n´
umeros son reales o complejos u otros. Solo basta que nuestros n´
umeros formen
un campo.
Un lector atento, podr´ıa observar que en las pruebas de todas las f´
ormulas en ning´
un
momento usamos la existencia de inversos en el campo. Luego, estas son v´
alidas en cualquier
anillo conmutativo.
A diferencia de las matem´
aticas elementales en matem´aticas superiores, por aritm´etica
se entiende el estudio de las propiedades de divisibilidad en anillos. En este sentido, la
aritm´etica de campos es trivial ya que todo elemento se divide entre cualquier otro no nulo.
Secci´on 1.7
1.7
Anillos con divisi´on
23
Anillos con divisi´
on
Si en los axiomas de campo eliminamos la condici´on de que el producto es conmutativo obtenemos el concepto de anillo con divisi´
on (tambi´en se le llama cuerpo). O
sea, un anillo con divisi´on es un conjunto
AD1) (D, +) es un grupo abeliano
D con una suma y un producto tal que se
AD2) (D\0, •) es un grupo
cumplen los axiomas del recuadro. En parAD3) • es distributivo con respecto a +
ticular, todo campo es anillo con divisi´on.
Ejercicio 28 Pruebe que si (D, +, •) es tal que (D, +) es un grupo, (D\ {0} , •) es un
grupo y el producto es distributivo respecto a la suma entonces, la suma es conmutativa.
En otras palabras en los axiomas de anillo con divisi´on la conmutatividad de la suma
es consecuencia del resto de los axiomas. [188]
Quaterniones
No es muy f´acil construir anillos con divisi´on que no sean campos. Para esto, supongamos que en lugar de un solo n´
umero imaginario i tenemos tres diferentes imaginarios
i, j y k que cumplen que i2 = j2 = k2 = −1. Un quaterni´
on es un n´
umero de la forma
a + bi + cj + dk donde a, b, c, d son n´
umeros reales. El lector debe observar la analog´ıa
con los n´
umeros complejos. Podemos sumar quaterniones por coordenadas
(a + bi + cj + dk) + (a0 + b0 i + c0 j + d0 k)
= ((a + a0 ) + (b + b0 ) i + (c + c0 ) j + (d + d0 ) k)
y es f´acil comprobar que el conjunto de todos los quaterniones H es un grupo abeliano
respecto a la suma.
Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imaginario entonces ax = xa. Tambi´en postulamos que si x y y son dos imaginarios distintos
entonces xy = −yx. Esto nos dice que nuestra multiplicaci´on de quaterniones no es
conmutativa.
Ahora, si a + bi + cj + dk y a0 + b0 i + c0 j + d0 k son dos quaterniones arbitrarios
entonces los multiplicamos como si fueran polinomios en las variables no conmutativas
i, j, k y usando los postulados obtenemos que su producto es igual a
aa0 − bb0 − cc0 − dd0 +
+ (ab0 + ba0 ) i + (ac0 + ca0 ) j + (da0 + ad0 ) k+
+ (bc0 − cb0 ) ij + (cd0 − dc0 ) jk + (db0 − bd0 ) ki.
24
Cap´ıtulo 1. Campos
Para poder concluir la definici´on de la multiplica- a00 = aa0 − bb0 − cc0 − dd0
ci´on de quaterniones postulamos que ij = k, jk = i y b00 = ab0 + ba0 + cd0 − dc0
ki = j. As´ı definitivamente, obtenemos que el produc- c00 = ac0 + ca0 + db0 − bd0
to de nuestros quaterniones es (a00 + b00 i + c00 j + d00 k) d00 = da0 + ad0 + bc0 − cb0
donde los coeficientes a00 , b00 , c00 y d00 son los definidos
en el recuadro a la derecha. O sea, el producto de quaterniones es un quaterni´on. No
es dif´ıcil (pero si laborioso) probar directamente que este producto es asociativo tiene
elemento neutro 1 = 1 + 0i + 0j + 0k y que es distributivo respecto a la suma.
Para comprobar la existencia de inversos multiplicativos definimos para un quater¯ = a − bi − cj − dk.
ni´on no nulo x = a + bi + cj + dk su quaterni´
on conjugado x
¯x = a2 + b2 + c2 + d2
De la definici´on de producto de quaterniones tenemos que x¯
x=x
¯ (x¯
es un n´
umero real que tiene inverso multiplicativo. De esto se deduce que x
x)−1 es
el inverso multiplicativo de x. En resumen, el conjunto de los quaterniones H son un
anillo con divisi´on pero no son un campo.
Los quaterniones fueron descubiertos en 1843 por el f´ısico, matem´atico y astr´onomo irland´es Sir William Rowan Hamilton
(1805 — 1865). De aqu´ı la notaci´on H para denotar el anillo de
quaterniones. Los quaterniones jugaron un papel fundamental en la matem´atica y la f´ısica del siglo XIX. Por ejemplo,
James Clerk Maxwell us´o los quaterniones para desarrollar
sus equaciones del electromagnetismo. En la actualidad son
importantes por ejemplo, para las aplicaciones en las cuales
se requiere describir en forma eficiente rotaciones espaciales
(rob´otica, control de naves espaciales, gr´aficos por computadoras, etc.).
Ejercicio 29 Muestre que la tabla de multiplicar de los imaginarios i, j, k es consecuencia de las igualdades de Hamilton i2 = j2 = k2 = ijk = −1. [188]
Ejercicio 30 Muestre que los quaterniones que son raices cuadradas de −1 forman
naturalmente una esfera en R3 . M´as precisamente (a + bi + cj + dk)2 = −1 si y solo
si se cumple que b2 + c2 + d2 = 1. [188]
Ejercicio 31 Constraste 5.5 con el hecho de que hay un infinito n´umero de quaterniones que son raices de −1 (ejercicio 30). ¿Que falla en la prueba de 5.5 para el caso
de los quaterniones? [188]
Caso finito
Los quaterniones son un anillo con divisi´on infinito y es natural preguntarse si se
pueden construir anillos con divisi´on finitos que no sean campos. El siguiente teorema
responde esta pregunta en forma negativa.
Secci´on 1.7
Anillos con divisi´on
25
Teorema de Wedderburn
Todo anillo con divisi´
on finito es un campo.
La prueba de este teorema involucra un an´alisis del grupo multiplicativo del anillo
y usa t´ecnicas de teor´ıa de grupos m´as all´a de los objetivos de este libro.
26
Capítulo segundo
Espacios Vectoriales
ste es el objeto central del ´algebra lineal. Motivaremos la introducci´on de este
concepto en el ejemplo geom´etrico del plano cartesiano. Daremos las definici´on
de espacio vectorial complementandola con los ejemplos m´as fundamentales.
Profundizaremos en la estructura de estos estudiando sus subespacios, sus bases, su
dimensi´on etc. lo que nos llevar´a a entender todos los espacios vectoriales (al menos los
de dimensi´on finita). Finalizaremos este cap´ıtulo con el estudio de las operaciones entre
subespacios y subespacios afines lo que nos llevar´a a entender los espacios cocientes.
2.1
El plano cartesiano
Hubo alg´
un tiempo, en que el ´algebra y la geometr´ıa eran dos
cosas totalmente aparte. Los algebristas trabajaban con n´
umeros,
polinomios, raices, f´ormulas, etc. y los ge´ometras con puntos, lineas, pol´ıgonos, etc. Ren´e Descartes (Francia 1596-1650) fu´e el
que tuvo la brillante idea de introducir los ejes de coordenadas.
Tomamos dos rectas perpendiculares, a la
y
horizontal se le llama “eje de las equis” y
a la vertical se le llama “eje de las yes”.
p
py
Para cada punto del plano p trazamos la perpendicular al eje
x y al eje y y de esta manera obtenemos los puntos px en el
eje x y py en el eje y. Por cuanto, el eje de las x lo podemos
identificar (escogiendo una unidad de medida) con R donde
el cero es el origen de coordenadas (la intersecci´on de los dos
px
x
ejes) por tanto, px es simplemente un n´
umero real. De la misma
manera py es otro n´
umero real. As´ı, a cada punto del plano p se
le hace corresponder biun´ıvocamente una pareja de n´
umeros reales (px , py ). Adem´as,
es conveniente representar cada punto del plano como el segmento dirigido desde el
origen de coordenadas hasta el punto o sea como vectores. A los elementos de R
(para diferenciarlos de los vectores) los llamaremos escalares.
28
Cap´ıtulo 2. Espacios vectoriales
Denotaremos los vectores por letras latinas en negritas. A diferencia de
estos, los escalares se denotar´an por letras latinas y griegas normales.
a + b Si a = (ax , ay ) y b = (bx , by ) son dos vectores la suma de los
mismos se define como a + b = (ax + bx , ay + by ) . La suma, geoa
m´etricamente no es nada m´as que la diagonal del paralelogramo
generado por a y b . Del hecho que (R, +) es un grupo abeliano
b
se desprende f´acilmente que nuestro plano cartesiano R2 es tambi´en
x un grupo con respecto a la suma de vectores.
Si a = (ax , ay ) es un vector y α un escalar el producto αa se define y
2a
como (αax , αay ) . Geom´etricamente este producto es aumentar (o reducir)
a
en un factor α el vector a. Si el factor es negativo entonces el resultado
x
apunta en la direcci´on opuesta. Si el factor es cero entonces el vector se
degenera al origen de coordenadas.
α (a + b) = αa+αb El producto por escalares es distributivo con respecto a la su(α + β) a =αa+βa ma de vectores y tambi´en con respecto a la suma de escalares
o sea se cumplen las igualdades en el recuadro. Estas dos leyes distributivas (¡son diferentes!) se cumplen porque son ciertas en cada coordenada.
Adem´as, obviamente tenemos que α (βa) = (αβ) a. Todo esto nos dice que el plano
cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.
y
2.2
Definici´
on y ejemplos
La primera definici´on de espacio vectorial la dio Giuseppe Peano (Italia, 1858 -1932), en su libro “C´alculo Geom´etrico” publicado en 1888.
Peano es m´as conocido por su axiom´atica de los n´
umeros naturales, o
por la “Curva de Peano” que es una inmersi´on continua sobreyectiva
del intervalo en el cuadrado.
Sea K un campo cuyos elementos los llamaremos escalares y
(E, +) un grupo abeliano cuyos elementos los llamaremos vectores.
Diremos que es un espacio vectorial sobre K si est´a definida una operaci´on de pro- E1) α (a + b) = αa + αb
(α + β) a =αa+βa
ducto de escalares por vectores K×E → E que cumple
E2)
α
(βa) = (αβ) a
las propiedades E1-E3. A los axiomas E1 y E2 se les
llama distributividad y asociatividad respectiva- E3) 1a = a
mente del producto por escalares.
Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que
denotaremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo
de escalares tiene un neutro para la suma: el 0, un neutro para el producto: el 1,
opuestos para la suma −α e inversos multiplicativos α−1 . Las relaciones que cumplen
estos con respecto al producto por escalares nos las da el siguiente resultado b´asico.
Secci´on 2.2
Definici´on y ejemplos
29
En todo espacio vectorial para cualquier vector a y cualquier
escalar α se cumple que 0a = 0, (−1) a = −a y α0 = 0.
Prueba. La demostraci´on se realiza mediante las siguentes tres cadenas de igualdades
E3
E1
0a = 0a + 1a − a = (0 + 1) a − a = a − a = 0
E3
E1
(−1) a = (−1) a + 1a − a = (−1 + 1) a − a = 0a − a = −a
¡
¢
¡
¢ E2
E3
E1
E3
α0 = α0 + 1 · 0 = α 0 + α−1 0 = α α−1 0 = 1 · 0 = 0
donde signos “=” est´an marcados con los axiomas por los que son v´alidos.
Ejercicio 32 Demuestre geom´etricamente que la diagonal del paralelogramo generado
por a y b tiene coordenadas (ax + bx , ay + by ). [188]
Ejercicio 33 ¿Cual es la interpretaci´on geom´etrica de la resta de vectores?
Ejercicio 34 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ) a? [188]
Ejercicio 35 Demuestre que αa = 0 ⇒ α = 0 o a = 0. [188]
Ejercicio 36 ¿Cual es el m´ınimo n´umero de elementos que puede tener un espacio
vectorial? [188]
Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que
el lector no se pierda en la cantidad de “ejemplos” que sigue. La mayor´ıa de ellos
son fundamentales para entender este libro. En particular, introduciremos notaciones
b´asicas que ser´an usadas constantemente.
El espacio de n-adas Kn
Consideremos el producto cartesiano de n copias Kn = {(a , a , ..., a ) | a ∈ K}
1
2
n
i
del campo K. Este producto se denota por Kn y
est´a formado por todas las n-adas (a1 , a2 , ..., an ). Al escalar ai se le llama la i-´esima
coordenada de la n-ada (a1 , a2 , ..., an ). Luego, una n-ada tiene n coordenadas.
Los vectores ser´an las n-adas, los escalares ser´an los elemen(a1 , ..., an )
tos de K. En Kn se introduce f´acilmente la suma por coordenadas como se muestra en el recuadro a la izquierda. Del
(b1 , ..., bn )
(a1 + b1 , ..., an + bn ) hecho de que las propiedades necesarias se cumplen en cada
coordenada se desprende que (Kn , +) es un grupo abeliano.
La multiplicaci´on por escalares tambi´en se introduce por
(a1 , ..., an )
coordenadas. El axioma E1 se reduce en cada coordenada a la
×
α
distributividad del producto respecto a la suma en el campo K.
(αa1 , αa2 , ..., αan )
El axioma E2 a la asociatividad del producto en K. Finalmente,
el axioma E3 se reduce en cada coordenada a que 1 es el neutro para el producto en el
campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.
+
30
Cap´ıtulo 2. Espacios vectoriales
El espacio de polinomios K [x]
Podemos sumar polinomios, esta suma se hace co²
± n
X
eficiente por coeficiente. Tambi´en sabemos multiplia
∈
K
ai xi | i
car un elemento de K por un polinomio. Es muy co- K [x] =
n∈N
i=0
nocido que todos los axiomas de espacio vectorial se
cumplen. En cierto sentido
P este espacio vectorial es parecido al anterior. Podemos asociar a cada polinomio ni=0 ai xi la (n + 1)-ada (a0 , a1 , , ..., an ) y la multiplicaci´on por
escalar es la misma que en Kn+1 . Para la suma podemos tener un problema
Pmsi soni de
grados diferentes pero esto se resuelve agregando suficientes ceros o sea si i=0 bi x es
otro polinomio con n > m entonces podemos asociarle la n-ada (b0 , b1 , ..., bm , 0, ..., 0)
con suficientes ceros para completar las n coordenadas y entonces la suma es la misma
que en Kn+1 . Aunque sepamos multiplicar polinomios, esto no tiene ning´
un papel en
el concepto de espacio vectorial.
El espacio de sucesiones KN
Dos sucesiones se suman por coordenadas como se mues(a1 , a2 , ..., an , ...)
tra en el recuadro. La mutiplicaci´on un escalar es tambi´en por coordenadas. Los axiomas de espacio vectorial
(b1 , b2 , ..., bn , ...)
(a1 + b1 , , ..., an + bn , ....) se comprueban f´acilmente. El lector debe observar que
los elementos de la sucesi´on pueden estar en un campo arbitrario y no necesariamente en R como estamos acostumbrados. La noci´on de
convergencia de sucesiones no tiene nada que ver con el concepto de espacio vectorial.
+
El espacio de series K [[x]]
Las series se suman coeficiente por coeficiente. Pa±∞
²
X
ra multiplicar por un escalar se multiplican todos los
ai xi | ai ∈ K
coeficientes por el escalar. Los axiomas de espacio vec- K [[x]] =
i=0
torial se cumplen porque se cumplen para cada coeficiente.
P∞ Dei hecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie
ıvocamente por la sucesi´on (a0 , a2 , ..., an , ...) de sus coefii=0 ai x se determina un´
cientes y no hay diferencia entre sumar series y sumar las correspondientes sucesiones.
Lo mismo pasa con la multiplicaci´on por un escalar. Al igual que con los polinomios,
el concepto de producto de series no juega ning´
un papel en el hecho de que K [[x]] sea
un espacio vectorial.
El espacio de funciones KN
Hay una biyecci´on natural entre las n-adas (a1 , a2 , ..., an ) ∈ Kn y las funciones
{1, ..., n} 3 i 7→ ai ∈ K. Igualmente las sucesiones (a0 , a1 , ..., an , ...) se corresponden
biun´ıvocamente con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es un conjunto arbitrario (no necesitamos de operaci´on alguna en N) entonces
el conjunto de todas las funciones de N en K se denota por KN . Dadas dos funciones
Secci´on 2.2
Definici´on y ejemplos
31
f, g ∈ KN la suma de ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para
cualquier i ∈ N. El producto por un escalar se define por (λf) (i) = λf (i). Los axiomas
de espacio vectorial se comprueban f´acilmente. Por ejemplo, la suma de funciones es
conmutativa porque para cada i en N se cumple que f (i) + g (i) = g (i) + f (i) gracias
a la conmutatividad de la suma en el campo. Como hemos visto, el espacio Kn y el
espacio de sucesiones son un caso particular de este ejemplo cuando N es {1, ..., n} y N
respectivamente. Adem´as, ya observamos que K [[x]] = KN .
El espacio de N-adas KN
Muy frecuentemente una funci´on en KN se denotar´a por αN . M´as precisamente, αN es la funci´on que a cada i ∈ N le hace corresponder el
escalar αi . Por ejemplo, si N = {1, . . . , n}, entonces αN = (α1 , . . . , αn ).
La bondad de esta notaci´on es que podemos pensar los elementos de KN (funciones)
como si fueran n-adas. Para poder seguir pensando en αN como si fuera en una n-ada
necesitamos las palabras adecuadas. A las funciones αN de KN las llamaremos N-adas.
Al conjunto N lo llamaremos conjunto de ´ındices de αN y a los elementos de N los
llamaremos ´ındices. Si i es un ´ındice, entonces diremos que αi es la i-´
esima coordenada de αN . En estas notaciones la suma de dos N-adas es por coordenadas. O sea, la
i-´esima coordenada de αN + βN es αi + βi . El producto por escalares tambi´en es por
coordenadas. O sea, la i-´esima coordenada de λαN es λαi .
Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental
entre una N-ada y una n-ada es que las coordenadas de la N-ada no necesariamente
est´an ordenadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces,
estos no tienen un orden natural. Para poder identificar una N-ada de estos con una
3-ada, necesitamos definir artificialmente cual es el primer vector cual es el segundo y
cual es el tercero.
El espacio de N-adas finitas K{N}
Sea αN ∈ KN una N-ada. Diremos que αN es finita si el conjunto de ´ındices i tales
que αi 6= 0 es finito. Si el conjunto de ´ındices N es finito entonces, cualquier N-ada
es finita (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el
conjunto de ´ındices es infinito entonces habr´a N-adas infinitas.
Si sumamos dos N-adas finitas el resultado ser´a una N-ada de finita (porque 0+0 =
0). Si multiplicamos una N-ada finita por un elemento del campo el resultado ser´a una
N-ada de finita (porque λ0 = 0). Los axiomas de espacio vectorial se cumplen porque
ya sabemos que se cumplen para cualesquiera N-adas. Al espacio de N-adas finita se
le denota por K{N} . Si N es finito K{N} = KN . Si N es infinito K{N} 6= KN .
PnComoi ejemplo de espacio de N-adas finitas veamos el siguiente. Cada polinomio
ıvocamente una N-ada aN donde ai = 0 si i > n. Esta N-ada
i=0 ai x determina un´
es finita. Rec´ıprocamente, si aN es una N-ada finita entonces, necesariamente, hay un
32
Cap´ıtulo 2. Espacios vectoriales
natural n tal que P
ai = 0 para cualquier i > n. As´ı, le podemos hacer corresponder
a aN el polinomio ni=0 ai xi . Esta correspondencia es biun´ıvoca y las operaciones son
las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomios es el
espacio de N-adas finitas. En otras palabras K{N} = K [x].
Subcampos
Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar
un elemento de L por uno de K obtenemos un elemento de K. Esto significa que
tenemos una operaci´on binaria en K (la suma) y una multiplicaci´on por escalares
L × K → K. En este caso, los axiomas de espacio vectorial se desprenden directamente
de las definiciones de campo y subcampo y obtenemos que K es un espacio vectorial
sobre L. Un caso muy particular es que todo campo es espacio vectorial sobre si mismo.
Otro ejemplo importante es que R es subcampo de C. Como cada complejo se puede
escribir como una pareja (a, b) con coordenadas en R y la suma de complejos y el
producto por un real son las mismas operaciones que en R2 tenemos que C como
espacio vectorial sobre R es lo mismo que R2 . Otro ejemplo m´as es que R es un espacio
vectorial sobre Q. Este caso es suficientemente complicado para que no digamos nada
m´as sobre ´el.
El espacio de N-adas de vectores EN
Ahora, nos debemos preguntar, cual es el m´ınimo de condiciones que le debemos
pedir a las coordenadas de una N-ada, para poder definir un espacio vectorial. Ya vimos
que, si las coordenadas est´an en un campo entonces, obtenemos un espacio vectorial.
Pero esto es pedir mucho. En realidad, solo necesitamos saber sumar las coordenadas
y multiplicar cada coordenada por un escalar, o sea, necesitamos que las coordenadas
sean vectores.
M´as precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos
por EN el conjunto de todas las N-adas de E. Si aN y bN son dos elementos de
EN entonces, la i-´esima coordenada de aN + bN es ai + bi . Esto lo podemos hacer
porque sabemos sumar los elementos de E. Ahora, si λ es un elemento de K entonces, la
i-´esima coordenada de λaN es λai . Esto lo podemos hacer porque sabemos multiplicar
los escalares en K por los vectores en E. Los axiomas de espacio vectorial se demuestran
f´acilmente debido a que se cumplen en cada coordenada.
El espacio de NM-matrices KNM
Un caso particular de N-adas de vectores es cuando estos vectores son M-adas
¡
¢N
de escalares. Este espacio es KM . Para aclarar un poco que sucede en este caso,
supongamos que N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio
¡ M ¢N
es una 2-ada (a1 , a2 ) de vectores y cada uno de ellos es una 3-ada de escalares.
K
Secci´on 2.2
Definici´on y ejemplos
33
Los dos vectores los podemos represen- µ
¶
α11 α12 α13
tar como en el recuadro a la izquierda
α21 α22 α23
y para simplificar nos quedamos con la
tabla que vemos a la derecha.
Esta tabla es un elemento del espacio de (N × M)-adas KN×M , o sea, los ´ındices
¢N
¡
son parejas en el producto cartesiano N × M. Esto nos permite identificar KM con
KN×M y como las operaciones en ambos espacios son las mismas estos espacios son
en esencia el mismo. Cambiando el orden en que ponemos los indices obtenemos las
¡ M ¢N
¡ ¢M
igualdades
K
= KN×M = KM×N = KN
que el lector debe comparar con (ax )y = axy = ayx = (ay )x para n´
umeros naturales
a, x, y.
Desde ahora, para simplificar la notaci´on, a una (N × M)-ada cualquiera la llamaremos NM-ada. Tambi´en, en lugar de usar la notaci´on α(N×M) para denotar una
NM-ada concreta, usaremos la notaci´on αNM . A una coordenada de esta NM-ada la
denotaremos αij en lugar de usar la m´as complicada α(i,j) . En esta notaci´on, es m´as
c´omodo pensar que hay dos conjuntos de ´ındices (N y M) en lugar de uno solo (N×M).
O sea, una NM-ada es un conjunto de elementos del campo indexado por dos conjuntos
de ´ındices. Cuando N = {1, . . . , n} y M = {1, . . . , m} entonces obtenemos una matriz
con n renglones y m columnas. En el ejemplo anterior obtuvimos una matriz con 2
renglones y 3 columnas.
Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jerogl´ıficos chinos), la
diferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de
´ındices por lo que no sabr´ıamos cual columna o rengl´on poner primero y cual despu´es.
Como esta diferencia no es tan importante y para no formar confusi´on en la terminolog´ıa
desde ahora, a las NM-adas los llamaremos NM-matrices. Escribiremos KNM para
denotar el espacio vectorial de todas las NM-matrices. Como ya sabemos, en este
espacio las matrices se suman por coordenadas y se multiplican por escalares tambi´en
por coordenadas.
Sea αNM una NM-matriz. Es costumbre llamarle a las coordenadas αij de αNM
entradas de la matriz. Si i ∈ N entonces la M-ada αiM ∈ KM es el i-´
esimo rengl´
on
de la matriz αNM . Si j ∈ M entonces la N-ada αNj ∈ KN es la j-´
esima columna.
Al conjunto N se le llama conjunto de ´ındices de los renglones. An´alogamente, al
conjunto M se le llama conjunto de ´ındices de las columnas.
Si N0 , M0 son subconjuntos no vac´ıos de N y M respectivamente entonces a la
matriz αN 0 M 0 se le llama submatriz de αNM . Si |N0 | = |M0 | = 1 entonces la submatriz
es una entrada. Un rengl´
on es una submatriz donde |N0 | = 1 y M0 = M o sea una
submatriz del tipo αiM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o
sea una submatriz del tipo αNj . Una u
´ltima observaci´on acerca de las matrices, es que
toda esta terminolog´ıa de “columnas” y “renglones” viene de la manera usual en forma
de tabla en que escribimos una matriz concreta.
a1 = (α11 , α12 , α13 )
a2 = (α21 , α22 , α23 )
34
Cap´ıtulo 2. Espacios vectoriales
El espacio de tensores
Bueno, ¿y si tenemos m´as de dos conjuntos de ´ındices? Pues es lo mismo. Una
NML-ada es una (N × M × L)-ada. Al igual que en las matrices denotaremos por
αNML a una NML-ada con tres conjuntos de ´ındices o sea un tensor de exponente
3. Las matrices son tensores de exponente 2 y las N-adas son tensores de exponente 1.
Los tensores de exponente 0 son los elementos del campo.
Si bien podemos pensar un tensor de exponente 1, como una serie de elementos del campo uno al lado de otro
y pensar los de exponente 2, como una tabla rectangular de elementos del campo, tambi´en podemos pensar los
tensores de exponente 3, como un conjunto de elementos
del campo dispuestos en un arreglo que llenan un cubo
en el espacio. Para cada i ∈ N tenemos que αiML es un
tensor de exponente 2 o sea una matriz. Todo αNML nos
lo podemos imaginar como muchas matrices puestas una
encima de la otra.
Sin embargo cuando el exponente del tensor es grande ya nuestra imaginaci´on no
da para visualizar geom´etricamente un arreglo de los elementos del campo dispuestos
en un cubo de dimensi´on grande. Es mucho m´as u
´til el manejo algebraico de estos, que
tratar de visualizarlos. En este contexto, la terminolog´ıa de “renglones” y “columnas”
se hace inutilizable. Como es l´ogico, los tensores con conjuntos de ´ındices fijos forman
un espacio vectorial. La suma se hace por coordenadas y tambi´en la multiplicaci´on por
un escalar.
2.3
Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vac´ıo de
vectores que es un espacio vectorial para las mismas operaciones.
Un conjunto de vectores F no vac´ıo es un subespacio si y solo si para
cualesquiera a, b ∈ F y λ ∈ K los vectores a + b y λa est´an en F.
Prueba. Si F es un subespacio de E entonces, por definici´on a + b y λa est´an en F.
Rec´ıprocamente, sea F un conjunto de vectores de E que cumple las hip´otesis. Como
la suma de vectores es asociativa y conmutativa en E, tambi´en lo es en F. Sea a ∈ F
(existe por ser F no vac´ıo). Tenemos 0a = 0 ∈ F. Adem´as ∀b ∈ F (−1) b = −b ∈ F.
Con esto se comprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial
se cumplen en F por ser este un subconjunto de E.
Secci´on 2.3
Subespacios
35
Uni´
on e intersecci´
on de subespacios
¿Ser´an la intersecci´on (y la uni´on) de subespacios un subespacio? La uni´on de
subespacios no es un subespacio. Por ejemplo, el eje x y el eje y en el plano cartesiano
son subespacios sin embargo, la uni´on de los mismos no es un subespacio ya que (0, 1)+
(1, 0) = (1, 1) que no pertenece a la uni´on de los dos ejes. Por el contrario, la intersecci´on
de subespacios s´ı es un subespacio.
La intersecci´on de un conjunto de subespacios es un subespacio.
Prueba. La intersecci´on de subespacios nunca es vac´ıa porque cada subespacio contiene al 0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto
entonces, a + b tambi´en est´a en cada uno de los subespacios del conjunto. Lo mismo
sucede para αa.
Combinaciones lineales
Veamos unos ejemplos importantes de subespacios. Sea a un vector
no nulo en R2 . El conjunto hai = {αa | α ∈ R} de todos los m´
ultiplos
a
del vector a es un subespacio de R2 ya que αa + βa = (α + β) a, y
α (βa) = (αβ) a. Geom´etricamente, teniendo en cuenta la identificaci´on
de vectores con los puntos del plano cartesiano, vemos que los vectores hai
en este espacio son los puntos de la recta por el origen que pasa por a.
Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos el conjunto de vectores {αa + βb | α, β ∈ R}. Este conjunto de vectores se denota
por ha, bi y es un subespacio ya que αa + βb+α0 a + β0 b = (α + α0 ) a + (β + β0 ) by
λ (αa + βb) = λαa+λβb. Geom´etricamente, vemos que este conjunto contiene a la
recta hai que pasa por a y a la l´ınea hbi que pasa por b.
En R3 hay un solo plano que contiene estas dos rectas.
¿Ser´a este plano el subespacio ha, bi? Claro que s´ı. Para
a
cada punto p de este plano dibujemos la paralela a la l´ınea
p
hai que pasa por p obteniendo un punto de intersecci´on con
b
la recta hbi el cual es βb para alg´
un β ∈ R. An´alogamente,
ha, bi
dibujando la paralela a hbi obtenemos el punto αa en la
recta hai y vemos que p = αa + βb. Luego, p ∈ ha, bi.
Estos ejemplos nos motivan a la siguiente definici´on. Sea N un conjunto X
de vectores. Una combinaci´
on lineal de N es cualquier vector de la forma
αi i
que se muestra en el recuadro a la derecha. A los escalares αi se les llama i∈N
coeficientes de la combinaci´on lineal.
Es posible que no se entienda esta notaci´on. El conjunto de ´ındices es el conjunto
de vectores N por lo que en la suma hay tantos sumandos como vectores hay en
N. As´ı por ejemplo si N = {a, b, c, d} entonces una combinaci´on lineal de N es un
Cap´ıtulo 2. Espacios vectoriales
36
P
vector de la forma αa + βb + γc + δd. En otras palabras, la notaci´on i∈N αi i debe
interpretarse as´ı: “t´omese los vectores de N, cada uno de ellos multipl´ıquese por un
escalar y s´
umese los resultados”. No importa el orden de los sumandos, la suma de
vectores es conmutativa
Todo esto est´a muy bien si el conjunto N es finito. Si N es infinito tenemos un
problema. ¿Que es una suma infinita de vectores? La manera de evitar este problema
es que le pediremos a los coeficientes αi que todos salvo un n´
umero finito sean cero o
sea, que la N-ada αN cuyas coordenadas son los coeficientes de la combinaci´on lineal
es finita. Como podemos despreciar los sumandos iguales a cero, tenemos que una
combinaci´on lineal es siempre una suma de un n´
umero finito de vectores.
El conjunto de todas las combinaciones lineales de N es un subespacio.
P
P
Prueba. Sean i∈N αi i y i∈N βi i dos combinaciones lineales de N entonces, de
la asociatividad y conmutatividad de la suma de vectores y de la distributividad del
producto por escalares obtenemos:
X
X
X
αi i+
βi i =
(αi + βi ) i
i∈N
i∈N
i∈N
βi ) salvo un n´
umero finito
que es una combinaci´on lineal de N ya que todos
¡P los (α
¢ i +P
tienen que ser cero. Lo mismo ocurre con γ
i∈N αi i =
i∈N γαi i.
Cerradura lineal
Denotaremos por hNi al conjunto de todas las combinaciones lineales de N.
Si F es un subespacio que contiene a N entonces, F contiene a hNi.
Prueba. Si N ⊆ F entonces, F contiene a todos los m´
ultiplos de los vectores en N y
a todas sus sumas finitas. Luego, cualquier combinaci´on lineal de N est´a en F.
Los
1.
2.
3.
siguientes tres conjuntos de vectores coinciden
El conjunto de todas las combinaciones lineales de N.
La intersecci´on de todos los subespacios que contienen a N.
El subespacio m´as peque˜
no que contiene a N.
Prueba. Denotemos por F1 , F2 y F3 a los tres conjuntos del enunciado de la proposici´on. Por definici´on F1 = hNi. Por la proposici´on 2.3 el conjunto F2 es un subespacio
que contiene a N y de 2.5 obtenemos que F1 ⊆ F2 . Por definici´on de intersecci´on
tenemos que F2 ⊆ F3 . Por definici´on, F3 est´a contenido en cualquier subespacio que
contiene a N y en particular F3 ⊆ F1 . Resumiendo, F1 ⊆ F2 ⊆ F3 ⊆ F1 .
Secci´on 2.4
Bases
37
A cualquiera de estos tres conjuntos (¡son iguales!) se le denota por hNi y se le
llama cerradura lineal de N o tambi´en el subespacio generado por N.
Propiedades de la cerradura lineal
La cerradura lineal cumple las siguientes propiedades:
¨ N ⊆ hNi
(incremento),
¨ N ⊆ M ⇒ hNi ⊆ hMi (monoton´ıa),
¨ hhNii = hNi
(idempotencia).
Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cualquier combinaci´on lineal de N es tambi´en combinaci´on lineal de M (haciendo cero os
coeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio m´as
peque˜
no que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi.
En matem´aticas las palabras “clausura”, “cerradura” y “envoltura” son sin´onimos.
Por esto con el mismo ´exito, otros autores le llaman “clausura lineal” o “envoltura
lineal” a nuestro concepto de cerradura lineal. Adem´as, es bueno que el lector encuentre
el parecido entre el concepto de cerradura lineal y el concepto de “cerradura” en an´alisis
(la intersecci´on de todos los cerrados que contienen a un conjunto).
En general una funci´on que a un conjunto N le hace corresponder otro conjunto hNi y
que cumple las propiedades 1-3 se le llama operador de cerradura (clausura, envoltura).
En este caso a los conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las
propiedades 1-3 es, en general, equivalente a que el operador de cerradura se defina como la intersecci´on
de todos los cerrados que contienen al conjunto. En todas las ramas de las matem´aticas se encuentran
operadores de cerradura.
Ejercicio 37 Demuestre que N es un subespacio si y solo si N = hNi.
Ejercicio 38 Demuestre que (x ∈ hN ∪ yi \ hNi) ⇒ (y ∈ hN ∪ xi). [189]
2.4
Bases
X
Observemos que la definici´on de combinaci´on lineal de N
determina la funci´on fN del recuadro a la izquierda que
i∈N
a cada N-ada finita αN le hace corresponder el vector
P
on no tiene porque que ser sobreyectiva ni inyectiva, depende
i∈N αi i. Esta funci´
del conjunto de vectores N. Por ejemplo, sea N = {x, y, z} ⊆ R3 donde x = (0, 0, 1),
y = (0, 1, 0) y z = (0, 1, 1). En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) por lo que
fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen.
K{N} 3 αN 7→
αi i ∈ E
38
Cap´ıtulo 2. Espacios vectoriales
En esta secci´on estableceremos que en todo espacio vectorial existen conjuntos N
para los cuales la funci´on fN es biyectiva. Este hecho es fundamental, porque en este
{N}
caso existe la funci´on inversa f−1
que nos permitir´a introducir coordenadas
N : E → K
en cualquier espacio vectorial. Es m´as, veremos que los conjuntos de vectores para los
cuales fN es biyectiva tienen la misma cantidad de vectores. Esto quiere decir que cada
vector de E se define por un cierto n´
umero de elementos del campo (coordenadas) y
que este n´
umero es independiente del vector a definir. Solo depende del espacio. As´ı,
en R2 nos hacen falta siempre dos reales y en R7 nos hacen falta siete.
Conjuntos generadores
Primero, lo m´as f´acil. La imagen de la funci´on fN es hNi , o sea, la cerradura lineal
de N. Diremos que N es un conjunto generador si hNi es todo el espacio o sea, si
fN es sobreyectiva.
Los generadores son un filtro
Todo sobreconjunto de un conjunto generador es generador.
Prueba. Supongamos M ⊇ N. Por monoton´ıa de la cerradura lineal tenemos hNi ⊆
hMi. Si hNi es todo el espacio entonces, necesariamente hMi tambi´en lo es.
Conjuntos linealmente independientes
Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje m´as descriptivo, fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.
Teorema de Caracterizaci´
on de Conjuntos Linealmente Independientes
Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes:
1. Cualquier subconjunto propio de N genera un subespacio m´as peque˜
no
que hNi.
2. Cualquier vector en N no es combinaci´on lineal de los restantes.
3. Si dos combinaciones lineales de N son iguales entonces, todos sus coeficientes son iguales.
4. Si una combinaci´
on lineal de N es cero entonces, todos sus coeficientes
son cero.
Prueba. (1 ⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai pero
entonces a ∈ hN\ai lo que contradice 2. Rec´ıprocamente, si 2 no es cierto entonces
existe a ∈ N tal que a ∈ hN\ai. Por incremento N\a ⊆ hN\ai y como adem´as
a ∈ hN\ai entonces N ⊆ hN\ai. Por monoton´ıa e idempotencia hNi ⊆ hN\ai lo que
contradice 1.
Secci´on 2.4
Bases
39
¡P
¢
¡P
¢
P
(3 ⇔ 4) Observese que
α
i
=
β
i
⇔
(α
−
β
)
i
=
0
y adem´as
i
i
i
i
i∈N
i∈N
i∈N
(αi = βi ) ⇔ (αi − βi = 0). Luego, la existencia de combinaciones lineales iguales con
algunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales
iguales a cero con algunos coeficientes no cero.
(2 ⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinaci´on
lineal de N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos
una combinaci´on lineal de N igual a cero con un coeficiente distinto de cero. Esto
contradice 4. Rec´ıprocamente, si no se cumple 4 entonces hay un vector a ∈ N y una
combinaci´on lineal de N igual a cero y con αa 6= 0. Despejando a, obtenemos que
a ∈ hN\ai. Esto contradice 2.
Ejercicio 39 Busque en la prueba del Teorema de Caracterizaci´on de Conjuntos Linealmente Independientes (2.9) donde se usan los inversos nultiplicativos. [189]
Diremos que un conjunto de vectores N es linealmente independiente si se
cumple alguna (y por lo tanto todas) las afirmaciones de la proposici´on anterior. Los
conjuntos de vectores que no las cumplen se les llama linealmente dependientes.
A partir de ahora para no repetir constantemente frases largas, a los conjuntos de vectores linealmente independientes los llamaremos conjuntos
LI. A los conjuntos de vectores linealmente dependientes los llamaremos
conjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”.
Los independientes son un ideal
Todo subconjunto de un conjunto LI es LI.
Prueba. Sea N ⊆ M tal que M es LI. Cualquier combinaci´on lineal de N es combinaci´on lineal de M. Luego toda combinaci´on lineal de N igual a cero tiene todos sus
coeficientes iguales a cero
Antes de pasar a la definici´on de base, demostremos un peque˜
no resultado que
usaremos repetidamente en lo adelante.
Lema de Aumento de un Conjunto LI
Si N es independiente y N ∪ a es dependiente entonces a ∈ hNi.
Prueba. Si N ∪ a es LD entonces, por la caracterizaci´on 2.9.4 de los conjuntos LI,
hay una combinaci´on de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero.
Si el coeficiente en a fuera igual a cero tendr´ıamos una contradicci´on con que N es LI.
Luego, el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi.
Cap´ıtulo 2. Espacios vectoriales
40
Bases
La relaci´on entre los conjuntos generadores y los conjuntos LI la podemos ver intuitivamente en la figura a la
derecha. Aqu´ı est´an representados los subconjuntos del
espacio E que son generadores o que son LI. Mientras
m´as arriba m´as grande es el subconjunto. Nuestro inter´es
ahora se va a concentrar en la franja del centro donde
hay subconjuntos que a la vez son generadores y LI. La
siguiente proposici´on nos dice que “esta franja no puede
ser muy ancha”.
E
Conjuntos generadores
Conjuntos LI
∅
Teorema de Caracterizaci´
on de Bases
Sea
1.
2.
3.
N un conjunto de vectores. Las siguientes afirmaciones son equivalentes
N es generador y N es LI,
N es LI y cualquier sobreconjunto propio de N es LD,
N es generador y cualquier subconjunto propio de N no es generador.
Prueba. (1 ⇒ 2) Sea N independiente y generador. Sea a ∈
/ N. Como N es generador
a ∈ hNi . De la caracterizaci´on 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD.
Luego todo sobreconjunto propio de N es LD.
(2 ⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a ∈
/ N entonces
N ∪ a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi .
Luego, N es generador. Si alg´
un subconjunto propio de N fuera generador entonces
existir´ıa a ∈ N tal que a ∈ hN\ai y por la caracterizaci´on 2.9.2 de los conjuntos LI
esto contradice la suposici´on de que N es LI.
(3 ⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterizaci´on 2.9.1
de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N
es generador entonces M tambi´en lo es. Esto contradice que N es minimal.
Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI
se le llama base de F. Las bases de todo el espacio se llaman simplemente bases. El
ser base es equivalente a ser un conjunto LI lo m´as grande posible o ser un conjunto
generador lo m´as peque˜
no posible. Tambi´en, el ser base es equivalente a que nuestra
funci´on fN del principio de esta secci´on sea biyectiva.
Lema de Incomparabilidad de las Bases
Dos bases diferentes no est´
an contenidas una dentro de la otra.
Prueba. Si N ⊆ M son dos bases diferentes entonces N es un subconjunto propio de
M y por el Teorema de Caracterizaci´on de Bases (2.12) esto es una contradicci´on.
Secci´on 2.4
Bases
41
Teorema de Existencia de Bases
Sea N un conjunto generador y L ⊆ N un conjunto
LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.
Prueba. Sean L y N como en las hip´otesis del teorema. Sea M un conjunto LI tal
que L ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD)
entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. Como
N es generador, esto significa que M tambi´en lo es y por lo tanto M es una base.
Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es f´acil
si el conjunto N es finito. Primero ponemos M igual a L. Si M es maximal terminamos,
si no, entonces existe a ∈ N\M tal que M ∪ a es LI. Agregamos a al conjunto M y
repetimos este proceso. Como N es finito este proceso tiene que terminar.
Ejercicio 40 Usando el Teorema de Existencia de Bases pruebe que: 1. Todo espacio
vectorial tiene base. 2. Cualquier conjunto LI esta contenido en una base. 3. Cualquier
conjunto generador contiene a una base. [189]
Dimensi´
on
Ahora lo que queremos ver es que todas las bases tienen el mismo n´
umero de
vectores. Para probar esto se necesita ver primero una propiedad cl´asica de las bases.
Propiedad del Cambio de las Bases
Si M y N son dos bases entonces, para cualquier
a ∈ M existe b ∈ N tal que (M\a) ∪ b es base.
Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b ∈ N denotemos
Mb = (M\a) ∪ b. Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces,
por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N ser´ıa combinaci´on
lineal de M\a. O sea, N ⊂ hM\ai y por lo tanto hNi ⊆ hM\ai . Como hNi es todo el
espacio tendr´ıamos a ∈ hM\ai lo que no es posible ya que M es LI.
Hemos demostrado que existe b ∈ N\ (M\a) tal que Mb es LI. Demostremos que
Mb es generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v son
combinaciones lineales de M o sea
Xexisten escalares apropiados
X tales que
b = αa a +
αx x
v = λa a +
λx x
x∈M\a
x∈M\a
Como Mb es LI entonces, b no es una combinaci´on lineal de M\a y por lo tanto
αa 6= 0. Luego, podemos despejar a de la primera ecuaci´on, substituirla en la segunda
y as´ı obtener que v ∈ hMb i. Esto significa que Mb es generador.
42
Cap´ıtulo 2. Espacios vectoriales
Equicardinalidad de las Bases
Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.
Prueba. Sean A = {a1 , ..., an } y B dos bases. Por la Propiedad del Cambio de las Bases
(2.15) existe otra base A1 = {b1 , a2 , ..., an } donde b1 ∈ B. Observese que |A1 | = n
ya que en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las
Bases (2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos
otra base A2 = {b1 , b2 , a3 , ..., an } tal que b2 ∈ B. Observese que |A2 | = n ya que en
otro caso A2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13).
Repitiendo este proceso obtenemos bases A3 , A4 , ..., An todas con n vectores y adem´as
An ⊆ B. Como B es base An = B y por lo tanto B tambi´en tiene n vectores.
Al cardinal de una base (cualquiera) se le llama dimensi´
on del espacio vectorial. La
dimensi´on de un espacio vectorial E se denotar´a por dim E. Los espacios vectoriales que
tienen una base finita se les llama finito dimensionales o de dimensi´
on finita. Por
el contrario, si sus bases son infinitas entonces, el espacio vectorial es de dimensi´
on
infinita. La teor´ıa de los espacios vectoriales de dimensi´on finita es m´as sencilla pero
m´as completa que la de los espacios de dimensi´on infinita. Para darnos cuenta de que
hay muchas cosas que no se cumplen en el caso infinito dimensional veamos como
ejemplo el siguiente resultado que tendremos m´
ultiples ocaciones para utilizarlo.
Sea F un espacio vectorial finito dimensional y E un
subespacio de F. Si dim E = dim F entonces E = F.
Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe
una base M del espacio F que contiene a N. Como M es finita entonces, N tambi´en es
finita. Como las dimensiones coinciden, el n´
umero de vectores en N es igual al n´
umero
de vectores en M. Luego N = M y por lo tanto E = hNi = hMi = F.
La prueba de la Equicardinalidad de las Bases la hemos hecho solamente
para el caso que el espacio tiene una base finita. Nuestra prueba del Teorema de Existencia de Bases es solo para el caso que el conjunto generador
es finito. Finalmente, solo probamos que los espacios vectoriales que tienen un conjunto
generador finito tienen base. Es importante que el lector sepa que estas tres afirmaciones son v´alidas en general. Las pruebas generales dependen de un conocimiento m´as
profundo de la Teor´ıa de Conjuntos que no presuponemos que lo posea el lector. A los
interesados en esto les recomiendo leer ahora la u
´ltima secci´on de este cap´ıtulo.
Ejercicio 41 Pruebe que si E un subespacio de F entonces dim E ≤ dim F. [189]
Ejercicio 42 Encuentre un ejemplo donde no se cumple 2.17. [189]
Secci´on 2.4
Bases
43
Bases can´
onicas
Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen una base sino muchas. Por esto es conveniente construir bases que son las m´as
“sencillas” para los ejemplos de espacios vectoriales que construimos en la Secci´on 2.2.
Comenzemos con R2 . Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en
2
R
R2 tiene una manera de expresarse como combinaci´on lineal de N = {e1 , e2 }.
Efectivamente, tenemos la igualdad (a, b) = ae1 + be2 . Esto quiere decir que el conjunto N es generador. Por otro lado, si αe1 + βe2 = (α, β) = 0 = (0, 0) entonces,
necesariamente, α y β son ambos cero. De aqu´ı obtenemos que conjunto N es una
base que la llamamos base can´
onica de R2 . Los vectores e1 y e2 se pueden visualizar
geom´etricamente como los dos vectores de longitud 1 en ambos ejes de coordenadas.
Luego, la dimensi´on de R2 es 2.
Pasemos ahora a Kn . Para cada i en el conjunto de ´ındices {1, . . . , n} denotemos
Kn
por ei el vector cuya i-esima coordenada es 1 y todas las dem´as son cero (recuerde
que todo campoP
tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos
(α1 , . . . , αn ) = ni=1 αi ei y esto significa que cada vector en Kn se expresa de forma
u
´nica como combinaci´on lineal de N. O sea, N es generador y por la caracterizaci´on
2.9.3 de los conjuntos LI el conjunto N es LI. A la base N se le llama base can´
onica
de Kn . La dimensi´on de Kn es n.
ª
©
Veamos el espacio de polinomios K [x]. Sea N el conjunto xi | i ∈ N . Es claro
K [x] que todo polinomio se puede escribir de forma u
´nica como combinaci´on lineal
finita de N. A la base N se le llama base can´
onica de K [x]. Luego, K [x] es de
dimensi´on infinita contable. Desafortunadamente, para el espacio de series no se puede
dar explicitamente una base.
Para el espacio K{N} de todas las N-adas finitas ya hicimos casi todo el trabajo
{N}
K
(v´ease Kn ). Para cada i en el conjunto de ´ındices N denotemos por ei el
vector cuya i-esima coordenada
Pes 1 y las dem´as son cero. Sea M el conjunto de todos
esos vectores. Tenemos αN = ei ∈M αi ei donde los coeficientes son distintos de cero
solamente en un subconjunto finito de indices. Luego, M es una base de este espacio
la cual es su base can´
onica. La dimensi´on de K{N} es el cardinal de N ya que hay una
biyecci´on entre N y M.
Recordemos al lector que lo de N-ada finita es no trivial solo para cuando el conKN junto N es infinito. Si el conjunto de ´ındices es finito entonces estamos hablando
de todas las N-adas o sea de KN . Luego, en el caso de que N es finito K{N} = KN y
la base can´
onica de KN es la construida en el p´arrafo anterior. En el caso de que el
conjunto N sea infinito entonces el espacio KN no tiene una base can´onica.
El campo de los n´
umeros complejos como espacio vectorial sobre los reales tienen
como base can´
onica al conjunto {1, i} y por lo tanto tiene dimensi´on 2. Los reales
como espacio vectorial sobre los racionales no tienen una base can´onica.
Todos los espacios que hemos visto que no tienen base can´onica son de dimensi´on
infinita. Pero, no todos los espacios de dimensi´
on finita tienen una base can´onica. El
44
Cap´ıtulo 2. Espacios vectoriales
ejemplo m´as sencillo es tomar un subespacio de un espacio de dimensi´on finita. Si este
subespacio es suficientemente general, entonces no hay manera de construir una base
can´onica del mismo incluso en el caso de que todo el espacio tenga una base can´onica.
Ejercicio 43 ¿Cual es la base can´onica del espacio de las NM-matrices? [189]
2.5
Clasificaci´
on de espacios vectoriales
En esta secci´on veremos que todo espacio vectorial es isomorfo a un espacio de
N-adas finitas. Para el caso finito dimensional esto quiere decir que el u
´nico (salvo
isomorfismos) espacio vectorial de dimensi´on n sobre un campo K que existe es el
espacio de las n-adas Kn .
Isomorfismos lineales
En el Cap´ıtulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y
campos. Para los espacios vectoriales es igual, la u
´nica diferencia es que en ellos hay
definida una operaci´on que no es interna del espacio: el producto de un escalar por un
vector. Sin embargo, esto no presenta mayores dificultades.
Sean E y F dos espacios vectoriales sobre el mismo campo
f (a + b) = f (a) + f (b)
K. Una funci´on f : E → F se le llama morfismo de
f (αa) = αf (a)
espacios vectoriales si para cualesquiera a, b ∈ E y
cualquier α ∈ K se cumplen las propiedades del recuadro.
A los morfismos de espacios vectoriales tambi´en se les llama transformaciones
lineales. Esta u
´ltima expresi´on ser´a la que usemos porque tiene dos importantes ventajas. Primero, es m´as corta que la primera. Segundo es mucho m´as antigua, hay
mucha m´as cantidad de personas que la conoce y por lo tanto facilita la comunicaci´on
con ingenieros y cient´ıficos de diversas areas.
Ejercicio 44 Demuestre que la composici´on de morfismos es un morfismo. [189]
El estudio de las transformaciones lineales lo pospondremos hasta el siguiente
cap´ıtulo. Aqu´ı estaremos interesados en los isomorfismos de espacios vectoriales. Una
transformaci´on lineal f : E → F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta es biyectiva. An´alogamente al caso de operaciones binarias
tenemos el siguiente resultado:
La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.
Secci´on 2.5
Clasificaci´on de espacios vectoriales
45
Prueba. Sea α ∈ K y x, y ∈ F. Como f es una biyecci´on existen a, b ∈ E tales que
f (a) = x , f (b) = y. Como f es isomorfismo tenemos
f−1 (x + y) = f−1 (f (a) + f (b)) = f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y)
f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x)
que es lo que se quer´ıa demostrar.
Ya observamos, que los isomorfismos son nada m´as que un cambio de los nombres
de los elementos y las operaciones. Esto quiere decir que “cualquier propiedad” debe
conservarse al aplicar un isomorfismo. Lo siguiente es un ejemplo de esta afirmaci´on.
Un isomorfismo transforma conjuntos LI en conjuntos LI, conjuntos generadores en conjuntos generadores y bases en bases.
Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sean M ⊆ E y
def
F. Como
tenemos
N = f (M) ⊆ F.
à Sean adem´a!s x ∈ÃE , y = f (x) ∈ !
à f es isomorfismo
!
X
X
X
αi i = x ⇔
αi f (i) = y ⇔
αj j = y
i∈M
i∈M
j∈N
donde el conjunto de coeficientes {αi | i ∈ M} es exactamente el mismo que {αj | j ∈ N}.
Si M es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combinaci´on lineal de M y por la equivalencia anterior el vector y es combinaci´on lineal de
N. Luego, si M es generador entonces N tambi´en lo es.
Supongamos que M esÃLI entonces, !
poniendo
à x = 0 obtenemos
!
X
X
αi i = 0 ⇔
αj j = 0
i∈M
j∈N
luego, cualquier combinaci´on lineal de N que es nula tambi´en es combinaci´on lineal
nula de M y por lo tanto todos sus coeficientes son cero. Luego, N es LI.
Ejercicio 45 Demuestre que los isomorfismos conmutan con el operador de cerradura
lineal y que trasforman subespacios en subespacios de la misma dimensi´on.
Coordinatizaci´
on
Sea N un conjunto de vectores del espacio vectorial F. Al principio de la secci´on
anterior introducimos la funci´on fN que a cada N-ada finita le hace corresponder la
combinaci´on lineal cuyos coeficientes son dicha N-ada. Esta funci´on es siempre una
transformaci´on lineal ya que
X
X
X
fN (αN + βN ) =
(αi + βi ) i =
αi i +
βi i = fN (αN ) + fN (βN )
i∈N
i∈N
X
X i∈N
fN (λαN ) =
(λαi ) i = λ
αi i = λfN (αN ) .
i∈N
i∈N
Cap´ıtulo 2. Espacios vectoriales
46
Por otro lado, ya vimos que fN es sobreyectiva si y solo si N es generador, que fN
es inyectiva si y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N
{N}
es una base. En el caso de que N sea una base, la funci´on inversa f−1
es
N : F → K
un isomorfismo lineal llamado coordinatizaci´
on de F mediante la base N. En otras
palabras, si N es una base dePF, y x es un vector de F entonces, existe una u
´nica
{N}
N-ada αN ∈ K tal que x = i∈N αi i. En este caso, a los coeficientes αi se les llama
coordenadas de x en la base N.
Clasificaci´
on
Se dice que dos espacios son isomorfos si existe una funci´on que es un isomorfismo
entre ellos. No hay ninguna raz´on (por ahora) para que deseemos distinguir dos espacios
vectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres”
de los vectores y las operaciones. La clave para ver que los espacios vectoriales son
isomorfos es que estos tengan la misma dimensi´on.
Dos espacios vectoriales sobre el mismo campo son
isomorfos si y solo si tienen la misma dimensi´
on.
Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19
un isomorfismo entre ellos transforma biyectivamente una base de uno en una base del
otro por lo que tienen la misma dimensi´on. Rec´ıprocamente, sean N y M bases de E
y F respectivamente. Mediante los isomorfismos de coordinatizaci´on podemos pensar
que E = K{N} y F = K{M} . Si los dos tienen la misma dimensi´on entonces, hay una
biyecci´on f : M → N. Sea g : K{N} 3 αN 7→ βM ∈ K{M} la funci´on tal que βi = αf(i) .
Podemos pensar que la funci´on g es la que le cambia el nombre a los ´ındices de una
N-ada. Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma de
N-adas es por coordenadas y lo mismo con el producto por un escalar).
Esta proposici´on nos permite saber como son TODOS los espacios vectoriales. Ya
vimos (mediante la base can´onica) que el espacio vectorial de todas las N-adas finitas
tiene dimensi´on |N|. Escogiendo el conjunto N adecuadamente obtenemos todas las
dimensiones posibles. En el caso de que N sea finito con n elementos , este espacio es
Kn por lo que es v´alido el siguiente teorema.
Teorema de Clasificaci´
on de Espacios Vectoriales
Todo espacio vectorial es isomorfo a un espacio de N-adas finitas.
Todo espacio vectorial de dimensi´on finita es isomorfo a Kn .
Secci´on 2.5
Clasificaci´on de espacios vectoriales
47
Campos de Galois
Una aplicaci´on sencilla del Teorema de Clasificaci´on de Espacios Vectoriales (2.21)
es la siguiente.
El n´
umero de elementos en un campo finito es potencia de un n´
umero primo.
Prueba. Sea K un campo. Ya vimos que siempre que se tenga un subcampo L de K
entonces, K es un espacio vectorial sobre L. Esto es en esencia porque podemos sumar
vectores (los elementos de K) y podemos multiplicar escalares (los elementos de L) por
vectores.
Si K es finito entonces su subcampo primo no puede ser Q. Esto quiere decir que K
contiene como subcampo a Zp . La dimensi´on de K sobre Zp tiene que ser finita ya que
si no, entonces K ser´ıa infinito. Luego existe un natural n tal que el espacio vectorial
K es isomorfo a Znp que tiene exactamente pn elementos.
Como pensar en espacios vectoriales
A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificaci´on
de Espacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se
debe pensar en R2 y R3 . La interpretaci´on geom´etrica de estos dos espacios como los
segmentos dirigidos con origen en el cero da una intuici´on saludable acerca de lo que
es cierto y lo que no.
En segundo lugar el lector debe pensar en el ejemplo Rn . Si el lector lo prefiere,
el n´
umero n puede ser un n´
umero fijo suficientemente grande digamos n = 11. Ya en
este caso, para entender es necesario usar varios m´etodos: las analog´ıas geom´etricas en
dimensiones peque˜
nas, el c´alculo algebraico con s´ımbolos y los razonamientos l´ogicos.
Casi todo lo que se puede demostrar para espacios vectoriales finito dimensionales se
demuestra en el caso particular de Rn con la misma complejidad. Las demostraciones de
muchos hechos v´alidos en Rn se copian tal cual para espacios vectoriales de dimensi´on
finita sobre cualquier campo.
En tercer lugar se debe pensar en Cn . El espacio vectorial Cn es extremadamente importante dentro de las matem´aticas y la f´ısica. Adem´as, el hecho de que C es
algebraicamente cerrado hace que para Cn algunos problemas sean m´as f´aciles que
en Rn . Hay una manera de pensar en Cn que ayuda un poco para tener intuici´on
geom´etrica. Como ya vimos {1, i} es una base de C como espacio vectorial sobre R. De
la misma manera Cn es un espacio vectorial sobre R de dimensi´on 2n o sea, hay una
biyecci´on natural entre Cn y R2n (la biyecci´on es (a1 + b1 i, a2 + b2 i, ..., an + bn i) 7→
(a1 , b1 , a2 , b2 , ..., an , bn )). Sin embargo esta biyecci´on no es un isomorfismo. Si E es un
subespacio de Cn sobre R entonces no necesariamente E es un subespacio de Cn sobre
C . Desde este punto de vista podemos pensar (no rigurosamente) a Cn como un R2n
en el que hay menos subespacios.
Cap´ıtulo 2. Espacios vectoriales
48
Los que se interesan en las ciencias de la computaci´on deben tambi´en pensar en Znp y
en general en cualquier Kn donde K es un campo finito. Las aplicaciones m´as relevantes
incluyen la codificaci´on de informaci´on con recuperaci´on de errores y la criptograf´ıa,
que es la ciencia de cifrar mensajes.
Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los
objetivos de este libro) entonces, lo m´as f´acil es pensar en Kn . Esto tiene una gran
ventaja en el sentido de que no hay que pensar en los detalles particulares que se
cumplen en uno u otro campo.
Sin embargo, en el caso infinito-dimensional la situaci´on es m´as fea. Nuestros teoremas afirman que hay un isomorfismo entre R como espacio vectorial sobre Q y R{Q} .
En otras palabras, existe un conjunto de n´
umeros reales (la base) tal que cualquier
n´
umero real se puede expresar de forma u
´nica como combinaci´on lineal finita de este
conjunto usando coeficientes racionales.
El problema es que nadie conoce (ni conocer´a nunca) una base de este espacio,
as´ı que realmente, estos teoremas no dicen mucho para espacios vectoriales de dimensi´on
mayor que el cardinal de los naturales ℵ0 .
Ejercicio 46 Sean x, y ∈ R y E = {ax + by | a, b ∈ Q}. ¿Es E un espacio vectorial
sobre Q? ¿Cual es su dimensi´on? ¿Es E un espacio vectorial sobre R? [189]
2.6
Suma de subespacios
En esta secci´on introduciremos las operaciones m´as b´asicas entre subespacios. Pero
antes, es saludable dar una interpretaci´on geom´etrica de los subespacios para que el
lector pueda comparar el caso general con el caso de los espacios R2 y R3 .
Subespacios de Rn
¿Cuales son todos los subespacios de Rn ? Del Teorema de Clasificaci´on de Espacios
Vectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ {0, 1, . . . , n}
seg´
un sea su dimensi´on. Si i = 0 entonces todo el subespacio es el vector 0 (el origen
de coordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego,
los casos interesantes son los que 0 < i < n.
Si i = 1 entonces, el subespacio es isomorfo a R y tiene que tener una base de un
vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos que hai
es la recta que pasa por el origen y por el punto a que es el final del vector a. Luego,
los subespacios de dimensi´on 1 de Rn son las rectas que pasan por el origen.
Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una
base {a, b} de dos vectores. La base {a, b} tiene que ser LI y en este caso eso quiere
decir que b no es un m´
ultiplo escalar de a. En otras palabras, los puntos finales de
Secci´on 2.6
Suma de subespacios
49
los vectores a, b y el origen de coordenadas no est´an alineados. En este caso hay un
u
´nico plano (R2 ) que pasa por estos tres puntos y tambi´en ya vimos que este plano es
ha, bi. Luego, los subespacios de dimensi´on 2 de Rn son los planos por el origen. Para
R3 este an´alisis termina con todas las posibilidades: sus subespacios son: el origen, las
rectas por el origen, los planos por el origen y todo el espacio.
Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos
acaba la intuici´on y la terminolog´ıa geom´etrica. Por esto, pasemos al caso general. Un
subespacio de dimensi´on i en Rn esta generado por una base {a1 , . . . , ai } de i vectores
LI. Que sean LI lo que quiere decir es que sus puntos y el origen no est´an contenidos
en un subespacio de dimensi´on menor que i. Si este es el caso entonces hay un u
´nico
i
R que contiene a todos estos puntos y este es el subespacio ha1 , . . . , ai i.
Suma de conjuntos y subespacios
Sean E y F dos subespacios sobre un campo K. En la proposici´on 2.3 vimos que
E ∩ F es un subespacio. Por definici´on de intersecci´on E ∩ F es el subespacio m´as
grande contenido en E y en F. Ya observamos adem´as que E ∪ F no es un subespacio.
Sin embargo, hay un subespacio que es el m´as peque˜
no que contiene a los dos y este
es hE ∪ Fi. El subespacio hE ∪ Fi tiene una estructura muy simple:
hE ∪ Fi = {a + b | a ∈ E, b ∈ F}
X
Prueba. Todo vector a + b es una combinaci´on lineal de E ∪ F. X
αx x +
βy y
Rec´ıprocamente, toda combinaci´on lineal de E∪F se puede escrix∈E
y∈F
bir como en el recuadro. Como E y F son subespacios entonces,
el primer sumando est´a en E y el segundo sumando est´a en F. Esto quiere decir que
todo elemento de hE ∪ Fi es de la forma a + b con a en E y b en F.
Dados dos conjuntos cualesquiera de vectores A y
B definimos la suma de estos como en el recuadro
a la izquierda. Despu´es de esta definici´on el resultado 2.23 se puede reformular como
hE ∪ Fi = E + F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los
subespacios E y F y desde ahora se le denotar´a por E + F.
A + B = {a + b | a ∈ A, b ∈ B}
La igualdad modular
Sean E y F dos subespacios. Ahora trataremos de calcular la dimensi´on de E + F.
Para esto necesitaremos primero encontrar bases de E ∩ F y E + F.
Existen E una base de E y F una base de F tales que
E ∩ F es base de E ∩ F y E ∪ F es base de E + F.
Prueba. Sea N una base de E ∩ F . Como N es LI y est´a contenida en E entonces,
Cap´ıtulo 2. Espacios vectoriales
50
por el Teorema de Existencia de Bases (2.14) existe una base E de E que contiene a N.
An´alogamente, existe una base F de F que contiene a N.
Demostremos primero que E∩F = N. Efectivamente, por la forma en que contruimos
E y F tenemos N ⊆ E ∩ F. Para la prueba de la otra inclusi´on sea a ∈ E ∩ F. Como
N ∪ a ⊆ E entonces, tenemos que N ∪ a es LI. Como N es base de E ∩ F y las bases
son los conjuntos LI m´as grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N.
Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquier
a + b ∈ E + F es combinaci´on lineal de E ∪ F por lo que E ∪ F es generador de E + F.
Necesitamos probar que EX
∪ F es LI. Para
X esto supongamos
X
Xque
0=
αi i =
αi i+
αi i+
αi i
i∈E∪F
i∈E\N
i∈N
i∈F\N
y demostremos que todos los αi son cero. Sean x, y, z el primer, segundo y tercer
sumando respectivamente en la igualdad anterior. Por construcci´on, tenemos x ∈ E,
y ∈ E ∩ F y z ∈ F. Adem´as, como z = − (y + x) y E es un subespacio, obtenemos
z∈E
P∩ F. Como N es una base de E ∩ F el vector z es combinaci´on lineal de N, o sea
z = i∈N λi i para ciertos coeficientes λi . De aqu´ı obtenemos que
X
X
0=x+y+z=
αi i+
(αi + λi ) i
i∈E\N
i∈N
Como E es LI, todos los coeficientes de esta combinaci´on lineal son cero. En particular,
αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos
X
X
0=y+z=
αi i+
αi i
i∈N
i∈F\N
y como F es LI deducimos que los restantes coeficientes tambi´en son cero.
Igualdad modular
Si E y F son dos subespacios entonces,
dim E + dim F = dim (E + F) + dim (E ∩ F).
Prueba. Por 2.24 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ F
es base de E ∩ F. Luego, la f´ormula se reduce a la conocida igualdad entre cardinales
de conjuntos |E| + |F| = |E ∪ F| + |E ∩ F|.
Ejercicio 47 Construya ejemplos de subespacios reales E y F tales que ellos y E + F tienen
las dimensiones definidas en la tabla del recuadro a la derecha. ¿Puede tener E + F dimensi´on
diferente a las de la tabla?
E
1
1
1
F
1
1
2
(E + F)
1
2
2
E
1
2
2
F
2
2
2
(E + F)
3
3
4
Secci´on 2.6
Suma de subespacios
51
Suma directa
Para dos espacios vectoriales E y F (no necesariamente contenidos en otro espacio) sobre un mismo campo K definiremos la suma directa de ellos como el espacio
vectorial
¡ E ⊕ F¢ = ¡{(a, b) | a ∈ E,¢b ∈ F}
(a, b) + a0 , b0 = a + a0 , b + b0
λ (a, b) = (λa, λb)
Observese que como conjunto la suma directa es el producto cartesiano de conjuntos.
La diferencia est´a en que la suma directa ya trae en su definici´on las operaciones de
suma de vectores y multiplicaci´on por un escalar. Deber´ıamos probar que la suma
directa es efectivamente un espacio vectorial, o sea que cumplen todos los axiomas.
Nosotros omitiremos esta prueba por ser trivial y aburrida. Mejor nos concentraremos
en algo m´as interesante.
dim (E ⊕ F) = dim E + dim F.
Prueba. Sea E0 = {(a, 0) | a ∈ E} y F0 = {(0, b) | b ∈ F}. Es claro que los espacios E
y E0 son isomorfos y por lo tanto tienen la misma dimensi´on. Otro tanto ocurre con
F y F0 . Por definici´on de suma de subespacios tenemos que E0 + F0 = E ⊕ F . De la
Igualdad modular (2.25) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 − dim (E0 ∩ F0 ) =
dim E + dim F.
Isomorfismo can´
onico entre la suma y la suma directa.
De esta u
´ltima proposici´on y de la igualdad modular se deduce que si dos subespacios E y F son tales que E ∩ F = {0} entonces dim (E ⊕ F) = dim (E + F) o sea E ⊕ F es
isomorfo a E + F. A continuaci´on probaremos solo un poquito m´as. Sin embargo, este
poquito nos llevar´a a profundas reflexiones.
Isomorfismo Can´
onico entre la Suma y la Suma directa
Si E y F son subespacios tales que E ∩ F = {0} entonces la funci´on
E ⊕ F 3 (a, b) 7→ a + b ∈ E + F
es un isomorfismo de espacios vectoriales.
Prueba. Sea f la funci´on definida en el enunciado. Tenemos
f (λ (a, b)) = f (λa, λb) = λa + λb = λ (a + b) = λf (a, b)
f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y)
por lo que solo queda demostrar que f es biyectiva. Por definici´on de suma de subespacios f es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y)
52
Cap´ıtulo 2. Espacios vectoriales
entonces, a − x = y − b. Como a, x ∈ E entonces a − x ∈ E. Como b, y ∈ F entonces
y − b ∈ F. Luego a − x = y − b ∈ E ∩ F = {0} por lo que a = x y b = y.
Observemos que el isomorfismo (a, b) 7→ a + b no depende de escoger base alguna en E ⊕ F. Todos los isomorfismos que construimos antes de esta proposici´on se
construyeron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no
dependen de escoger alguna base juegan un papel importante en el a´lgebra lineal y se les
llama isomorfismos can´
onicos. Decimos que dos espacios vectoriales son can´
onicamente isomorfos si existe un isomorfismo can´onico entre ellos. As´ı por ejemplo todo
espacio vectorial E de dimensi´on 3 es isomorfo a K3 pero no es can´onicamente isomorfo
a K3 porque no se puede construir de cualquier espacio vectorial de dimensi´on 3 un
isomorfismo con K3 que no dependa de escoger alguna base. Cuando veamos los productos escalares veremos que hay fuertes razones para que diferenciemos las bases. Los
isomorfismos no can´onicos no necesariamente preservan una u otra propiedad de las
bases. Por otro lado, los isomorfismos can´onicos si las preservan. Si por un lado, debe
haber cierta resistencia a considerar iguales a dos espacios vectoriales isomorfos por el
otro, los espacios can´onicamente isomorfos no se diferencian en nada uno del otro, por
lo que se puede pensar que es el mismo espacio.
Ejercicio 481. Demuestre que E ⊕ F y F ⊕ E son can´onicamente isomorfos.
2. ¿Como se debe llamar esta propiedad de la suma directa de espacios?
3. Demuestre que la suma directa de espacios es asociativa.
4. ¿Tiene la suma directa elemento neutro? [189]
Subespacios complementarios
Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio
F es complementario de E en S si S = E ⊕ F. Esta igualdad por el Isomorfismo
Can´onico entre la Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F
y E ∩ F = {0}. En R2 dos rectas por el origen diferentes son complementarias una a
otra. En R3 un plano y una recta no contenida en el plano (ambos por el origen) son
complementarios uno a otro.
Todo subespacio tiene complementario.
Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia
de Bases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por
B = C\A. Como C es generador de S, todo elemento en S es combinaci´on lineal de C
y en particular todo elemento de S se expresa como a + b con a ∈ E y b ∈ F. Luego
S = E + F.
Secci´on 2.6
Suma de subespacios
53
Por otro lado,
à si x ∈ E ∩ F entonces,!existen
à combinaciones lineales
! tales que
X
X
X
X
x=
αa a =
αa a ⇒
αa a −
αa a = 0 .
a∈A
a∈B
a∈A
a∈B
Como C es LI entonces, por la caracterizaci´on 2.9.4 de los conjuntos LI la u
´ltima
combinaci´on lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = {0}.
Si E y F son dos subespacios complementarios entonces cada vector x
se expresa de forma u
´nica como x = a + b donde a ∈ E y b ∈ F.
Prueba. Si E y F son complementarios entonces E+F es todo el espacio y por lo tanto
todo vector es de la forma a+b. Si a+b = a0 +b0 entonces a−a0 = b0 −b ∈ E∩F = {0}
por lo que la descomposici´on x = a + b es u
´nica.
Ejercicio 49 Demuestre el rec´ıproco de 2.29: Si cada vector se expresa de forma u´nica
como x = a + b con a ∈ E y b ∈ F entonces, E y F son complementarios. [189]
Ejercicio 50 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E
se expresa de forma u
´nica como x = x1 + · · · + xn con xi ∈ Ei . Sugerencia: Usar 2.29,
el ejercicio anterior y la asociatividad de la suma directa para aplicar inducci´on en el
n´
umero de sumandos n.
Espacios vectoriales versus conjuntos
Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teor´ıa
de Conjuntos y siempre es saludable establecer analog´ıas con resultados ya conocidos.
Para acentuar m´as esta similitud hagamos un diccionario de traducci´on
Conjunto
←→ Espacio vectorial
Subconjunto
←→ Subespacio vectorial
Cardinal
←→ Dimensi´on
Intersecci´on de subconjuntos ←→ Intersecci´on de subespacios
Uni´on de subconjuntos
←→ Suma de subespacios
Uni´on disjunta
←→ Suma directa
Complemento
←→ Subespacio complementario
Biyecciones
←→ Isomorfismos
Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espacios vectoriales tienen su contraparte v´alida para conjuntos usando el diccionario que
hemos construido. Probablemente, el ejemplo m´as notable de esto son las igualdades
modulares para conjuntos y para espacios vectoriales.
Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos
a los espacios vectoriales. Por ejemplo, el complemento de un subconjunto es u
´nico
y no siempre hay un u
´nico subespacio complementario. Otro ejemplo, un poco m´as
Cap´ıtulo 2. Espacios vectoriales
54
substancial, es que la intersecci´on de conjuntos distribuye con la uni´on o sea A ∩
(B ∪ C) = (A ∩ B) ∪ (A ∩ C) . Por otro lado la intersecci´on de subespacios en general
no distribuye con la suma o sea, la igualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siempre
es verdadera. Para ver esto t´omese en R3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B =
h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos A∩(B + C) = h(1, 1, 0)i y (A ∩ B)+(A ∩ C) =
{(0, 0, 0)} y vemos que son distintos.
Ejercicio 51 Si A y B son dos conjuntos entonces la diferencia sim´etrica de los mismos
es el conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los subconjuntos
finitos de un conjunto cualquiera U forman un espacio vectorial de dimensi´on |U| sobre
el campo Z2 para la suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos
de nuestro diccionario de traducci´on se aplican a este caso en forma directa.
2.7
Espacios cocientes
Ya vimos que para un subespacio E del espacio F, siempre existen subespacios complementarios a ´el. Sin embargo hay muchos subespacios complementarios y no hay una
manera can´onica de escoger alguno de ellos. En esta secci´on nos dedicaremos a construir can´onicamente el espacio cociente F/E que es el espacio de todos los subespacios
afines paralelos a E y que es isomorfo a cualquier subespacio complementario de E.
Subespacios afines
Ya vimos que en el plano cartesiano R2 los subespacios son el
origen {0}, todo R2 y las rectas por el origen. Sin embargo, hay otras
2
`0 R
rectas en el plano que no pasan por el origen. Para obtener una de
estas rectas lo que tenemos que hacer es trasladar una recta por el
x
`
origen ` mediante un vector x (v´ease la figura). De esta manera,
0
obtenemos la recta ` que se obtiene sumandole x a cada vector en
la recta `. Observese que si x 6= 0 entonces ` y `0 no se intersectan.
Esto nos motiva a la siguiente definici´on. Sea A un conjunto de vectores en un espacio vectorial (¡sobre cualquier campo!) y x un vector. Al conjunto A+x = {a + x | a ∈ A}
se le llama la traslaci´
on de A con el vector x. Observese que la operaci´on de trasladar
es un caso particular (cuando uno de los sumandos contiene a un solo vector) de la
operaci´on de suma de conjuntos de vectores introducida en la secci´on anterior.
Un subespacio af´ın es el trasladado de un subespacio. En otras palabras, un
conjunto de vectores E es un subespacio af´ın si existen un subespacio E y un vector
x tales que E = E + x. Observese que los subespacios son tambi´en subespacios afines.
Basta trasladar con el vector cero. Esto causa una confusi´on lingu´ıstica: el adjetivo
“af´ın” se usa para hacer el concepto de “subespacio” m´as general, no m´as espec´ıfico.
Secci´on 2.7
Espacios cocientes
55
Por esto, cuando se habla de subespacios afines es com´
un referirse a los subespacios
como subespacios vectoriales o como subespacios por el origen.
Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fundamental: que es posible trasladar el subespacio vectorial con diferentes vectores y
obtener el mismo subespacio af´ın. M´as precisamente:
Si a ∈ E + x entonces, E + x = E + a.
x
E+x=E+a
a
0
E
Prueba. Probemos primero el caso que x = 0. Como a ∈ E y E es un subespacio,
tenemos y ∈ E ⇔ y − a ∈ E ⇔ y ∈ E + a. Ahora por el caso general. Sabemos que,
z = a − x ∈ E y del primer caso, E = E + z. Luego, E + x = E + z + x = E + a.
Ejercicio 52 Pruebe el rec´ıproco de 2.30: Si E + x = E + a entonces a ∈ E + x.
Ahora observemos, que un trasladado de un subespacio af´ın es a su vez un subespacio af´ın ya que (E + x)+y = E+(x + y). Dos subespacios afines se le llaman paralelos
si uno es un trasladado del otro. La relaci´on de paralelismo entre subespacios afines
es de equivalencia ya que si E = F + x y G = E + y entonces, G = F + (x + y). Esto
significa que el conjunto de los subespacios afines se parte en clases de paralelismo
y dos subespacios son paralelos si y solo si est´an en la misma clase de paralelismo.
Ahora veremos que en cada clase de paralelismo hay un solo subespacio af´ın que
pasa por el origen.
Todo subespacio af´ın es paralelo a un solo subespacio vectorial.
Prueba. Si E + x = F + y entonces, E = F + y − x. Como F + y − x contiene al cero
entonces, x−y ∈ F. Como F es un subespacio, y−x ∈ F y 2.30 nos da F = F+y−x.
Este resultado nos permite definir la dimensi´on de un subespacio af´ın. Cada uno
de ellos es paralelo a un u
´nico subespacio y su dimensi´
on es la dimensi´on de ese
subespacio. En otras palabras, si E = E + x entonces dim E = dim E. Es com´
un utilizar
la terminolog´ıa geom´etrica para hablar de los subespacios afines de dimensi´on peque˜
na.
As´ı, un punto es un subespacio af´ın de dimensi´on cero, una recta es un subespacio
af´ın de dimensi´on uno, un plano es un subespacio af´ın de dimensi´on dos.
Dos subespacios afines paralelos o son el mismo o no se intersectan.
Prueba. Si y ∈ (E + x) ∩ (E + x0 ) entonces, por 2.30, E + x = E + y = E + x0 .
Cap´ıtulo 2. Espacios vectoriales
56
Es un error com´
un (debido al caso de rectas R2 ) pensar que es equivalente
que dos subespacios afines sean paralelos a que estos no se intersecten. Para
convencerse de que esto no es cierto, el lector debe pensar en dos rectas no
coplanares en R3 .
El espacio cociente
Sea D un espacio vectorial y E un subespacio vectorial de D.
x + x0
Si E = E + x y F = E + y son dos subespacios afines paralelos R2
x
entonces E + F = (E + x) + (E + y) = (E + E) + (x + y) =
x0
E + (x + y) lo que muestra que E + F est´a en la misma clase de
y0
y + y0
paralelismo que E y F. En otras palabras (v´ease la figura a la
0 y
derecha) la suma de cualquier vector en E con cualquier otro en
F est´a en un mismo espacio paralelo a E y F.
Denotemos por D/E al conjunto de todos los subespacios afines de D paralelos
a E. La observaci´on anterior nos dice que la suma de subespacios afines es una
operaci´on en D/E. Esta suma es asociativa y conmutativa debido a que la suma de
vectores cumple estas propiedades. El subespacio E es el neutro para esta operaci´on y
el opuesto de E + x es E − x. Luego, D/E es un grupo abeliano para la suma y para
convertirlo en un espacio vectorial solo nos falta el producto por escalares..
Sea A un conjunto arbitrario de vectores y λ un escalar. DefiniλA = {λa | a ∈ A}
remos al conjunto λA como en el recuadro a la izquierda.
Sean E = E+x un subespacio af´ın paralelo a E y λ un escalar. Tenemos
2
2x
λE = λ (E + x) = λE + λx = E + λx lo que muestra que λE est´a en la R x
misma clase de paralelismo que E. En otras palabras (v´ease la figura a la
2y
derecha) el producto de un escalar por todos los vectores en E resulta en 0 y
espacio paralelo a E. Este producto convierte a D/E en un espacio vectorial llamado
espacio cociente de D por E.
Ejercicio 53 Pruebe los axiomas de espacio vectorial para el espacio cociente.
Ejercicio 54 ¿Cual es el espacio cociente de R3 por el plano xy?
Ejercicio 55 ¿Que pasa si sumamos dos espacios afines no paralelos? [190]
El isomorfismo con los complementarios
Sea F un subespacio complementario a E.
Entonces, cualquier subespacio af´ın paralelo
a E intersecta a F en un y solo un vector.
R2
F
E
Prueba. Sea E = E + x cualquier subespacio af´ın paralelo a E. Como D = E ⊕ F
Secci´on 2.8
El espacio af´ın
57
existen unos u
´nicos vectores y ∈ E y z ∈ F tales que x = y + z. Luego por 2.30
E + x = E + y + z = E + z y por lo tanto z ∈ E + x o sea, z ∈ E ∩ F. Si z0 es otro
vector en E ∩ F entonces, existe a ∈ E tal que z0 = a + x. De aqu´ı x = −a + z0 y
por la unicidad de la descomposici´on de un vector en suma de vectores de espacios
complementarios, y = −a y z = z0 .
Sea F un subespacio complementario a E. Entonces,
f : F 3 x 7→ (E + x) ∈ D/E
es un isomorfismo de espacios vectoriales.
Prueba. Por 2.33 la aplicaci´on f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cada
E+x ∈ D/E le hace corresponder el u
´nico vector en (E + x)∩F). Luego, f es biyectiva.
Adem´as,
f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y)
f (λx) = E + (λx) = λ (E + x) = λf (x)
por lo que f es un isomorfismo.
Este isomorfismo es can´onico. Luego, cualquier subespacio complementario a E es
can´onicamente isomorfo a D/E. Esta proposici´on tambi´en nos dice que la dimensi´on
de D/E es la misma que la de un complementario a E o sea, es dim D − dim E.
Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el a´lgebra
lineal sin la introducci´
on de los espacios cocientes. Si embargo, es m´
as c´
omodo hacerlo
con ellos. Adem´
as es importante que el lector se familiarize con el concepto, ya que, en el
estudio de estructuras algebraicas m´as generales, no siempre existen estructuras “complementarias”
(por ejemplo en la teor´ıa de grupos). Por otro lado, las estructuras cocientes si se pueden construir.
Por ejemplo, todo grupo tiene un cociente por cualquier subgrupo normal.
2.8
El espacio af´ın
Recordemos de la secci´on anterior que un subespacio af´ın del espacio vectorial F
es el trasladado E + x de un subespacio vectorial E de F. La dimensi´
on de E + x es
por definici´on la dimensi´on de E.
Los subespacios afines de dimensi´on peque˜
na reciben nombres especiales seg´
un la
tradici´on geom´etrica. Los de dimensi´on 0 se le llaman puntos. Los de dimensi´on 1 se
le llaman rectas y los de dimensi´on 2 se le llaman planos.
Un punto es, en otras palabras, un subespacio af´ın E + x donde E es de dimensi´on
cero. Pero el u
´nico subespacio vectorial de dimensi´on cero es {0} . Luego, un punto es
un conjunto de la forma {0} + x = {x}. Esto nos da una biyecci´on obvia {x} 7→ x entre
los puntos del espacio af´ın y los vectores del espacio vectorial.
Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio af´ın
de F. Pero como, dir´a el lector, si la diferencia entre {x} y x es puramente formal
entonces, ¿cual es la diferencia entre el espacio af´ın y el espacio vectorial? La respuesta
Cap´ıtulo 2. Espacios vectoriales
58
es ambivalente pues es la misma pregunta que ¿que diferencia hay entre geometr´ıa y
´algebra? Antes de Descartes eran dos cosas completamente distintas, despues de ´el, son
cosas muy parecidas.
Intuitivamente, un espacio af´ın es lo mismo que el espacio vectorial pero sin origen.
El espacio afin de R2 es el plano de Euclides en el que estudiamos la geometr´ıa m´as
cl´asica y elemental: congruencia de tri´angulos, teorema de Pit´agoras, etc. Los resultados
de esta geometr´ıa no dependen de cual es el origen de coordenadas. Dos tri´angulos son
congruentes o no independientemente de en que lugar del plano se encuentran.
A un nivel m´as alto, podemos pensar el espacio af´ın de un espacio vectorial como una
estructura matem´atica adecuada para poder estudiar las propiedades de los espacios
vectoriales que son invariantes por traslaciones, o sea, que no cambian al mover un
objeto de un lugar a otro en el espacio.
La regla del paralelogramo
La conocida regla del paralelogramo para la suma de vectores en el plano R2 se
generaliza a todas las dimensiones y sobre cualquier campo.
Postularemos que el conjunto vac´ıo es un subespacio af´ın de dimensi´on −1. Eso nos
evitar´a muchos problemas en la formulaci´on de nuestros resultados.
La intersecci´on de subespacios afines es un subespacio af´ın.
Prueba. Sea x un punto en la intersecci´on. Cada uno de los subespacios afines, es
E + x para cierto subespacio E del espacio vectorial. Si F es la intersecci´on de todos
estos subespacios entonces F + x es la intersecci´on de los subespacios afines.
Regla del paralelogramo
Si a y b son vectores LI de un espacio vectorial entonces, a + b
es la intersecci´on de los subespacios afines hai + b y hbi + a.
Prueba. Obviamente a + b ∈ (hai + b) ∩ (hbi + a). Por otro lado, ambos hai + b y
hbi + a tienen dimensi´on 1 y por lo tanto su intersecci´on tiene dimensi´on 0 o 1. Si esta
dimensi´on es cero entonces terminamos. Si esta dimensi´on es uno entonces hai + b =
hbi + a y por lo tanto a ∈ hai + b. Por 2.30 tenemos que hai + b = hai + a = hai,
Por lo tanto b ∈ hai y esto contradice que {a, b} es LI.
Cerradura af´ın
Para un conjunto A de puntos en el espacio af´ın, la cerradura af´ın de A es la
intersecci´on de todos los subespacios afines que contienen a A. A la cerradura af´ın de
A la denotaremos por [A]. Esto la diferencia claramente de la cerradura lineal hAi.
Para la cerradura afin, tenemos las mismas propiedades que para la cerradura lineal.
Secci´on 2.8
El espacio af´ın
59
[A] es el subespacio afin m´as peque˜
no que contiene a A.
Prueba. [A] es un subespacio afin. Si B es un subespacio af´ın que contiene a A
entonces [A] ⊆ B pues para hallar [A] tuvimos que intersectar con B.
La cerradura af´ın cumple las siguientes propiedades:
1. A ⊆ [A] (incremento)
2. A ⊆ B ⇒ [A] ⊆ [B] (monoton´ıa)
3. [[A]] = [A] (idempotencia).
Prueba. Es exactamente la misma que para el caso de la cerradura lineal.
Generadores e independencia
Un conjunto de puntos A es generador af´ın si [A] es todo el espacio af´ın. Los
conjuntos afinmente independientes los definiremos con el siguiente resultado.
Definici´
on de conjuntos afinmente independientes
Sea A un conjunto de puntos. Las siguientes afirmaciones son equivalentes
1. Cualquier subconjunto propio de A genera un subespacio af´ın m´as peque˜
no que todo A.
2. Cualquier punto en A no est´a en la cerradura af´ın de los restantes.
Prueba. Es an´aloga a la prueba (1 ⇔ 2) de la caracterizaci´on de conjuntos LI.
Los conjuntos de puntos que no son afinmente independientes los llamaremos afinmente dependientes.
Nuevamente para evitarnos largas oraciones, a los conjuntos afinmente
independientes los llamaremos conjuntos AI y a los conjuntos afinmente
dependientes los llamaremos conjuntos AD.
Todo sobreconjunto de un generador afin es un generador afin.
Todo subconjunto de un conjunto AI es AI.
Prueba. Sea A un generador af´ın y B ⊇ A. Tenemos [A] ⊆ [B] y como [A] es todo el
espacio afin entonces [B] tambi´en lo es.
Sea A que es AI y B ⊆ A. Si B fuera AD entonces existir´ıa b ∈ B tal que b ∈
[B\b] ⊆ [A\b] y esto no puede ser pues A es AI.
Cap´ıtulo 2. Espacios vectoriales
60
Bases afines
Una base afin es un conjunto de puntos que es AI y generador afin. Ahora podriamos seguir por el mismo camino demostrando que las bases afines son los generadores
afines m´as peque˜
nos o los AI m´as grandes. Despues, el teorema de existencia de base,
el lema del cambio para las bases afines, la prueba de que dos bases afines tienen el
mismo cardinal, etc.
Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La primera es que a´
un no hemos definido combinaciones afines y estas se necesitan para
probar todo esto. La segunda, y m´as obvia, es que todo esto es muy largo. Por suerte,
hay una sencilla relaci´on que enlaza las bases afines con las bases del espacio vectorial
y esto nos ahorrar´a mucho trabajo.
Sea A = {x0 , x1, . . . , xn } un conjunto de puntos. Definamos A0 = {x1 − x0 , . . . , xn − x0 }. Entonces, A es una base af´ın si y solo si A0 es una base del espacio vectorial.
Prueba. Veamos que [A] = hA0 i + x0 . Efectivamente, hA0 i + x0 es un subespacio
af´ın que contiene a A y por lo tanto [A] ⊆ hA0 i + x0 . Por otro lado [A] − x0 es un
subespacio por el origen que contiene a A0 y por lo tanto [A] − x0 ⊇ hA0 i.
De aqu´ı inmediatamente obtenemos que A es generador af´ın si y solo si A0 es un
generador. Luego, podemos suponer por el resto de la prueba que tanto A como A0
son generadores. Nos queda probar que A es AI si y solo si A0 es LI.
Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 ⊂ A0 . Como al
principio de la prueba B = {x0 } ∪ (B0 + x0 ) es un generador af´ın del espacio. Como
B0 6= A0 entonces, B 6= A y por lo tanto A es AD.
Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que genera
al espacio. Sea y ∈ B Como al principio de la prueba B0 = {xi − y | xi ∈ B \ {y}} es
un generador lineal del espacio. Luego la dimensi´on del espacio es estrictamente menor
que n y por lo tanto A0 no puede ser LI.
Ahora podemos traspasar todos los resultados probados para las bases del espacio
vectorial a las bases afines. En particular, es cierto que:
1. Las bases afines son los conjuntos generadores afines minimales por inclusi´on.
2. Las bases afines son los conjuntos AI maximales por inclusi´on.
3. Si A es un conjunto AI y B es un conjunto generador af´ın tal que A ⊆ B entonces
hay una base af´ın C tal que A ⊆ C ⊆ B.
4. Dos bases afines cualesquiera tienen el mismo n´
umero de puntos (uno m´as que
la dimensi´on).
Las demostraciones de estos resultados son obvias dada la correspondencia entre
las bases afines y las bases del espacio vectorial.
Secci´on 2.9
El caso de dimensi´on infinita
61
Ejercicio 56 Formule el lema del cambio para las bases afines.
El siguiente resultado es el an´alogo del lema Lema de Aumento de un Conjunto LI
(2.11) para el caso af´ın y es consecuencia directa de la correspondencia entre las bases
afines y las bases del espacio vectorial.
Si A es un conjunto AI entonces A ∪ b es AD si y solo si b ∈ [A].
2.9
El caso de dimensi´
on infinita
En la Secci´on 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicardinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio
tiene dimensi´on finita. En esta secci´on demostramos estos resultados para los casos
faltantes. Porque siempre aparece un curioso que quiere saber.
Como estas demostraciones dependen de resultados de Teor´ıa de Conjuntos y una
exposici´on de esta nos llevar´ıa a escribir otro libro, lo haremos todo en forma minimalista: Antes de cada una de las dos pruebas daremos las definiciones y resultados
exclusivamente que necesitamos. Los resultados complicados de Teor´ıa de Conjuntos
no los demostraremos.
El Lema de Zorn
Un conjunto ordenado es un conjunto con una relaci´
on de orden, o sea una
relaci´on reflexiva antisim´etrica y transitiva (v´ease el glosario). Sea P un conjunto ordenado y A un subconjunto de P. Diremos que x ∈ P es una cota superior de A si
para cualquier y ∈ A se cumple que y ≤ x. Diremos que x ∈ A es elemento maximal
de A si para cualquier y ∈ A se cumple que x ­ y. Se dice que A es una cadena si
para cualesquiera x, y ∈ A se cumple que x ≤ y o que y ≤ x. Diremos que A esta
inductivamente ordenado si A 6= ∅ y cualquier cadena contenida en A tiene una
cota superior que est´a en A. El siguiente resultado es cl´asico en teor´ıa de conjuntos.
Lema de Zorn
Cualquier conjunto inductivamente ordenado tiene un elemento maximal.
Cap´ıtulo 2. Espacios vectoriales
62
Existencia de bases
Teorema de Existencia de Bases (caso general)
Sea N un conjunto generador y L ⊆ N un conjunto
LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.
Prueba. Sean L y N como en las hip´otesis. Denotemos
T = {M | M es linealmente independiente y L ⊆ M ⊆ N} .
El conjunto T est´a naturalmente ordenado por inclusi´on. Sea M un elemento maximal
de T. Entonces ∀x ∈ N\M M ∪ x es dependiente y por el Lema de Aumento de un
Conjunto LI (2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M
tambi´en lo es y por lo tanto M es una base.
Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto T
est´a inductivamente ordenado. Efectivamente,
S T es no vac´ıo ya que L ∈ T. Sea {Bi }i∈I
una cadena arbitraria en T y denotemos B = i∈I Bi . El conjunto B es una cota superior
de la cadena {Bi }i∈I y tenemos que convencernos que B est´a en T. Como para cualquier
i tenemos Bi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente.
Entonces, existe un subconjunto finito B0 de B y una combinaci´on lineal de B0 igual
a cero tal que todos sus coeficientes son no cero, o sea B0 es linealmente dependiente.
Como B0 es finito, y {Bi }i∈I es una cadena entonces, tiene que existir i0 tal que B0 ⊆ Bi0
y esto contradice que todo subconjunto de un conjunto linealmente independiente es
linealmente independiente. Luego, T est´a inductivamente ordenado y por el Lema de
Zorn (2.43) el conjunto T tiene un elemento maximal.
Cardinales
Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyecci´on de A en
B. La relaci´on A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relaci´on de equivalencia
entre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le
llama cardinal del conjunto A y se denota por |A|. Los cardinales est´an ordenados por
la relaci´on de orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El
cardinal infinito m´as peque˜
no es ℵ0 que es el cardinal de los naturales (ℵ es la primera
letra del alfabeto hebreo y se llama “´alef”). La suma de cardinales se define como el
cardinal de la uni´on de dos conjuntos disjuntos. El producto de cardinales se define
como el cardinal del producto cartesiano de conjuntos.
Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es
muy sencillo y daremos una demostraci´on para ´el.
Si ∀i |Ai | ≤ t entonces,
P
i∈I
|Ai | ≤ t |I|.
Secci´on 2.9
El caso de dimensi´on infinita
63
Prueba. Podemos pensar que los Ai son disjuntos. SeaST un conjunto de cardinal t.
Por hip´otesis existen inyecciones fi : Ai 7→ T . Sea ϕ : i∈I Ai → T × I definida por
ϕ (a) = (fi (a) , i) si a ∈ Ai . Por definici´on de ϕ si ϕ (a) = ϕ (b) entonces, a y b est´an
en el mismo conjunto Ai , fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva.
El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la
Teor´ıa de Conjuntos (v´ease por ejemplo: Kamke E., Theory of sets. Dover, New York,
1950. p´agina 121). Nosotros omitiremos la prueba.
Si |A| es infinito entonces, ℵ0 |A| = |A|.
Equicardinalidad de las bases
Equicardinalidad de las Bases (caso infinito)
Dos bases cualesquiera tienen el mismo cardinal.
Prueba. Sean A y B dos bases. Ya probamos el caso en que una de las dos bases es
finita. Luego, podemos suponer que A y B son infinitos. Como B es una base y debido
a la finitud de las combinaciones lineales entonces ∀a ∈ A el m´ınimo subconjunto
Ba ⊆ B tal que a ∈ hBa i existe y es finito.
Construyamos la relaci´on R ⊆ A × B de manera que (a, b) ∈ R si y solo si b ∈ Ba .
Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ning´
un elemento de
A entonces, A ⊆ hB\b0 i y como A es base obtendr´ıamos que B\b0 es generador lo que
contradice que B es base.
Por otro lado, como |A| es infinito y |Ba | es finito entonces, usando 2.45 y 2.46
obtenemos
X
|Ba | ≤ ℵ0 |A| = |A| .
|B| ≤ |R| =
a∈A
Luego |B| ≤ |A| y por simetr´ıa de nuestros razonamientos |A| ≤ |B|.
64
Capítulo tercero
Transformaciones
Lineales
as transformaciones lineales son uno de los objetos m´as estudiados y m´as importantes en las matem´aticas. El objetivo de este cap´ıtulo es familiarizar al lector
con el concepto de transformaci´on lineal y sus propiedades b´asicas. Introduciremos las matrices y estudiaremos la relaci´on de las mismas con las transformaciones
lineales. Veremos los conceptos de nucleo e imagen de una transformaci´on lineal y como
estos se usan para reducir el estudio de las transformaciones lineales al estudio de las
transformaciones lineales biyectivas.
3.1
Definici´
on y ejemplos
Sean E y F dos espacios vectoriales sobre K. Una funci´on f : E → F se le llama transformaci´
on lineal de E en f (a + b) = f (a) + f (b)
F si para cualesquiera vectores a y b y cualquier escalar λ f (λa) = λf (a)
se cumplen las propiedades del recuadro a la derecha.
Nuevamente, para no reescribir constantemente frases largas, en lugar de
decir que f es una transformaci´on lineal, diremos que f es una TL. En
plural escribiremos TLs.
Im´
agenes de subespacios
Toda TL transforma subespacios en subespacios.
Prueba. Sea f : E → F una TL y E0 un subespacio de E. Denotemos F0 = f (E0 ) la
imagen de E0 . Sean a y b vectores en F0 . Existen vectores x,y tales que f (x) = a y
f (y) = b. Tenemos, f (x + y) = a + b por lo que a + b ∈ F0 . Sea ahora λ un escalar.
Tenemos f (λx) = λa por lo que λa ∈ F0 . Luego, F0 es un subespacio de F.
Cap´ıtulo 3. Transformaciones lineales
66
Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni
tampoco conjuntos generadores en conjuntos generadores.
Homotecias
Veamos el ejemplo m´as simple de TL. Si a cada vector x de un espacio E le hacemos
corresponder el vector 2x obtenemos la funci´on h2 : E 3 x 7→ 2x ∈ E . Esta funci´on es
una TL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b)
h2 (λa) = 2λa = λ2a = λh2 (a)
Observese que en el segundo rengl´on se usa la conmutatividad del producto de escalares.
Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K
obteniendo la TL hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias.
Hay dos casos particulares de homotecias especialmente importantes. Si α = 1
entonces obtenemos la funci´on identidad x 7→ x. A esta funci´on se la denotar´a por I.
Si α = 0 entonces obtenemos la funci´
on nula x 7→ 0 que se denotar´a por O.
En el caso del campo R las homotecias tienen una interpretaci´on geom´etrica muy
clara. Si α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que est´a en
la misma recta por el origen que x pero a una distancia del origen α veces mayor que
x. Esto quiere decir que hα es la dilataci´
on de raz´on α. Si 0 < α < 1 entonces hα es
una contracci´
on de raz´on 1/α.
En la figura de la derecha observamos la dilataci´on x 7→ 2x en el
plano cartesiano R2 . La curva interior (que es la gr´afica de la funR2
ci´on 5 + sin 5θ en coordenadas polares) se transforma en la misma
curva pero del doble de tama˜
no (10 + 2 sin 5θ).
Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llama
funci´
on antipodal. El nombre viene de la siguiente interpretaci´on.
v 7→ 2v
Si trazamos una recta que pase por el centro de la Tierra intersectaremos la superficie en dos puntos. Estos puntos se dicen que son ant´ıpodas o sea,
nuestros ant´ıpodas son la personas que viven “pies arriba” del “otro lado” de la Tierra.
Si coordinatizamos la Tierra con unos ejes de coordenadas con origen en el centro de
la misma, nuestros ant´ıpodas se obtienen multiplicando por −1.
En la figura de la izquierda est´a representada la funci´on ant´ıpodal
2
en R2 . En ella hay dos curvas cerradas de cinco p´etalos. La primera
R
es la misma que la de la figura anterior (10 + 2 sin 5θ). La segunda
es la ant´ıpoda de la primera (−10 − 2 sin 5θ). La figura es expresamente complicada para que el lector tenga la oportunidad de pensar
un poco en que punto se va a transformar cada punto. Cualquier
v 7→ −v homotecia hα con α < 0 se puede representar como h−1 (h−α ) por
lo que hα se puede interpretar como una dilataci´on seguida de la funci´on ant´ıpodal. A
pesar de su simplicidad las homotecias juegan un papel fundamental en la comprensi´on
de las TL y este papel se debe a que ellas son todas las TL en dimensi´on 1.
Secci´on 3.1
Definici´on y ejemplos
67
Si dim E = 1 entonces toda TL de E en E es una homotecia.
Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene
que existir un escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en
E . Como f es lineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que
demuestra que f es una homotecia.
Inmersiones
Hasta ahora las TL que hemos visto (las homotecias) est´an definidas de un espacio
en si mismo. Las inmersiones son la TL m´as simples que est´an definidas de un espacio
en otro distinto. Sea E un subespacio de F. A la funci´on i : E 3 x 7→ x ∈ F se le
llama inmersi´
on de E en F. Las inmersiones son TLs inyectivas y son las restriciones
a subespacios de la funci´on identidad. No hay mucho que decir de las inmersiones
excepto de que hay una para cada subespacio.
Proyecciones
Ahora supongamos al rev´es (de las inmersiones) que F es subespacio de E . ¿Habr´a alguna TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G
complementario de F (existe por 2.28) De esta manera E = F ⊕ G y por 2.29 tenemos
que cada vector x ∈ E se descompone de manera u
´nica como a + b donde a es un
vector en F y b es un vector en G . As´ı para cada x ∈ E tenemos un u
´nico a ∈ F y
esto nos da una funci´on que denotaremos por πF y la llamaremos proyecci´
on de E en
F a lo largo de G . Cualquier proyecci´on πF restringida a F es la identidad por lo que
necesariamente es sobreyectiva.
La notaci´on πF sugiere erroneamente que esta funci´on solo depende del subespacio F . Esto no es cierto, cualquier subespacio F tiene muchos subespacios
complementarios diferentes y la proyecci´on depende del subespacio complementario que escojamos.
Las proyecciones son transformaciones lineales.
Prueba. Escojamos un subespacio G complementario de F . De esta manera πF es
una funci´on fija y bien definida.
Si x, y son dos vectores entonces hay descomposiciones u
´nicas x = πF (x) + πG (x)
y y = πF (y) + πG (y) . Luego x + y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . El
primer sumando de la derecha est´a en F y el segundo en G . Por la unicidad de la
descomposici´on necesariamente tenemos πF (x + y) = πF (x) + πF (y) .
Sea ahora λ ∈ K. Tenemos λx = λπF (x)+λπG (x) . Nuevamente, el primer sumando
de la derecha est´a en F y el segundo en G y por la unicidad de la descomposici´on
necesariamente tenemos πF (λx) = λπF (x) .
Cap´ıtulo 3. Transformaciones lineales
68
¿Como son geom´etricamente las proyecciones? En esencia el problema es el siguiente. Dados dos espacios complementarios F , G y un vector a como hallar un vector en
F y otro en G que sumados den a. Esto ya lo hicimos una vez cuando introducimos
las coordenadas cartesianas en R2 . Dado un vector a trazamos la recta paralela al eje
y que pasa por a y la intersecci´on del eje x con esta recta es un vector πx (a) . De
manera an´aloga obtenemos πy (a) y sabemos que a = πx (a) + πy (a).
En el caso general es exactamente igual. Esta construcci´on se ilustra en la figura de la derecha. Tenemos
que F es un subespacio de dimensi´on k y uno de sus
complementarios G es de dimensi´on n − k. Hay un solo
subespacio af´ın paralelo a F que pasa por a y este es
F + a. La intersecci´on (F + a) ∩ G es un solo punto y
este punto es el vector πG (a) . An´alogamente se observa
que πF (a) = (G + a) ∩ F. Como es l´ogico, no pudimos
dibujar el espacio Rn as´ı que el lector deber´a contentarse
con el caso n = 3, k = 2 y con la prueba general.
Si F y G son complementarios entonces, para cualquier
vector a se cumple a = ((G + a) ∩ F) + ((F + a) ∩ G).
Prueba. Como F y G son complementarios (G + a) ∩ F es un solo punto que denotaremos x. Sea y ∈ G tal que a = x + y. Tenemos que F + a = F + x + y = F + y y
por lo tanto y ∈ (F + a) . Luego y = (F + a) ∩ G.
3.2
Operaciones entre transformaciones lineales
Ahora, veremos que operaciones se definen naturalmente entre las TLs.
El espacio vectorial de las transformaciones lineales
Sea f una TL y λ un escalar. Denotaremos por λf a la funci´on a 7→ λf (a). A esta
operaci´on se le llama producto de un escalar por una TL.
El producto de un escalar por una TL es una TL.
Prueba. Efectivamente, tenemos
(λf) (a + b) = λf (a + b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b)
(λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a)
lo que significa que λf es una TL.
Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funci´on
Secci´on 3.2
Operaciones entre transformaciones lineales
69
a 7→ f (a) + g (a). A esta operaci´on se le llama suma de TLs.
La suma de dos TLs es una TL.
Prueba. Denotemos h = f + g. Tenemos
h (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a)
h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b)
lo que significa que h es una TL.
Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Los
axiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones. Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la suma es la siguiente: (λ (f + g)) (a) = λ (f (a) + g (a)) = λf (a) + λg (a) =
(λf + λg) (a). Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos por Mor (E, F). Esta notaci´on es debido que a las transformaciones lineales
tambi´en se les llama morfismos de espacios vectoriales. Debido a todo lo dicho es
v´alido el siguiente resultado:
Mor (E, F) es un espacio vectorial.
Composici´
on de transformaciones lineales
Sean f ∈ Mor (E, F) y g ∈ Mor (F, G) dos TLs. La composici´on h = g ◦ f se define
como la funci´on E 3 a 7→ g (f (a)) ∈ G. Demostremos que h = g ◦ f ∈ Mor (E, G) o
sea, que h es una TL.
La composici´on de TLs es una TL.
Prueba. Sea h = g ◦ f la composici´on de dos TLs. Tenemos
h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b)
h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a)
que es lo que se quer´ıa demostrar.
La composici´on de TLs cumple las siguientes propiedades:
1. f ◦ (g ◦ h) = (f ◦ g) ◦ h
(asociatividad)
2. f ◦ (g + h) = f ◦ g + f ◦ h
(distributividad a la izquierda)
3. (f + g) ◦ h = f ◦ h + g ◦ h
(distributividad a la derecha)
4. f ◦ λg = λf ◦ g = λ (f ◦ g) (conmuta con el producto por escalares)
70
Cap´ıtulo 3. Transformaciones lineales
Prueba. Ya vimos en el Cap´ıtulo 1 que la composici´on es asociativa. Con
(f ◦ (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) =
= f (g (a)) + f (h (a)) = (f ◦ g) (a) + (f ◦ h) (a) = ((f ◦ g) + (f ◦ h)) (a)
probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos
((f + g) ◦ h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) =
= (f ◦ h) (a) + (g ◦ h) (a) = ((f ◦ h) + (g ◦ h)) (a)
Finalmente, probamos que la composici´on conmuta con el producto por escalares con
(f ◦ λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f ◦ g)) (a) =
= λf (g (a)) = (λf) (g (a)) = (λf ◦ g) (a) .
El lector debe ya debe poder encontrar por si mismo el porqu´e de la validez de cada
una de las igualdades utilizadas en esta prueba.
El ´
algebra de operadores lineales
A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente, usaremos la abreviatura OL para referirnos a los operadores lineales. Los
OLs juegan (como veremos m´as adelante) un papel muy importante en el estudio de
las TLs y por esto es que merecen un nombre especial. El conjunto de todos los OLs
de E se denotar´a por End E. Lo hacemos as´ı porque a los OLs tambi´en se les llama
endomorfismos de un espacio vectorial. Por definici´on tenemos End E = Mor (E, E).
La principal diferencia entre las TLs y los OLs es que la operaci´on de composici´on
es una operaci´on interna en espacio vectorial End E. O sea, si componemos dos OLs,
obtenemos otro OL.
Si un espacio vectorial cualquiera (el cual ya trae definidos la su- Alg1) ∗ es asociativa
ma y el producto por escalares) tiene Alg2) ∗ es distributiva con respecto a +
otra operaci´on binaria ∗ que cumple Alg3) ∗ tiene elemento neutro
los axiomas en el recuadro a la de- Alg4) ∗ conmuta con el producto por escalares
recha entonces, se le llama ´
algebra . Observese que los primeros tres axiomas los
podemos resumir en uno: la suma de vectores y ∗ definen un anillo en el espacio vectorial. El cuarto axioma lo que quiere decir es que para cualquier escalar λ y cualesquiera
vectores a y b se cumple que λa ∗ b = a ∗ λb = λ (a ∗ b).
Ya vimos (3.9 ) que la operaci´on de composici´on de OLs cumple los axiomas Alg1,
Alg2 y Alg4. Para ver que End E es un ´algebra solo nos queda comprobar que la
composici´on tiene elemento neutro. Pero esto es obvio ya que la funci´on identidad
cumple que f ◦ I = I ◦f = f. O sea, es el neutro para la composici´on. Hemos demostrado
el siguiente resultado
El espacio vectorial End E en un a´lgebra con respecto a la composici´on.
Hay otras dos a´lgebras importantes que deben ser muy conocidas por el lector. Primero, el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial
Secci´on 3.3
Extensiones lineales
71
sobre R, pero adem´as sabemos multiplicar polinomios. Este producto cumple todos
los axiomas de Alg1-Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier
campo. El segundo ejemplo son los n´
umeros complejos. Estos son un espacio vectorial
de dimensi´on dos sobre los reales pero adem´as sabemos multiplicar n´
umeros complejos.
La multiplicaci´on de complejos tambi´en cumple todos los axiomas Alg1-Alg4.
Un a´lgebra se le llama conmutativa si el producto de vectores es conmutativo. El a´lgebra de los n´
umeros complejos y el ´algebra de polinomios
sobre un campo son conmutativas. Las a´lgebras End E casi nunca son conmutativas (salvo en dimensi´on 1). Por ejemplo en el plano cartesiano R2 la rotaci´on
f en 45◦ y la reflecci´on g en el eje y son (como veremos despu´es) OLs. Sin embargo,
(g ◦ f) (1, 0) = √12 (−1, 1) 6= √12 (−1, −1) = (f ◦ g) (1, 0).
Un ´algebra con divisi´on es un ´algebra en la cual todo vector tiene inverso multiplicativo.
El Teorema de Frobenius (demostrado en 1877) afirma que las a´lgebras con divisi´
on de
dimensi´on finita sobre los reales son R, C y H (los cuaterniones), no hay m´as.
El grupo general lineal
Una funci´on cualquiera es biyectiva si y solo si esta tiene inversa. En el cap´ıtulo
anterior, cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una
TL tiene inversa entonces esta inversa tambi´en es una TL. En particular, la funci´on
inversa de un OL es un operador lineal. Un operador lineal se le llama singular si
este no tiene inverso. En el caso contrario se le llama no singular. A los OLs no
singulares tambi´en se les llama automorfismos del espacio vectorial. En otras palabras
los automorfismos son los endomorfismos biyectivos.
Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota
por GL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la
funci´on nula cumple que 0 = f−f. Sin embargo, la composici´on de OLs no singulares es
siempre un OL no singular. Luego, la composici´on es una operaci´on binaria en GL (E)
que ya sabemos que es asociativa y tiene elemento neutro. Adem´as, cada elemento tiene
inverso ya que f ◦ f−1 = f−1 ◦ f = I. Luego, GL (E) es un grupo para la composici´on al
cual se llama grupo general lineal del espacio vectorial E.
3.3
Extensiones lineales
Estudiaremos en esta secci´on una manera universal de construir TLs. Pero antes,
veamos algunas consideraciones de tipo general acerca de funciones entre conjuntos
arbitrarios.
72
Cap´ıtulo 3. Transformaciones lineales
Extensiones y restricciones
Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una
funci´on f : A → B tambi´en se tiene una funci´on f0 : A0 → B definida por f0 (a) =
f (a) para cualquier a ∈ A0 . A la funci´on f0 se le llama restricci´
on de f a A0 y
la denotaremos por fA 0 . Todas las diferentes restricciones de f se obtienen al tomar
diferentes subconjuntos A0 . Las inmersiones son las restricciones de la identidad.
Si h y g son dos funciones tales que h es una restricci´on de g entonces se dice que g
es una extensi´
on de h. Si est´a dada una funci´on g : A0 → B y A es un sobreconjunto
de A0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos
escoger arbitrariamente los valores de h (x) para todos los x ∈ A\A0 .
Es un problema frecuente en matem´aticas el encontrar extensiones que cumplan
ciertas propiedades. En nuestro caso, debemos encontrar extensiones que sean TLs.
Formulemos nuestro problema m´as precisamente. Sean E y F dos espacios vectoriales
sobre K y N un conjunto de vectores de E. Sea h : E → F una TL. Sabemos que
N ⊂ E y por lo tanto tenemos la restricci´on hN : N → F. ¿Ser´a posible para cualquier
funci´on g : N → F encontrar una extensi´on h : E → F de g que sea TL? ¿Ser´a u
´nica tal
extensi´on? Veremos que ambas preguntas tienen respuesta positiva si N es una base.
Para demostrar la existencia de la extensi´on debemos construirla. Sea N una base
de E y g : N → F una funci´on arbitraria de N en F. P
Cualquier x ∈ E se expresa de
forma u
´nica como combinaci´on lineal de N o sea x = i∈N αi i. A
X
αi g (i)
la funci´on h del recuadro a la derecha se le llama extensi´
on lineal x 7→
i∈N
de g. Observese que (como debe ser) la restricci´on de h a N es igual
a g ya que si x ∈ N entonces, la descomposici´on de x en la base N
tiene coeficientes αi = 0 para i 6= x y αi = 1 para i = x.
Las extensiones lineales son transformaciones lineales.
Prueba. TenemosX
X
X
(αi + βi ) g (i) =
αi g (i) +
βi g (i) = h (x) + h (y)
h (x + y) =
i∈N
i∈N
i∈N
X
X
h (λx) =
λαi g (i) = λ
αi g (i) = λh (x)
i∈N
i∈N
y esto prueba que h es una TL.
Para demostrar la unicidad de la extensi´on debemos convencernos de que dos TLs
distintas no pueden coincidir en una base.
Las TLs est´an predeterminadas por sus valores en una base.
Prueba. Sean f, g : E → F dos TLs y N una base de E. Supongamos que f (i) = g (i)
para cualquier i ∈ N. Cualquier x ∈ E se expresa de forma u
´nica como combinaci´on
Secci´on 3.3
Extensiones lineales
73
P
lineal de N o sea x = i∈N αi i. Luego
Ã
!
Ã
!
X
X
X
X
f (x) = f
αi i =
αi f (i) =
αi g (i) = g
αi i = g (x)
i∈N
i∈N
i∈N
i∈N
y por lo tanto las TLs f y g son iguales.
El isomorfismo entre FN y Mor (E, F)
Recordemos ahora de la Secci´on 2.2 que el conjunto de todas las funciones de N en
F es el conjunto de las N-adas de vectores de F, que este es un espacio vectorial para
la suma y el producto por escalares definidos por coordenadas y que se denota por FN .
Si N es una base de E entonces, hemos construido una correspondencia biun´ıvoca
entre FN y Mor (E, F). A cada N-ada hN ∈ FN le corresponde su extensi´on lineal
h ∈ Mor (E, F) y a cada TL h ∈ Mor (E, F) le corresponde hN su restricci´on a N (que
es una N-ada). Veamos que esta correspondencia es un isomorfismo.
Si N es una base de E entonces, la biyecci´on
r : Mor (E, F) 3 h 7→ hN ∈ FN
es un isomorfismo de espacios vectoriales.
Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E, F)
y λ un escalar. Tenemos r (λh) = (λh)N = λhN = λr (h)
r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 )
que se cumplen por las definiciones de suma y producto por escalares de las N-adas.
Un criterio de isomorfismo
Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que esperemos que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje
de las N-adas de vectores. En este caso queremos hacer la traduci´on de la propiedad
de una TL de ser o no un isomorfismo de espacios vectoriales. Ya vimos en el cap´ıtulo
anterior que un isomorfismo transforma una base del dominio en una base del codominio. ¿Ser´a esta propiedad suficiente para comprobar que una TL
(1, 0, 0) 7→ (1, 0)
es un isomorfismo?. La respuesta es NO. Por ejemplo, la extensi´on
(0, 1, 0) 7→ (0, 1)
lineal de la funci´on definida en la base can´onica de R3 como en el
(0, 0, 1) 7→ (0, 1)
recuadro a la derecha transforma a esta base en la base can´onica de
R2 y sin embargo no es inyectiva. Nos falta la propiedad evidentemente necesaria de
que la restricci´on de la TL debe ser inyectiva.
Una TL es un isomorfismo si y solo si su restricci´on a una
base es inyectiva y la imagen de esta restricci´
on es una base.
74
Cap´ıtulo 3. Transformaciones lineales
Prueba. Ya hemos probado la necesidad. Para la suficiencia sea N una base de E
y hN ∈ FN una N-ada de vectores de F tal que sus coordenadas son todas diferentes
(la inyectividad) y que el conjunto de sus coordenadas (la imagen) es una base M =
h (N) de F. ProbemosPque la extensi´oP
n lineal h : E → F de hN es un isomorfismo.
Efectivamente, si x = i∈N αi i y y = i∈N βi i son dos vectores cualesquiera en E y
h (x) = h (y) entonces,
X
X
αi h (i) =
βi h (i)
i∈N
i∈N
y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales
de la base M. Luego, los coeficientes de estas combinaciones lineales tienen que coincidir
αi = βi y por lo tanto x = y. Luego, h es inyectiva.
Para ver que
P h es sobreyectiva sea z ∈ F. Como M es una base
P de F existen γi ∈ K
tales que z = i∈N γi h (i) y por lo tanto z = h (v) donde v = i∈N γi i.
3.4
Coordinatizaci´
on de transformaciones lineales
Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios
entre los cuales est´a definida la TL. Sean N y M bases de E y F respectivamente.
Tenemos los isomorfismos de coordinatizaci´on E ↔ K{N} y F ↔ K{M} . Para cada
f
f ∈ Mor
(E, F) tenemos
la composici´on g : K{N} → E → F → K{M} que es una TL en
¡ {N}
¢
Mor K , K{M} .
¢
¡
Rec´ıprocamente para cada g ∈ Mor K{N} , K{M} tenemos la
g
f
composici´on f : E → K{N} → K{M} → F que es una TL en E
−→ F
Mor (E, F). Es f´acil ver y es intuitivamente ¡claro que esta
col
l
¢
rrespondencia biun´ıvoca Mor (E, F) ↔ Mor K{N} , K{M} es un K{N} −→ K{M}
g
isomorfismo de espacios vectoriales.
Podemos pensar a N como la base can´onica de K{N} . Luego, aplicando 3.13 obte¢
¡
¢N
¡
= K{M}×N que es el conjunto de
nemos el isomorfismo Mor K{N} , K{M} ↔ K{M}
las MN matrices tales que cada columna es una N-ada finita. Para el caso que m´as
¡
¢N
nos interesa en que N y M son bases finitas obtenemos Mor (E, F) ↔ KM = KMN .
Sea f ∈ Mor (E, F). A la matriz αMN que le corresponde a f mediante el isomorfismo
construido se le llama matriz de la TL f en las bases M y N. Los resultados de la
secci´on anterior nos dicen como construir αMN dada f. Para cada
P i ∈ N la columna
αMi es el vector f (i) coordinatizado en la base M. O sea f (i) = a∈M αai a.
Ejercicio 57 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construya
un isomorfismo Mor (E, F) ↔ Mor (E0 , F0 ).
Secci´on 3.4 Coordinatizaci´on de transformaciones lineales
75
P
ai xi 7→ ni=0 ai (x + 1)i ∈ K [x] es
un isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz αNN
de esta TL en la base can´onica del espacio de polinomios. Demuestre que las entradas
de esta matriz est´an definidas por la ecuaci´on recursiva αkn = αk,(n−1) + α(k−1),(n−1)
con las condiciones de frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n.
Ejercicio 58 Pruebe que la funci´on K [x] 3
Pn
i=0
P
La f´ormula f (i) = a∈M αai a nos dice tambi´en como construir f dada αMN . Las
imagenes de los i ∈ N lasP
calculamos por la f´ormula y a f la construimos por extensi´on
Ã
!
lineal. O sea, si E 3 x = i∈N βi i entonces,
X X
X X
X
βi f (i) =
βi
αai a =
αai βi a
F 3 f (x) =
a∈M
a∈M
i∈N
i∈N
i∈N
P
La expresi´on i∈N αai βi es un escalar y hay uno para cada a ∈ M por lo que son las
coordenadas de una M-ada. A esta M-ada se le llama producto de la matriz αMN
por el vector βN y se denota por αMN βN .
X
Observese que este producto lo podemos escribir como en el
αMN βN =
αMi βi
recuadro. Esto quiere decir que este producto se obtiene muli∈N
tiplicando las columnas de αMN por las correspondientes coordenadas de βN y sumando los resultados. En otras palabras αMN βN es la combinaci´on
lineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN .
En esta secci´on estudiaremos sistem´aticamente el isomorfismo entre las TLs y las
matrices repitiendo detalladamente todo lo dicho en esta introducci´on. Si el lector no
entendi´o, le recomiendo seguir adelante y despu´es releer esta introducci´on.
El producto escalar can´
onico
X
Sean αN y βN dos N-adas. El producto escalar de estas NαN βN =
αi βi
adas es el escalar del recuadro a la derecha. De esta manera, el
i∈N
producto escalar de dos vectores es un elemento del campo.
No se debe confundir el “producto por un escalar” con el “producto escalar”. El primero es un producto de un escalar por un vector y el segundo es
un producto de dos vectores. M´as adelante veremos que hay otros productos
definidos en cualquier espacio vectorial. Por esto a este producto lo llamaremos can´onico y solamente est´a definido en el espacio vectorial de las N-adas para
cierto conjunto finito de ´ındices N.
El producto escalar cumple las siguientes propiedades:
1. xy = yx
(conmutatividad)
2. x (y + z) = xy + xz
(distributividad a la izquierda)
3. (y + z) x = yx + zx
(distributividad a la derecha)
4. x (λy) = (λx) y = λ (xy) (conmuta con el producto por escalares)
Cap´ıtulo 3. Transformaciones lineales
76
Ejercicio
Ejercicio
Ejercicio
Ejercicio
59
60
61
62
Pruebe las principales propiedades del producto de N-adas (3.15).
Busque tres vectores x y z en R2 tales que (xy) z 6= x (yz). [190]
¿Se puede definir el producto escalar can´onico en K{N} ?
Pruebe que ∀αN ∈ RN se cumple que α2N = αN αN ≥ 0.
El producto de matrices
Sean αMN y βNL dos matrices. Observese que el conjunto de ´ındices de las columnas
de la primera, coincide con el conjunto de ´ındices de los renglones de la segunda. As´ı,
tanto un rengl´on αiN como una columna βNj son vectores del espacio KN de N-adas
y podemos formar su producto αiN βNj . Cuando hacemos esto, para todos los i ∈ M
y todos los j ∈ L obtenemos una ML-matriz formada por todos estos productos. A
esta matriz se le llama el producto de las matrices αMN y βNL y se denotar´a por
αMN βNL . Resumiendo, si γML = αMN βNL entonces γij = αiN βNj . Por ejemplo, si los
conjuntos de ´ındices son M = {1, 2}, N = {1, 2, 3} y L = {1, 2} entonces, en forma gr´afica
⎞
⎛
tenemos
¶ β11 β12
¶
µ
µ
α11 α12 α13 ⎝
α1N βN1 α1N βN2
⎠
β21 β22
=
α21 α22 α23
α2N βN1 α2N βN2
β31 β32
y por definici´on de producto escalar de vectores tenemos
¶ µ P3
¶
µ
P3
α1N βN1 α1N βN2
α1i βi1
α1i βi2
i=1
i=1
P3
= P3
.
α2N βN1 α2N βN2
i=1 α2i βi1
i=1 α2i βi2
Productos de matrices y vectores
Sean αMN y βNL dos matrices. Si el conjunto de indices L tiene un solo elemento
entonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL =
βN1 y diremos que βN1 es un vector columna o una N-ada columna. Obviamente,
podemos pensar que βN1 es una N-ada βN . En este caso podemos hacer el producto de
matrices αMN βN1 = αMN βN y este es el producto de una matriz por un vector
definido al principio de esta secci´on. An´alogamente se define el producto por el otro
lado. Si el conjunto de indices M tiene un solo elemento entonces la matriz αMN tiene
un solo rengl´on. En este caso podemos escribir αMN = α1N y diremos que α1N es
un vector rengl´
on o N-ada rengl´
on. Obviamente, podemos pensar que α1N es una
N-ada αN . En este caso podemos hacer el producto de matrices α1N βNL = αN βNL y
esta es la definici´on del producto de un vector por una matriz.
En este libro, no haremos distinciones entre N-adas, N-adas columna y N-adas
rengl´on o sea α1N = αN1 = αN . Para esto, dimos las definiciones de producto de
una matriz por un vector y al rev´es. Intuitivamente, el lector debe pensar que cuando
aparesca un vector en un producto de matrices este se convierte en vector fila o columna
seg´
un sea conveniente.
Secci´on 3.4 Coordinatizaci´on de transformaciones lineales
77
Claro, este abuso de la notaci´on aunque es muy c´omodo puede llevar (si
nos ponemos pedantes) a contradicciones. Por ejemplo, podemos sumar dos
N-adas pero no podemos sumar una N-ada columna con una N-ada rengl´on.
Observese que, no solo el producto de matrices por vectores y al rev´es son casos
particulares del producto de matrices, sino tambi´en el producto escalar can´onico de
dos N-adas al constatar que αN βN = α1N βN1 .
Ejercicio 63 Tome dos matrices con entradas enteras y multipl´ıquelas. Repita este
ejercicio hasta que usted comprenda muy bien el concepto de producto de matrices.
La transformaci´
on lineal de una matriz
Sea αMN una MN-matriz. Esta matriz define una funci´on KN 3 βN → αMN βN ∈
KM . Esta funci´on¡ es una TL
¢ como ya vimos al principio de esta secci´on utilizando el
isomorfismo Mor KN , KM ↔ KMN . Sin embargo, la prueba directa de este hecho es
muy sencilla.
El multiplicar una matriz fija por N-adas es una TL.
Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto escalar tenemos que para todo i ∈ M se cumple que αiN (βN + γN ) = αiN βN +
αiN γN y que αiN (λβN ) = λ (αiN βN ). Esto significa que son v´alidas las igualdades
αMN (βN + γN ) = αMN βN + αMN γN y αMN (λβN ) = λ (αMN βN ).
La matriz de una transformaci´
on lineal
En la proposici´on anterior vimos que al mutiplicar MN-matrices por N-adas obtenemos ejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles,
o sea, que cualquier TL de KN en KM se obtiene multiplicando por una MN-matriz.
En realidad,
al principio de esta secci´on al construir el isomorfis¡ N esto
¢ya lo probamos
M
MN
mo Mor K , K
↔ K . Sin embargo, aqu´ı es m´as simple ya que tenemos bases
can´onicas de KN y KM . Sea E = {ei : i ∈ N} la base can´onica de KN . Recordemos que
ei es la N-ada con coordenadas δji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM una
TL. Denotemos αMi = f (ei ) ∈ KM . A la matriz αMN cuyas columnas son las imagenes
de la base can´onica mediante la TL f la llamaremos matriz de la TL f.
Sea f : KN → KM una TL y αMN su matriz. Entonces,
para cualquier βN ∈ KN se cumple que f (βN ) = αMN βN .
Cap´ıtulo 3. Transformaciones lineales
78
Prueba.
Sea f0 : βN 7→ αMN βN . Sabemos que f α e = P α δ = α
MN i
Mi
j∈N Mj ji
0
y f son TLs. Si i ∈ N entonces, por definici´on de la
base can´onica y del producto de una matriz por un vector tenemos la igualdad del
recuadro. Luego f y f0 coinciden en la base can´onica y por extensi´on lineal ambas son
la misma funci´on.
Ejercicio 64 Halle la matriz de la rotaci´on con ´angulo α en R2 . [190]
Composici´
on de TLs y producto de matrices
La matriz de la composici´
on de dos TLs es
igual al producto de las matrices de las TLs.
¡
¢
¡
¢
Prueba. Sean f ∈ Mor KN , KM y g ∈ Mor KM , KL dos TLs. Sean αMN y βLM las
matrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos
X
X
X
βij (αjN γN ) =
βij
αjk γk =
βiM (αMN γN ) =
=
XX
k∈N j∈M
j∈M
βij αjk γk =
X
j∈M
k∈N
(βiM αMk ) γk = (βiM αMN ) γN
k∈N
y por lo tanto βLM (αMN γN ) = (βLM αMN ) γN . Como γN 7→ βLM (αMN γN ) es la TL
g ◦ f entonces, tenemos (g ◦ f) (γN ) = (βLM αMN ) γN que es lo que se quer´ıa probar.
El producto de matrices es asociativo, distribuye por ambos lados
con la suma de matrices y conmuta con el producto por un escalar.
Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente.
La matriz de (h ◦ g) ◦ f es (γKL βLM ) αMN . La matriz de h ◦ (g ◦ f) es γKL (βLM αMN ).
Como la composici´on de TLs es asociativa tenemos (h ◦ g) ◦ f = h ◦ (g ◦ f) y por lo
tanto (γKL βLM ) αMN = γKL (βLM αMN ). Esto prueba la asociatividad.
Las dem´as propiedades se prueban exactamente igual o sea, se desprenden de las
respectivas propiedades de las TLs y de la proposici´on 3.18.
Ejercicio 65 Pruebe la asociatividad del producto de matrices directamente de la
definici´on de producto o sea, sin usar TLs. [190]
Secci´on 3.4 Coordinatizaci´on de transformaciones lineales
79
El espacio de todas las NN-matrices
¡ ¢
es un a´lgebra isomorfa a End KN .
Prueba. Ya sabemos que KNN es un espacio vectorial. El resultado anterior hace la
mayor parte del trabajo necesario para mostrar que KNN es un ´algebra. Solo falta el
neutro para el producto que es la matriz de la identidad en KN . Esta matriz es INN que
cumple que Iij = δij (el delta de Kronecker) y que la llamaremos matriz identidad.
Adem´as, ya sabemos que la aplicaci´on que a un OL en KN le hace corresponder su
matriz es un isomorfismo de espacios vectoriales. La proposici´on 3.18 completa la tarea
de demostrar que esta aplicaci´on es un isomorfismo de a´lgebras.
Matrices inversas
¢
¡
de f. La
Sea f ∈ Mor KN , KM y αMN¡ la matriz
¡ funci´
¢
¢ on f es biyectiva si y solo si,
existe la TL f−1 tal que f◦f−1 = I KN y f−1 ◦f = I KM . A la matriz de la TL f−1 se le
on 3.18 obtenemos
llama matriz inversa de αMN y se denota por α−1
MN . De la proposici´
−1
−1
que la matriz inversa cumple que αMN αMN = INN y αMN αMN = IMM . Observese que
el conjunto de ´ındices de las columnas de α−1
alogamente, el conjunto
MN es M y no N. An´
−1
de ´ındices de los renglones de αMN es N y no M.
De la definici´on es inmediato que una matriz tiene inversa si y solo si su TL es
un isomorfismo de espacios vectoriales. En particular los conjuntos de ´ındices N y M
tienen que tener el mismo cardinal ya que estos cardinales son las dimensiones del
dominio y el codominio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos
preocuparemos en traducir nuestro criterio de isomorfismo 3.14 al lenguaje de matrices.
Una matriz cuadrada αMN tiene inversa si y solo si sus
columnas son todas diferentes y son una base de KM .
¡
¢
Prueba. Sea αMN una matriz cuadrada y f ∈ Mor KN , KM su TL. La resticci´on de
f a la base can´onica de KN es la N-ada de las columnas de la matriz αMN . Por 3.14 la
funci´on f tiene inversa si y solo si esta restricci´on es inyectiva (las columnas diferentes)
y su imagen (el conjunto de columnas) es una base.
Es posible probar un criterio an´alogo al anterior substituyendo las columnas por
los renglones. Sin embargo, su prueba aqu´ı se nos har´ıa innecesariamente complicada.
Mejor lo dejaremos para el pr´oximo cap´ıtulo donde esto ser´a una facil consecuencia de
un resultado mucho m´as importante.
Ejercicio 66 Sean f y g las rotaciones del plano R2 en los ´angulos α y β respectivamente. Use el ejercicio 64 para hallar las matrices en la base can´onica de f, g y f ◦ g.
Use 3.18 para hallar f´ormulas para el seno y el coseno de la suma de dos ´angulos. [190]
80
Cap´ıtulo 3. Transformaciones lineales
Ejercicio 67 ¿Cual es la matriz inversa a la matriz de una rotaci´on?
Ejercicio 68 Sea f el OL en R2 que deja fijo a (1, 0) y manda (0, 1) en (1, 1). ¿Cual
es su matriz? ¿Cual es la matriz inversa?
3.5
Cambios de base
Es usual en las aplicaciones que sea conveniente realizar ciertos c´alculos en un sistema de coordenadas y despu´es realizar otros c´alculos en otro sistema de coordenadas.
En el ´algebra lineal estos cambios de coordenadas son lineales o sea, la transformaci´on
que lleva unas coordenadas a otras es una TL.
Cambios de base en un espacio vectorial
Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatizaci´on KV ↔ E ↔ KN . Nuestro problema ahora es: dada una V-ada βV que son las
coordenadas del vector x en la base V, ¿como hallar las coordenadas γN de x en la
base N? En este caso las letras V y N tienen el sentido de que V es la base “vieja” y
que N es la base “nueva”.
Sea αNV la matriz cuyas columnas son los vectores de la base V
X
expresados en las coordenadas de N. O sea, para cualquier v ∈ V v =
αiv i
tenemos la f´ormula en el recuadro a la derecha. A la matriz αNV se le
i∈N
llama matriz de cambio de base (de V a N). Esta matriz no es otra
cosa que la matriz del isomorfismo KV → E → KN .
Si βV es la V-ada de las coordenadas de un vector en la base V entonces,
αNV βV es la N-ada de las coordenadas del mismo vector en la base N.
Prueba. Descompongamos x ∈ E en las dos bases. Tenemos, x =
P
Ã
Ã
!
!
i∈N γi i y por lo tanto
X
X
X X
X
βv
αiv i =
αiv βv i =
γi i
x=
v∈V
i∈N
i∈N
v∈V
P
v∈V
βv v =
i∈N
De la unicidad
de las coordenadas de cualquier vector en la base N obtenemos la
P
igualdad v∈V αiv βv = γi que es la que se necesitaba demostrar.
Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en la
base N = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las
coordenadas de u en la base can´onica. Luego, V = {e1 , e2 } es la base can´onica y para
construir la matriz αNV de cambio de base necesitamos las coordenadas de V en la
base N. Estas coordenadas se pueden hallar resolviendo dos sistemas de ecuaciones
lineales pero es m´as sencillo usar la siguiente argumentaci´on. Como un cambio de base
es un isomorfismo entonces la matriz αNV tiene inversa que es la matriz de cambio de
Secci´on 3.5
Cambios de base
81
la base N a la base V. Las columnas de esta matriz ya las tenemos, son a1 y a2 . Luego,
denotando p y q las coordenadas que buscamos, o sea, u = pa1 + qa2 tenemos:
¶µ ¶ µ
¶
µ ¶ µ
¶−1 µ ¶ µ
x
2 −1
x
2x − y
p
2 1
=
=
.
=
y
−3 2
y
2y − 3x
q
3 2
y en estos c´alculos lo u
´nico que no conoce el lector es como calcular la matriz inversa.
Pero, esto lo pospondremos hasta el pr´oximo cap´ıtulo.
Cambios de base en el espacio de transformaciones lineales
Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V, N
dos bases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos
de coordinatizaci´on KWV ↔ Mor (E, F) ↔ KMN . El problema ahora es: dada una WVmatriz αWV que es la matriz de la TL f : E → F en las bases V y W, ¿como hallar
la matriz βMN de f en las bases N y M? Nuevamente, V, W son las bases “viejas” y
M, N son las bases nuevas.
X
Sea γNV la matriz de cambio de base de V a N en E. Sea λMW la
v
=
γiv i
matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ V
i∈N
X
y cualquier w ∈ W tenemos las f´ormulas en el recuadro a la derecha.
λjw j
w
=
Estas matrices no son otra cosa que las matrices de los isomorfismos
j∈M
de coordinatizaci´on KV → E → KN y KW → F → KM .
Si αWV es la matriz de f en las bases V y W entonces,
λMW αWV γ−1
NV es la matriz de f en las bases N y M.
X
Prueba.
Las columnas de αWV son las imagenes por f de
f (v) =
αwv w
la base V expresadas en la base W o sea, ∀v ∈ V se cumple la
w∈W
f´ormula del recuadro a la derecha. Denotemos por βMN la matriz
X
de f en las bases N, M. Las columnas de βMN son las imagenes por f
f (i) =
βji j de la base N expresadas en la base M. O sea,
para cualquier i ∈ N se
j∈M
cumple la f´ormula del recuadro a la izquierda.
Substituyendo en la f´ormula de la derecha
à las f´ormulas
! que definen las matrices
λMW y γNV obtenemos X
X X
γiv f (i) =
λjw αwv j
i∈N
j∈M
w∈W
y en esta igualdad substituimos
f (i) !
por la f´ormula
de la izquierda
para obtener
Ã
Ã
!
X X
X X
βji γiv j =
λjw αwv j.
j∈M
i∈N
j∈M
w∈W
De la unicidad de las coordenadas de cualquierPvector en la base
P M obtenemos que
para cualesquiera j ∈ M y v ∈ V se cumple que i∈N βji γiv = w∈W λjw αwv y por lo
tanto βMN γNV = λMW αWV . Como γNV es la matriz de un isomorfismo entonces, γNV
tiene inversa por lo que podemos despejar βMN .
Cap´ıtulo 3. Transformaciones lineales
82
La proposici´on anterior la podemos interpretar gr´aficamente de la siguiente manera. Las matrices αWV , βMN ,
γNV , y λMW son las matrices de TLs entre espacios co−→
mo se muestra en el diagrama a la izquierda. Se dice que
βMN
un diagrama de funciones es conmutativo si cualesquiera dos caminos dirigidos entre dos cualesquiera conjuntos son funciones iguales.
En nuestro caso, el que el diagrama a la izquierda sea conmutativo lo quiere decir es
que βMN γNV = λMW αWV .
KV
γNV ↓
KN
αWV
−→
KW
↓ λMW
KM
Cambios de base en el espacio de operadores lineales
Si f ∈ End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases
diferentes para el dominio y el codominio ya que estos son iguales. Sean V, N dos
bases de E. El problema ahora es: dada una VV-matriz αVV que es la matriz del
OL f en la base V, hallar la matriz βNN de f en la base
αVV
KV −→ KV
N. Sea γNV la matriz de cambio de base de V a N en
↓ γNV
E. En este caso, el diagrama es el de la derecha. Ya no γNV ↓
N
N
K
−→
K
hay que probar la conmutatividad de este ya que ´el, es un
βNN
caso particular del anterior. Luego, βNN γNV = γNV αVV y
despejando obtenemos que βNN = γNV αVV γ−1
NV .
¶ Ejemplo. Sea f la TL del plano R2 que tiene la matriz del reµ
cos α − sin α
cuadro a la izquierda en la base V = {a1 , a2 } donde a1 = (2, 3) y
sin α cos α
a2 = (1, 2). ¿Cual ser´a la matriz de f en la base can´onica? La matriz de cambio de base a la base can´onica es la que tiene como columnas a los vectores
a1 y a2 . Luego, la matriz de f en la base can´onica es
¶−1 µ
¶µ
¶µ
¶
µ
2 1
cos α − sin α
2 1
cos α + 8 sin α
−5 sin α
=
3 2
sin α cos α
3 2
13 sin α
cos α − 8 sin α
y esto es una advertencia de que un operador lineal puede tener en una base una matriz
que es igual a la de la rotaci´on en la base can´onica y sin embargo no es una rotaci´on.
3.6
El n´
ucleo y la imagen de una TL
En esta secci´on queremos ver que para describir todas las transformaciones lineales
nos es suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Despu´es,
veremos interesantes consecuencias de este resultado.
Definiciones
Para esto comenzaremos con dos definiciones fundamentales. Sea f : E → F una
TL. Al conjunto {y ∈ F | ∃x ∈ E f (x) = y} se le llama imagen de la TL. La imagen
de f se denotar´a por Im f. Al conjunto {x ∈ E | f (x) = 0} se le llama n´
ucleo de la TL.
El n´
ucleo de f se denotar´a por ker f. Esta notaci´on es debido a que en ingl´es n´
ucleo es
Secci´on 3.6
El n´
ucleo y la imagen de una TL
83
“kernel”. La imagen es el conjunto de los vectores en el codominio que tienen preimagen
y el n´
ucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.
La imagen y el n´
ucleo de una TL son subespacios.
Prueba. Sean x, y vectores en Im f y λ ∈ K. Por definici´on existen a, b tales que
f (a) = x, f (b) = y. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y
adem´as f (λa) = λf (a) = λx. Esto quiere decir que Im f es un subespacio.
Sean a, b vectores en ker f y λ ∈ K. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0
y f (λa) = λf (a) = λ0 = 0. Esto quiere decir que ker f es un subespacio.
El n´
ucleo y la imagen de una TL son subespacios de espacios diferentes. Si
f : E → F entonces ker f ⊂ E e Im f ⊂ F. Solamente en el caso que la TL es
un OL o sea, cuando E = F el n´
ucleo y la imagen son subespacios del mismo
espacio. Sin embargo, como veremos m´as adelante, en este caso pasan cosas raras ya
que, aunque estos subespacios tienen dimensiones complementarias ellos NO siempre
son complementarios.
Transformaciones lineales con n´
ucleo trivial
Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector
cero siempre es un elemento del n´
ucleo. Si el n´
ucleo solo contiene al vector cero se dice
que f tiene n´
ucleo trivial. Cualquier TL lineal inyectiva tiene n´
ucleo trivial ya que en
este caso la preimagen de cualquier vector es u
´nica. Lo importante es que el rec´ıproco
tambi´en es cierto.
Una TL es inyectiva si y solo si su n´
ucleo es trivial.
Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos
(f (x) = f (y)) ⇔ (f (x) − f (y) = 0) ⇔ (f (x − y) = 0) ⇔ (x − y ∈ ker f)
y por lo tanto el que existan dos vectores diferentes cuyas imagenes sean iguales es
equivalente a la existencia de un vector no nulo en el n´
ucleo de la TL.
Descomposici´
on de transformaciones lineales
Ahora, demostraremos el resultado prometido al principio de la secci´on. Sea f : E →
F una TL. Sea K un subespacio complementario cualquiera pero fijo del ker f. Sea fK
la restricci´on de f al subespacio K. Denotemos por i : Im f → F a la inmersi´on del
subespacio Im f en F. Finalmente, denotemos por πK : E ³ K la proyecci´on de E a K
a lo largo del ker f.
84
Cap´ıtulo 3. Transformaciones lineales
Teorema de Descomposici´
on de una TL
f = i ◦ fK ◦ πK y fK es un isomorfismo.
Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (p´agina 53) existen
unos u
´nicos vectores a ∈ K, b ∈ ker f tales que x = a + b. De aqu´ı obtenemos
(i ◦ fK ◦ πK ) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)
y con esto queda probado que f = i ◦ fK ◦ πK .
Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.29 existen unos u
´nicos
vectores a ∈ K, b ∈ ker f tales que x = a + b. Como fK (a) = f (a) = f (a) + f (b) =
f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a − b) = 0. Como
(a − b) ∈ K ∩ ker f entonces, a − b = 0 o sea a = b. Luego, fK es inyectiva.
Este teorema lo podemos visualizar m´as f´acilmente si observamos el diagrama de la derecha. La primera afirmaci´on del
Teorema de Descomposici´on de una TL lo que dice es que este
diagrama es conmutativo. La segunda afirmaci´on nos dice que
fK es un isomorfismo de espacios vectoriales.
f
E −→ F
πK ↓
↑i
K −→ Im f
fK
Para cualquier transformaci´
on lineal f : E → F,
dim E = dim ker f + dim Im f.
Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f.
Un criterio de isomorfismo
Recordemos un sencillo resultado de teor´ıa de conjuntos: toda funci´on inyectiva de
un conjunto finito en otro con el mismo n´
umero de elementos es biyectiva. De hecho,
esto lo usamos en el primer cap´ıtulo para probar que Zp es un campo para p primo.
El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple pero muy
u
´til) se cumple para espacios vectoriales de dimensi´on finita. Esto es una consecuencia
del Teorema de Descomposici´on de una TL (3.26).
Sean E y F dos espacios de dimensiones finitas e iguales.
Una TL f : E → F es inyectiva si y solo si es sobreyectiva.
Prueba. Por 3.27 tenemos dim ker f = dim E−dim Im f. Si f es sobreyectiva entonces,
F = Im f. Por hip´otesis dim F = dim E. De aqu´ı, debido a que todas las dimensiones son
finitas, dim ker f = 0 y por lo tanto ker f = {0}. De 3.25 concluimos que f es inyectiva.
Si f es inyectiva entonces, la funci´on f : E → Im f es un isomorfismo y por lo tanto
dim E = dim Im f. Por hip´otesis dim F = dim E. Como Im f es un subespacio de F
entonces, aplicando 2.17 (p´agina 42) obtenemos F = Im f.
Secci´on 3.6
El n´
ucleo y la imagen de una TL
85
Como consecuencia de este resultado probaremos que para comprobar que dos operadores lineales f y g en un espacio de dimensi´on finita son el inverso uno del otro, solo
es necesario comprobar una de las dos igualdades g ◦ f = I o f ◦ g = I.
Sean f, g : E → E dos OLs de un espacio finito dimensional. Entonces, f ◦ g = I si y solo si g ◦ f = I.
Prueba. La funci´on identidad es sobreyectiva. Luego, si f ◦ g = I entonces, f es
sobreyectiva. Por 3.28 f es inyectiva y por lo tanto tiene inversa f−1 . Componiendo
con f−1 obtenemos f−1 ◦ f ◦ g = f−1 ◦ I y por lo tanto g = f−1 .
Descomposici´
on can´
onica de transformaciones lineales
Para aplicar el Teorema de Descomposicion de una TL necesitamos escoger (ya que
hay muchos) un subespacio complementario K del n´
ucleo de f. Ya vimos (v´ease 2.34)
que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K
por E/ ker f en el Teorema de Descomposicion de una TL para as´ı obtener otra versi´on
del mismo que no dependa de escoger nada, o sea que sea can´onico.
En el Teorema de Descomposicion de una TL est´an inf
volucradas tres funciones: la proyecci´on πK (que es sobreE −→ F
yectiva), la restricci´on fK (que es biyectiva) y la inmersi´on i
?↓
↑i
(que es inyectiva). Esta u
´ltima no depende de K y podemos E/ ker f ←→ Im f
?
quedarnos con ella. As´ı que todas nuestras incognitas est´an
representadas en el diagrama de la derecha.
¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas
variantes. El espacio cociente E/ ker f est´a formado por todos los subespacios afines
ker f + x. El espacio Im f est´a formado por todas las imagenes
x 7→ ker f + x
f (x). Luego, la u
´nica posible respuesta a nuestra pregunta son
f (x) 7→ ker f + x
las funciones definidas en el recuadro a la izquierda.
La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama
funci´on natural y se denota por “nat”. La funci´on natural es una TL ya que
nat (x + y) = ker f + x + y = ker f + x + ker f + y = nat (x) + nat (y)
nat (λx) = ker f + λx = λ ker f + λx = λ (ker f + x) = λ nat (x)
y adem´as es evidentemente sobreyectiva.
La segunda de estas funciones es nuestra preocupaci´on fundamental ya que tenemos
que probar que es un isomorfismo. Esta funci´on tiene dominio Im f, codominio E/ ker f
y la denotaremos por g. La funci´on g es una TL ya que
g (f (x) + f (y)) = g (f (x + y)) = ker f + x + y = g (f (x)) + g (f (y))
g (λf (x)) = g (f (λx)) = ker f + λx =λ (ker f + x) = λg (f (x))
y es tambi´en evidentemente sobreyectiva.
¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios
86
Cap´ıtulo 3. Transformaciones lineales
afines ker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio af´ın E paralelo al ker f se cumple que (E = ker f + x) ⇔ (x ∈ E) entonces, la
inyectividad de g es equivalente a que la funci´on f sea constante en cualquier subespacio
af´ın paralelo al ker f.
Los subespacios afines paralelos a ker f son precisamente
los conjuntos de vectores en que la funci´
on f es constante.
Prueba. Tenemos
(y ∈ ker f + x) ⇔ (∃a ∈ ker f | y = a + x) ⇔ (f (y − x) = 0) ⇔ (f (y) = f (x))
lo que nos convence de la valid´ez del resultado.
Luego, g es un isomorfismo y por lo tanto tiene un isof
morfismo inverso que denotaremos por f0 . El isomorfismo f0
E −→ F
es el que a un subespacio af´ın ker f + x le hace corresponder
nat ↓
↑i
f (x). As´ı completamos nuestro diagrama como en el recua- E/ ker f −→ Im f
f0
dro a la derecha. Solo nos falta demostrar que este es conmutativo. Sin embargo esto es muy f´acil porque la composici´on
de funciones
nat
f0
i
x 7−→ ker f + x 7−→ f (x) 7−→ f (x)
es evidentemente igual a la funci´on f.
3.7
Trasformaciones semilineales y coalineaciones
Una funci´on f : E → F de espacios vectoriales sobre K
se le llama transformaci´
on semilineal si existe un automor- f(a + b) = f(a) + f(b)
¯ (a)
¯ del campo K tal que∀ a, b ∈ E y ∀ λ ∈ K se f (λa) = λf
fismo λ 7→ λ
cumplen las propiedades del recuadro.
Observese que las trasformaciones lineales son semilineales usando como automorfismo del campo la funci´on identidad. Para construir otras trasformaciones semilineales
necesitamos automorfismos del campo que no sean la identidad. El ejemplo m´as importante es la conjugaci´on a + bi 7→ a − bi en el campo de los n´
umeros complejos.
Ejercicio 69 Pruebe que para una transformaci´on semilineal no nula f el correspondiente automorfismo del campo es u
´nico. [190]
Trasformaciones semilineales reales
En el caso del campo de los n´
umeros reales no hay trasformaciones semilineales que
no sean lineales debido al siguiente resultado:
Secci´on 3.7 Trasformaciones semilineales y coalineaciones
87
El u
´nico automorfismo de R es la identidad.
√
Prueba. Sea f un automorfismo de R. Supongamos que x > 0 y sea y = x entonces,
f (x) = f(y2 ) = f (y)2 > 0. En particular si x = b − a > 0 entonces f (b − a) =
f (b) − f (a) > 0. En otras palabras, f es mon´otona b > a ⇒ f (b) > f (a). Como f−1
tambi´en es un automorfismo entonces, tambien es mon´otona. Luego, f conmuta con el
supremo y el ´ınfimo (v´ease el ejercicio 70).
Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la
identidad en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad en Q. Sea
x un irracional y denotemos por A el conjunto de todos los racionales menores que x.
Sabemos que x = sup A y por lo tanto f (x) = f (sup A) = sup f (A) = sup A = x.
Ejercicio 70 Sean R un conjunto ordenado, f : R → R una biyecci´on tal que f y f−1
son mon´otonas y A ⊆ R tal que sup A existe. Pruebe que f (sup A) = sup f (A). [190]
Ejercicio 71 Sea f 6= I un automorfismo de C. Pruebe que las siguientes afirmaciones
son equivalentes: 1. f es la conjugaci´on compleja. 2. f es continua. 3. f es la identidad
en R. [190]
Propiedades de las transformaciones semilineales
Al igual que las TL las transformaciones semilineales preservan subespacios.
Toda trasformaci´on semilineal transforma subespacios en subespacios.
Prueba. Sea f : E → F una trasformaci´on semilineal y F un subespacio de E. Sean
a, b ∈ F y α ∈ K. Tenemos f(a + b) = f(a) + f(b) por lo que f (F) es cerrado para
¯ = α. Tenemos αf (a) = λf
¯ (a) = f (λa) o sea f (E) es
la suma. Sea λ ∈ K tal que λ
cerrado para el producto por escalares.
Toda trasformaci´on semilineal transforma
subespacios afines en subespacios afines.
Prueba. Sea f : E → F una trasformaci´on semilineal y F un subespacio de E. Si F + x
es un subespacio af´ın entonces, f (F + x) = f (F) + f (x) que es tambi´en un subespacio
af´ın puesto que por el resultado anterior f (F) es un subespacio.
Cap´ıtulo 3. Transformaciones lineales
88
Automorfismos semilineales.
A diferencia de las TL las transformaciones semilineales no forman un espacio vectorial: la suma de transformaciones semilineales no necesariamente es semilineal. A las
transformaciones semilineales f : E → E biyectivas las llamaremos automorfismos
semilineales.
La composici´on de automorfismos semilineales es un automorfismo semilineal.
Prueba. Sean f y g dos automorfismos semilineales. De la misma manera que para
los operadores lineales se prueba que (f ◦ g) (a + b) = (f ◦ g) (a) + (f ◦ g) (b). Sean
˜ y λ 7→ λ
¯ los automorfismos del campo correspondientes a f y g respectivamente.
λ 7→ λ
¡ ¢ e
¯ = λa
¯ y la prueba termina al observar que λ 7→ e
¯
Tenemos que (f ◦ g) (λa) = f λa
λ
siendo una composici´on de automorfismos del campo es automorfismo del campo.
Ejercicio 72 Sea λ 7→ λ¯ un automorfismo del campo K. Pruebe que la transforma-
ci´on Kn 3 (x1 , . . . , xn ) 7→ (x1 , . . . , xn ) ∈ Kn es un automorfismo semilineal. A tales
automorfismos semilineales los llamaremos estandar. Pruebe que toda transformaci´on
semilineal de Kn en Kn es la composici´on de un automorfismo semilineal estandar con
una TL. [191]
La inversa de un automorfismo semilineal es un automorfismo semilineal..
Prueba. Sea f : E → E un automorfismo semilineal. Sean λ ∈ K y x, y ∈ E. Sean
a, b ∈ E tales que f (a) = x , f (b) = y. Tenemos
f¡(b)) =¢f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y)
f−1 (x + y) = f−1
¡ (f¢(a) +
−1 ¯
−1 ¯
λx = f
λf (a) = f−1 (f (λa)) = λa =λf−1 (x)
f
¯ 7→ λ es un automorfismo de K.
solo queda observar que la funci´on λ
Estos dos u
´ltimos resultados significan que el conjunto de todos los automorfismos
semilineales forman un grupo respecto a la composici´on de funciones.
Coalineaciones
Una biyecci´on f : E → E en un espacio vectorial se le llama coalineaci´
on si la
imagen de cualquier subespacio af´ın es un subespacio af´ın y la preimagen de cualquier subespacio af´ın es un subespacio af´ın de E. En otras palabras, tanto f como f−1
transforman subespacios afines en subespacios afines. Obviamente, si f es una coalineaci´on entonces f−1 tambi´en lo es. El siguiente resultado nos dice que la definici´on de
Secci´on 3.7 Trasformaciones semilineales y coalineaciones
89
coalineaci´on es posible hacerla de diversas maneras.
Sea f : E → F una biyecci´on entre dos espacios afines. Entonces, las
siguientes afirmaciones son equivalentes:
1. f y f−1 transforman subespacios afines en subespacios afines.
2. f y f−1 transforman generadores afines en generadores afines.
3. f y f−1 transforman bases afines en bases afines.
4. f y f−1 transforman conjuntos AI en conjuntos AI.
5. f y f−1 conmutan con la cerradura af´ın.
Prueba. (1 ⇒ 2) Sea A un conjunto generador af´ın de E y B = f (A). Sea C = f−1 [B]
que es un subespacio af´ın por ser la preimagen de un subespacio. Tenemos, B ⊆ [B] y
por lo tanto A = f−1 (B) ⊆ f−1 [B] = C. Luego E = [A] ⊆ C y por lo tanto C = E. De
aqu´ı f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetr´ıa, si
B es generador entonces f−1 (B) tambi´en lo es.
(2 ⇒ 3) Sea ahora A una base af´ın de E y B = f (A). Sabemos que B es generador
af´ın. Si B no fuera AI entonces existir´ıa b tal que B\b es generador y por lo tanto,
tendr´ıamos que f−1 (B\b) = A\f−1 (b) es generador af´ın. Esto contradecir´ıa que A es
una base af´ın. Por simetr´ıa, si B es una base af´ın entonces f−1 (B) tambi´en lo es.
(3 ⇒ 4) Sea ahora A un conjunto AI. Sea A0 una base af´ın que lo contiene. Sabemos
que f (A0 ) es una base af´ın. Como f (A) ⊆ f (A0 ) tenemos que f (A) es AI. Por simetr´ıa,
si B es AI entonces f−1 (B) tambi´en lo es.
(4 ⇒ 1) Sea A una base af´ın del subespacio af´ın [A]. Como A es AI entonces
B = f (A) tambi´en lo es. Si b ∈ [A] entonces A ∪ b es AD y por lo tanto B ∪ f (b)
tambi´en lo es. Luego, f (b) ∈ [B] y por lo tanto f [A] ⊆ [B]. Si b ∈ [B] entonces B ∪ b
es AD y por lo tanto A ∪ f−1 (b) tambi´en lo es. Luego, f−1 (b) ∈ [A] y por lo tanto
[B] ⊆ f [A]. Esto significa que f transforma el subespacio [A] en el subespacio [B]. Por
simetr´ıa, f−1 tambi´en transforma subespacios en subespacios.
(5 ⇒ 1) Si f [A] = [f (A)] entonces la imagen del subespacio af´ın [A] es el subespacio
af´ın [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetr´ıa, f−1 tambi´en
transforma subespacios en subespacios.
(1 ⇒ 5) Sea f una coalineaci´on. Sea A un conjunto de puntos. Como f transforma
subespacios afines en subespacios afines la restricci´on de f a [A] es una coalineaci´on del
espacio afin [A] en el espacio afin f [A]. Como esta restricci´on transforma generadores
en generadores tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para ver
de que f−1 conmuta con la cerradura af´ın usamos que f−1 es una coalineaci´on.
90
Cap´ıtulo 3. Transformaciones lineales
Ejercicio 73 Sea A un conjunto con un operador de cerradura y f : A → A una
biyecci´on. Si f y f−1 conmutan con el operador de cerradura entonces f es una isoton´ıa
del conjunto ordenado de cerrados.
Estructura de las coalineaciones
La composici´on de coalineaciones de un espacio af´ın es una coalineaci´on. Lo mismo
sucede con la inversa de una coalineaci´on. Luego el conjunto de todas las coalineaciones
de un espacio af´ın F es un grupo respecto a la composici´on de funciones.
Si dim E = 1 entonces cualquier biyecci´on de E en E es una coalineaci´on ya que en
este caso todos los subespacios afines son puntos y la condici´on de preservar puntos no
es ninguna restricci´on.
Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones
de la forma ta : F 3 x 7→ x + a ∈ F y de estas hay una para cada vector a en el
espacio vectorial F. Como ta ◦ tb = ta+b observamos que el subgrupo de traslaciones
es isomorfo al grupo aditivo del espacio vectorial F.
Sea f una coalineaci´on en E. Denotemos a = f (0) y ta la traslaci´on x 7→ x + a.
Observemos que la coalineaci´on f0 = t−a ◦ f es tal que f0 (0) = 0. Luego, cualquier
coalineaci´on es la composici´on f = ta ◦ f0 de una coalineaci´on que preserva 0 seguida de
una traslaci´on.
Si f es un automorfismo semilineal entonces f transforma subespacios afines en
subespacios afines y por lo tanto es una coalineaci´on que preserva 0.
Ahora, comenzaremos a probar el resultado principal de esta secci´on: que en dimensi´on al menos 2 toda coalineaci´on que preserva 0 es semilineal. En todo lo que sigue,
E es un espacio vectorial de dimensi´on al menos 2 sobre el campo K.
Toda coalineacion en E preserva el paralelismo de rectas.
Prueba. Sea f una coalineaci´on y `, `0 dos rectas paralelas diferentes. Como f es un
automorfismo del conjunto ordenado de subespacios afines dim [` ∪ `0 ] = dim f [` ∪ `0 ] =
dim [f (`) ∪ f (`0 )] y por lo tanto f (`) y f (`0 ) son coplanares.
Tambi´en dim [` ∩ `0 ] = dim f [` ∩ `0 ] = dim [f (`) ∩ f (`0 )] y por lo tanto f (`) y f (`0 )
no se intersectan.
Toda coalineacion en E que preserva 0 es un
automorfismo del grupo aditivo de vectores.
Prueba. Sea f una coalineaci´on de E que preserva 0. Recordemos que para cualquier
vector x el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva
0 tenemos f hxi = hf (x)i o sea, f tambi´en conmuta con la cerradura lineal.
Secci´on 3.7 Trasformaciones semilineales y coalineaciones
91
Sean a, b ∈ E dos vectores. Tenemos que probar que f (a + b) = f (a) + f (b).
Esto es trivial si {a, b} contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0.
Supongamos primero que {a, b} es LI. Por la regla del paralelogramo sabemos que
a + b = (hai + b) ∩ (hbi + a) ,
f (a) + f (b) = (hf (a)i + f (b)) ∩ (hf (b)i + f (a)) .
Como f preserva el paralelismo f (hai + b) es una recta paralela a f (hai) = hf (a)i
que pasa por f (b) , o sea f (hai + b) = hf (a)i + f (b). An´alogamente, f (hbi + a) =
hf (b)i + f (a). Como f conmuta con la intersecci´on (el ´ınfimo) tenemos
f (a + b) = f (hai + b)∩f (hbi + a) = (hf (a)i + f (b))∩(hf (b)i + f (a)) = f (a)+f (b)
y esto concluye el caso de que {a, b} es LI.
Es claro que si {a, b} es LI entonces, tambi´en lo es {a − b, b} y por lo tanto
f (a) = f (a − b + b) = f (a − b) + f (b) .
Luego, si {a, b} es LI entonces, f (a − b) = f (a) − f (b).
Supongamos que {a, b} es LD. Entonces, hai = hbi. Como dim E > 1 existe c ∈
/ hai
tal que los conjuntos {a, c}, {b, c} son LI.
Si b 6= −a entonces, {a + c, b − c} es LI y por el caso anterior tenemos que
f (a + b) = f (a + c + b − c) = f (a + c) + f (b − c) = f (a) + f (b)
y en particular cuando b = a obtenemos f (2a) = 2f (a).
Si b = −a entonces, {a + c, b + c} es LI y tenemos que
2f (c) = f (2c) = f (a + c + b + c) = f (a + c) + f (b + c) = f (a) + f (b) + 2f (c)
y por lo tanto f (a) + f (b) = 0 = f (0) = f (a + b).
Ejercicio 74 Complete la demostraci´on del resultado anterior mostrando que si {a, c}
es LI, b = ρa y ρ 6= −1 entonces {a + c, b − c} es un conjunto LI. [191]
Si f es una coalineaci´on en E que preserva 0 entonces, existe un automor¯ del campo K tal que f (λa) = λf
¯ (a) para todo vector a ∈ E.
fismo λ 7→ λ
Prueba. Sea a ∈ E\0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos
que αa ∈ hai y por lo tanto f (αa) ∈ hf (a)i. Como en hf (a)i est´an precisamente los
m´
ultiplos de f (a) existe un escalar que denotaremos αa tal que f (αa) = αa f (a). De
esta manera est´a definida una funci´on K 3 α 7→ αa ∈ K que es biyectiva pues f es una
biyecci´on de hai en hf (a)i.
Queremos probar que αa no depende de a. O sea que para cualesquiera a, b ∈ E\0
tenemos que αa = αb . Supongamos que {a, b} es LI. Usando 3.38 obtenemos que
αa f (a) + αb f (b) = f (αa) + f (αb) = f (αa + αb) =
= f (α (a + b)) = αa+b f (a + b) = αa+b f (a) + αa+b f (b)
y como {f (a) , f (b)} es LI obtenemos αa = αa+b = αb .
92
Cap´ıtulo 3. Transformaciones lineales
Supongamos que {a, b} es LD entonces, como dim E > 1 existe c tal que {a, c} y
{c, b} son dos conjuntos LI. Por el caso anterior αa = αc = αb .
¯ = αa . Sabemos que para cualquier vector
Como αa no depende de a denotaremos α
¯ f (a). Solo falta ver que α 7→ α
¯ es un automorfismo de K.
a ∈ E tenemos f (αa) = α
Sea a un vector no nulo. Usando 3.38 obtenemos que
¡
¢
¯ f (a)
¯ +β
(α + β)f (a) = f ((α + β) a) = f (αa + βa) = f (αa) + f (βa) = α
¯ (a)
¯ f (βa) = α
¯ βf
(αβ)f (a) = f (αβa) = α
¯ y αβ = α
¯
¯ +β
¯ β.
y como f (a) es no nulo obtenemos α + β = α
Resumiendo los dos u
´ltimos resultados obtenemos:
Caracterizaci´
on de las coalineaciones
Si dim E ≥ 2 entonces, cualquier coalineaci´on en
E que preseva 0 es un automorfismo semilineal.
Combinando esto con 3.31 vemos que el caso de los reales es m´as sencillo.
Toda coalineaci´on en un espacio vectorial real de dimensi´
on dos
o m´as es un automorfismo lineal seguido por una traslaci´
on.
Capítulo cuarto
Determinantes
l determinante es cierta funci´on que a cada matriz cuadrada le hace corresponder
un elemento del campo. Todo lo que se digamos acerca de la importancia de los
determinantes en las matem´aticas es poco. Este es uno de los conceptos sin los
cuales realmente no se puede entender nada en las matem´aticas superiores. En este
cap´ıtulo daremos la definici´on de los determinantes, estudiaremos sus propiedades,
m´etodos de c´alculo y principales aplicaciones.
4.1
Permutaciones
La definici´on de determinante de una matriz pasa inevitablemente por la definici´on
del signo de una permutaci´on. El lector debe entender bien esta secci´on para poder
pasar al estudio de los determinantes.
El grupo sim´
etrico
Sea N un conjunto finito. Una permutaci´
on de N es una biyecci´on de N en N.
Al conjunto de todas las permutaciones de N lo denotaremos por SN . La composici´on
de biyecciones es una biyecci´on y toda biyecci´on tiene inversa, por lo tanto, SN es un
etrico
grupo respecto a la composici´on. Al grupo (SN , ◦) se le llama el grupo sim´
de N. Denotaremos por IN a la funci´on identidad que es el neutro de SN . Es importante recordar nuestra notaci´on de la composici´on (σ ◦ ω) (a) = σ (ω (a)) ya que la
composici´on no es conmutativa.
Si |M| = |N| entonces los grupos SM y SN son isomorfos.
Prueba.
Sean M y N son dos conjuntos del mismo
cardinal. Si ω : M → N es una biyecci´on entonces fij´andonos en el diagrama conmutativo del recuadro a la derecha
obtenemos una funci´on ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . Observemos, que ∆ tiene inversa SN 3 ρ 7→ ω−1 ρω ∈ SM .
M
ω↓
N
σ
←−
−→
ωσω−1
M
↑ ω−1
N
Cap´ıtulo 4. Determinantes
94
Adem´as, ∆ (σθ) = ωσθω−1 = ωσω−1 ωθω−1 = ∆ (σ) ∆ (θ) y por lo tanto, ∆ es
un isomorfismo de los grupos SM y SN .
El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle el nombre a los elementos de M mediante la biyecci´on δ : M → N y obteniendo
el grupo SN . En particular, el n´
umero de elementos de SN solo depende del n´
umero de
elementos en N.
El n´
umero de permutaciones de un conjunto con n elementos es n!.
Prueba. Para la prueba es m´as claro encontrar ρ (n) el n´
umero de biyecciones f :
M → N donde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos inducci´on
en n. Si i ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes
disjuntas seg´
un cual sea j = f (i). Cada parte tiene tantos elementos como biyecciones
f : M\i → N\j y por hip´otesis de inducci´on este n´
umero es (n − 1) !. Luego, ρ (n) =
n (n − 1) ! = n!.
Ejemplo. Supongamos que N = {1, 2, 3}. El
permutaciones y estas son las siguientes:
1 7→ 2
1 7→ 1
1 7→ 1
I = 2 7→ 2 , α = 2 7→ 3 , β = 2 7→ 1 , γ =
3 7→ 3
3 7→ 2
3 7→ 3
◦ α β γ δ ε
α I γ β ε δ
β δ I ε α γ
γ ε α δ I β
δ β ε I γ α
ε γ δ α β I
Ciclos y ´
orbitas
resultado anterior nos dice que hay 6
1 7→ 3
1 7→ 3
1 7→ 2
7 2 ,
7 1 , ε= 2→
2 7→ 3 , δ = 2 →
3→
7 1
3→
7 2
3 7→ 1
La permutaci´on I es la funci´on identidad que es el neutro
para la composici´on. Haciendo unos pocos c´alculos obtenemos que la tabla de composici´on de estas permutaciones es
la del recuadro. Observese que en cada rengl´on y columna
todas las entradas son diferentes. Esta propiedad se cumple
para la tabla de la operaci´on de cualquier grupo ya que no
es nada m´as que el reflejo de que (a ∗ b = a ∗ c) ⇒ (b = c).
¯
Sea M = {x0 , . . . , xn−1 } ⊆ N. A la permutaxi+1 mod n si y = xi
ci´on σ mostrada en el recuadro a la derecha se le σ (y) =
y
si y ∈
/M
llama ciclo de orden n. A esta permutaci´on se
le denotar´a por (x0 , . . . , xn−1 ). Dos ciclos (x0 , . . . , xn−1 ) y (y0 , . . . , ym−1 ) se les llama
disjuntos si ning´
un xi es igual a alg´
un yj .
Es importante notar que la composici´on de ciclos disjuntos es conmutativa (¡pru´ebelo!) pero la composici´on de ciclos en general no lo es. Tambi´en debemos notar que
debido a las propiedades de la funci´on mod n se tiene que (a, . . . , b, c) es la misma
permutaci´on que (c, a, . . . , b) , o sea, siempre podemos escoger el principio del ciclo.
Secci´on 4.1
Permutaciones
95
Sea σ ∈ SN una permutaci´on. La relaci´
on en N definida
n
por ∃n ∈ Z tal que a = σ (b) es de equivalencia.
Prueba. Tenemos a = σ0 (a) y por lo tanto es reflexiva. Si a = σn (b) y b = σm (c)
entonces a = σn+m (c) y por lo tanto es transitiva. Si a = σn (b) entonces, b = σ−n (a)
por lo que la relaci´on es sim´etrica.
A las clases de equivalencia de esta relaci´on se le llaman ´
orbitas de la permutaci´on.
La restricci´on de una permutaci´
on a una o´rbita es un ciclo.
Prueba. Supongamos que M es una ´orbita. Sea a ∈ M. Tenemos M = {σn (a) | n ∈ Z}.
El conjunto M no puede ser infinito por lo que existe un natural p m´as peque˜
no tal que
σp (b) ya apareci´o antes en la sucesi´on a, σ (a) , . . .. Observemos que σp (a) = a porque si no, habr´ıa un n´
umero k mayor que cero y menor que p tal que σp (a) = σk (a)
k
o sea, σ (a) tendr´ıa dos preimagenes diferentes σk−1 (a) 6= σp−1 (a) y esto no puede ser ya que σ es una biyecci´on. Dividiendo con resto cualquier¡ entero¢n entre p
tenemos que n = kp + r con 0 ≤ r < p. Luego, σn (a) = σr σkp (a) = σr (a)
n
| n ∈ Z¢p }. Esto quiere decir que la restricci´on de σ a M es el ciclo
¡y M = {σ (a)p−1
a, σ (a) , . . . , σ (a) .
Toda permutaci´on es composici´on de ciclos disjuntos.
Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las o´rbitas y
componerlos en cualquier orden.
Observese que la descomposici´on en ciclos disjuntos de una permutaci´on es u
´nica
salvo el orden de la composici´on.
Ejemplo. Sea σ = (1, 2, 3, 4) ◦ (4, 5) ◦ (2, 6, 3). Estos ciclos no son disjuntos y la
permutaci´on es la siguiente
1 7→ 2 , 2 7→ 6 , 3 7→ 3 , 4 7→ 5 , 5 7→ 1 , 6 7→ 4
Luego, la descomposici´on en ciclos disjuntos es σ = (1, 2, 6, 4, 5) ◦ (3).
Ejercicio 75 Tome una permutaci´on y descomp´ongala en composici´on de ciclos disjuntos. Repita el ejercicio hasta que entienda bien los conceptos de ´orbita y de descomposici´on en ciclos disjuntos.
Ejercicio 76 ¿Cuantas ´orbitas tiene un ciclo? ¿Cuantas ´orbitas tiene la identidad? Si
σ tiene k ´orbitas, ¿cuantas ´orbitas tiene σ−1 ?
Cap´ıtulo 4. Determinantes
96
El grupo alternante
Una permutaci´on se le llama par si en su descomposici´on en ciclos disjuntos hay
un n´
umero par de ciclos de orden par. En otro caso se le llama impar.
En particular, los ciclos pares son de orden impar. A los ciclos de orden 2 se les llama
transposiciones. Las transposiciones son impares. La inversa de cualquier transposici´on es ella misma.
Al componer una permutaci´on con una transposici´on la paridad de la permutaci´on cambia.
Prueba. Sea σ una permutaci´on y τ = (a, b) una transposici´on. Distingamos dos
casos: que a y b est´an en una misma o´rbita de σ o que no.
Si est´an en la misma o´rbita M entonces escogiendo el principio del ciclo en M y
renumerando los elementos de N podemos lograr que τ = (1, k) con k > 1 y que la
restricci´on de σ a M es (1, 2, . . . , n) con n ≥ k. Como τ (σ (k − 1)) = 1 y τ (σ (n)) = k,
obtenemos
(1, k) ◦ (1, 2, . . . n) = (1, . . . , k − 1) ◦ (k, . . . , n) .
Si n es par entonces, k − 1 y n − k + 1 tienen la misma paridad por lo que la paridad
de σ cambia. Si n es impar entonces k − 1 y n − k + 1 tienen diferente paridad por lo
que la paridad de σ cambia.
Si est´an en diferentes o´rbitas M1 y M2 entonces escogiendo los principios de los
ciclos en M1 , M2 y renumerando los elementos de N podemos lograr que τ = (1, k)
con k > 1 y que la restricci´on de σ a M1 es (1, . . . , k − 1) y la restricci´on de σ a M2
es (k, . . . , n). Como τ (σ (k − 1)) = k y τ (σ (n)) = 1, obtenemos que
(1, k) ◦ (1, . . . , k − 1) ◦ (k, . . . , n) = (1, 2, . . . n)
y ya vimos que (1, . . . , k − 1) ◦ (k, . . . , n) tiene paridad diferente que (1, 2, . . . n).
Con esto hemos demostrado que la paridad de τ ◦ σ es diferente a la de σ. La
demostraci´on de que a paridad de σ ◦ τ es diferente a la de σ es an´aloga.
Toda permutaci´on es composici´
on de transposiciones.
Prueba. Se comprueba f´acilmente que (x0 , . . . , xn−1 ) = (xn−1 , x0 ) ◦ . . . ◦ (x2 , x0 ) ◦
(x1 , x0 ) y esto prueba que todo ciclo se descompone en composici´on de transposiciones.
La prueba se completa porque toda permutaci´on es composici´on de ciclos.
Una permutaci´on es par si y solo si es composici´on de un n´
umero par de transposiciones.
Prueba. Las transposiciones son impares. Aplicando repetitamente 4.6 obtenemos que
las composiciones de un n´
umero par de transposiciones son pares y las composiciones
Secci´on 4.2
Determinantes. Propiedades b´asicas
97
de un n´
umero impar de transposiciones es impar. La prueba se completa con 4.7.
Hay muchas descomposiciones de una misma permutaci´on en composici´on
de transposiciones. El resultado anterior nos garantiza que en dos diferentes
descomposiciones la paridad del n´
umero de transposiciones es la misma.
Al conjunto de todas las permutaciones pares de N se le denotar´a por AN . La composici´on de dos permutaciones pares es par y la inversa de una permutaci´on par es
tambi´en par. Luego AN es un grupo para la composici´on y se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremos por A−
N . Observese
que AN y A−
tienen
la
misma
cantidad
de
permutaciones
e
igual
a
n!/2
ya que el
N
−
componer con una transposici´on fija es una biyecci´on entre AN y AN .
El signo de una permutaci´
on
En todo campo K hay dos elementos notables, 1 y −1. El primero es el neutro para
el producto y el segundo es el opuesto para la suma del primero. Observese que estos
dos elementos son diferentes si y solo si la caracter´ıstica del campo es diferente de 2.
El signo de una permutaci´on es la funci´on sgn : SN → K que es 1 si la permutaci´on es
par y es −1 si la permutaci´on es impar.
¨ sgn (π ◦ ρ) = sgn π sgn ρ
¨ sgn π−1 = sgn π
Prueba. La composici´on de dos permutaciones de la misma paridad es una permutaci´on par. La composici´on de dos permutaciones de diferente paridad es impar. Las
´orbitas de una permutaci´on no cambian al tomar la inversa.
La funci´on sgn jugar´a un papel vital en todo lo que sigue. En particular, en la
definici´on de determinante de una matriz los signos de los sumandos est´an definidos
precisamente mediante la funci´on sgn. Por esto, el lector debe familiarizarse muy bien
con la definici´on de esta funci´on y sus propiedades.
El resultado 4.9 lo que quiere decir es que la funci´on sgn : SN → K es un morfismo del
grupo SN al grupo multiplicativo del campo. Su im´agen es {1, −1} y su n´
ucleo es AN si el
campo es de caracter´ıstica diferente de dos.
4.2
¯
Determinantes. Propiedades b´
asicas
Resolvamos el sistema de ecuaciones lineales de la
izquierda. Denotemos ∆ = ad − bc. Despejando x
en la primera ecuaci´on y substituyendo en la segunda obtenemos y. Substituyendo este y en alguna de las ecuaciones
obtendremos x. Esta soluci´on es la del recuadro a la derecha.
ax + by = 1
cx + dy = 1
d−b
∆
a−c
y=
∆
x=
98
Cap´ıtulo 4. Determinantes
Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2
u + v como se muestra en la figura a la izquierda. Estos dos vectov
q res definen un paralelogramo cuyos v´ertices son 0, u, u + v, v.
R2
Queremos calcular el area de este paralelogramo. Para esto,
sea q el punto de intersecci´on de la recta u, u + v con la recta
u
0
p
x paralela al eje x que pasa por v. Sea p el punto de intersecci´on
de la recta u, u + v con el eje x. Es f´acil ver que el tri´angulo
v, q, u + v es igual al tri´angulo 0, p, u. Luego, el paralelogramo 0, u, u + v, v tiene ´area
igual a la del paralelogramo 0, v, q, p. En la figura a la dereR2 q
cha los tri´angulos p, a, u y 0, v,d tienen dos a´ngulos iguales y
v
o sea son congruentes. Por el Teorema de Tales tenemos que d
(b ÷ (a − p) = d ÷ c) ⇒ (pd = ad − cb) .
u
Sabemos que, pd es el ´area (base por altura) del paralelo- b
gramo 0, v, q, p. Luego, hemos demostrado que el area del
0
c pa x
paralelogramo 0, u, u + v, v es igual a ∆ = ad − bc.
Estos dos ejemplos nos dan una idea de la importancia del n´
umero ∆ = ad − bc
para la soluci´on de sistemas de dos ecuaciones lineales y para el c´alculo de areas en R2 .
Los determinantes son la generalizaci´on de este n´
umero a dimensiones arbitrarias.
y
Definici´
on de los determinantes
Sea N un conjunto finito. Recordemos que SN es el conjunto de todas las las permutaciones de N. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i por
la permutaci´on σ, o sea σi es una forma corta de escribir σ (i).
El determinante de una matriz αNN es por defiX
Y
nici´on el elemento del campo definido por la f´ormula det αNN =
sgn σ
αiσi
en el recuadro de la derecha. A esta f´ormula se la coσ∈ SN
i∈N
noce como f´
ormula de Leibniz.
En los cap´ıtulos anteriores ya acostumbramos al lector a las sumatorias en las
cuales el conjunto de ´ındices es un conjunto de vectores. A partir de ahora, el lector
deber´a acostumbrarse a usar sumatorias en las cuales el conjunto de ´ındices es un
conjunto de permutaciones. Es oportuno enfatizar que el orden en que se efect´
ue la
suma no es relevante ya que la suma en cualquier campo es conmutativa
Recalquemos que el determinante de una matriz est´a definido solo cuando
los conjuntos de ´ındices de renglones y columnas coinciden y son finitos.
Por este motivo en este cap´ıtulo todos los espacios ser´
an de dimensi´on
finita y todos los conjuntos de ´ındices ser´
an finitos.
Ejercicio 77 ¿Como se reescribir´ıa la definici´on de determinante usando que AN es
el conjunto de las permutaciones pares y A−
N el de las impares?.
Secci´on 4.2
Determinantes. Propiedades b´asicas
99
Determinantes de matrices peque˜
nas
Interpretemos esta definici´on para conjuntos N con pocos elementos. Si |N| = 1
entonces la matriz αNN consta de una sola entrada y su determinante es esta entrada.
µ
¶
Si, digamos N = {1, 2} entonces tenemos 2 permutaciones de N que
α11 α12 —
son I y (1, 2). A la primera le corresponde el sumando α11 α12 y a
α21 α22 +
la segunda el sumando −α12 α21 . Gr´aficamente, cuando N = {1, 2} el
determinante es la suma de los dos productos que se muestran en el recuadro.
Pongamos ahora N = {1, 2, 3}. Hay 6 permutaciones de N y estas son I, (1, 2, 3),
(1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden
⎞
con los tres sumandos α11 α22 α33 , α12 α23 α31 y α13 α21 α32 . Gr´afica- ⎛
α11 α12 α13
mente, estos tres sumandos se pueden representar por la diagonal ⎝
α21 α22 α23 ⎠
principal de la matriz y los dos “tri´angulos” con lados paralelos
α31 α32 α33
a esta diagonal como se muestra en el recuadro de la derecha.
Las otras tres permutaciones tienen signo negativo y se corresponden con los suman⎛
⎞ dos −α11 α23 α32 , −α12 α21 α33 y −α13 α22 α31 . Gr´aficamente, estos
α11 α12 α13
⎝α21 α22 α23 ⎠ tres sumandos se pueden representar por la diagonal alterna de la
matriz y los dos “tri´angulos” con lados paralelos a esta diagonal
α31 α32 α33
como se muestra en el recuadro de la izquierda.
El n´
umero de sumandos en la definici´on del determinante es |SN | = |N| !. Este
n´
umero crece r´apidamente con |N| como se ve en la siguiente tabla
5
6
7
8
9
10
n 1 2 3 4
0
n! 1 2 6 24 120 720 5, 040 40, 320 362, 880 3 628, 800
Por esto, calcular determinantes con directamente de la definici´on es muy ineficiente.
El determinante de la identidad
Ya vimos que el conjunto de matrices αNN es un ´algebra respecto al producto y
suma de matrices y multiplicaci´on por elementos del campo. El elemento neutro para
¯
el producto lo llamamos matriz identidad, denotamos INN y
1 si i = j
es la matriz cuyas entradas son iguales al delta de Kronecker δij = 0 si i 6= j
δij definido en el recuadro a la derecha. Cuando el conjunto de
¶ ´ındices est´a ordenado, la matriz identidad se puede representar gr´aficaµ
1 0
mente como una que tiene unos en la diagonal y ceros en todas las dem´as
0 1
entradas como se muestra en el recuadro a la izquierda para una matriz
de dos renglones y columnas.
El determinante de la matriz identidad es 1.
det INN = 1
Prueba. Si la permutaci´on σ ∈ SN no es la identidad entonces hay un i ∈ N tal que
Cap´ıtulo 4. Determinantes
100
i 6= σi y por lo tanto
Q
δiσi
i∈NX
det INN =
σ∈ SN
= 0. Luego,
Y
Y
sgn σ
δiσi = sgn (IN )
δii = 1.
i∈N
i∈N
Matrices con filas nulas
Si una matriz tiene una columna o un rengl´on nulo entonces, su determinante es cero.
Q
Prueba. Cada sumando de los determinantes i∈N αiσi contiene como factor una
entrada de cada rengl´on. Si un rengl´on es nulo entonces, todos estos sumandos tienen
un factor cero y por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las
columnas.
El determinante de la transpuesta
Dada una matriz αMN su transpuesta se define
⎛
como la matriz βNM = αT
aficaα11 α12
MN tal que βij = αji . Gr´
mente la operaci´on de transponer una matriz es hacer ⎜α21 α22
⎜
una reflexi´on con respecto a la diagonal de la matriz. ⎝α31 α32
Observese que el conjunto de ´ındices de los renglones
α41 α42
de la matriz αT
ıa pensar
NM es M y no N como se podr´
de los sub´ındices. La notaci´on es as´ı porque pensamos
la transpuesta como la aplicaci´on de la operaci´on de transposici´on.
El determinante no se altera al transponer una matriz.
α13
α23
α33
α43
⎞
α14
α24 ⎟
⎟
α34 ⎠
α44
T
det A = det AT
Prueba. Tenemos que demostrar que det αNN = det αTNN . Efectivamente, por la
definici´on
¸
∙
X
X
Y
Y
cambio de variable
T
det αNN =
=
sgn σ
ασi i =
sgn ω
αω − 1 (i)i =
−1
ω=σ
σ∈
S
ω∈
S
i∈N
i∈N
N
¸
∙ N
X
Y
cambio de variable
=
sgn ω
αjω j = det αNN .
=
j = ω−1 (i)
ω∈ SN
j∈N
El determinante del producto
La siguiente propiedad b´asica de los determinantes es probablemente la m´as importante para el ´algebra lineal. Como la demostraci´on de esta propiedad es laboriosa, le
recomiendo al lector omitirla en una primera lectura. La complejidad de esta demostraci´on es el precio que tenemos que pagar por dar una definici´on directa del determinante.
Secci´on 4.2
Determinantes. Propiedades b´asicas
101
Teorema del determinante del producto
El determinante del producto de dos matrices es igual
al producto de los determinantes de las dos matrices.
det AB = det A det B
Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostraci´on denotemos
por FN el conjunto de todas las funciones de N en N. Claramente SN ⊂ FN . Sea,
def
adem´as, TN = FN \ SN el conjunto de todas las funciones no biyectivas de N en N.
Por la definici´on de determinanteX
y de producto
Y Xde matrices tenemos
det AB =
sgn σ
αij βjσi
y usando la f´ormula
det AB =
Q
X
σ∈ SN
i∈N
σ∈ SN
P
j∈N γij =
sgn σ
X Y
P
ω∈ FN
i∈N
Q
j∈N
i∈N
αiω i βω i σi +
ω∈ TN i∈N
γiω i (Sec. 1.6, p´ag. 22) obtenemos
X
σ∈ SN
sgn σ
X Y
αiω i βω i σi
ω∈ SN i∈N
Denotando por ∇ el primer sumando nuestro∙determinante se convierte
¸ en
X Y
X
cambio de variable
sgn σ
αiω i βω i σi =
=
=∇+
σ=ρ◦ω
σ∈ SN
ω∈ SN i∈N
∙
¸
Y
Y
X X
cambio de var
=
sgn (ρ ◦ ω)
αiω i
βω j ρ(ω j ) =
=∇+
k = ωj
ρ∈ SN ω∈ SN
i∈N
j∈N
!
Ã
!
Ã
X
Y
Y
X
sgn ω
αiω i
sgn ρ
βkρk = ∇ + det A det B
=∇+
ω∈ SN
ρ∈ SN
i∈N
k∈N
O sea, para completar la demostraci´on tenemos que probar que ∇ = 0. Para esto
recordemos que AN es el subgrupo de las permutaciones pares e A−
N es el conjunto de
todas las permutaciones impares.
detenidamente la definici´on de ∇
XSi observamos
X
Y
∇=
sgn σ
αiω i βω i σi
ω∈ TN σ∈ SN
i∈N
vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyecci´on
f : AN → A−
N tal que si θ = f (σ) entonces,
Y
Y
αiω i βω i σi =
αiω i βω i θi
i∈N
i∈N
Esto nos garantizar´a que cada sumando positivo se cancele con otro negativo.
Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyecci´on existen j, k ∈ N
tales que ω (j) = ω (k) . Sea t ∈ A−
on que intercambia j y k. Sea
N la transposici´
−
f : AN 3 σ 7→ σ ◦ t ∈ AN . La funci´on f es biyectiva ya que su inversa es θ 7→ θ ◦ t.
Adem´
as, tenemos
Y
Y
Y
αiω i βω i (σ◦t)i = αjω j βω j σk αkω k βω k σj
αiω i βω i σi =
αiω i βω i σi
i∈N
i∈N\{j,k}
donde la u
´ltima igualdad es v´alida porque ωj = ωk .
i∈N
102
Cap´ıtulo 4. Determinantes
Matrices con filas iguales
Si una matriz tiene dos columnas o dos renglones iguales entonces su determinante es cero.
Prueba. Supongamos que para αNN se tiene que αjM = αkM o sea, los renglones j y
k son iguales. Todo sumando del determinante depende exactamente de una entrada
en el rengl´on j y de otra en el rengl´
on j. Luego, podemos
X
Y escribir
det αNN =
αjσj αkσk sgn σ
αiσi .
σ∈ SN
i∈N\{j,k}
Denotemos ρ la transposici´on (j, k). La funci´on Φ : SN 3 σ 7→ σ ◦ ρ ∈ SN es una
biyecci´on y el sumando correspondiente a σ ◦ ρ esY
igual a
αjσk αkσj sgn (σ ◦ ρ)
αiσi
i∈N\{j,k}
pero como αjσk = αkσk y αkσj = αjσj entonces, αjσk αkσj sgn (σ ◦ ρ) = −αjσj αkσk sgn σ.
Esto significa que Φ es una biyecci´on que transforma a un sumando en su negativo y
por lo tanto det αNN = 0. La prueba para las columnas se obtiene transponiendo la
matriz.
Matrices de permutaciones
¯
Sean M y N dos conjuntos finitos y φ : M → N una
1 si j = φ (i)
biyecci´on. Denotaremos por φMN a la matriz cuyas en- φij =
0 en otro caso
tradas est´an definidas como en el recuadro. A esta matriz
la llamaremos matriz de la biyecci´
on φ. Como φ es una biyecci´on entonces la matriz
φMN tiene la misma cantidad de renglones y de columnas. Adem´as, en cada columna
y cada rengl´on de φMN hay exactamente una entrada igual a 1 y las dem´as son cero.
Haremos un buen uso de las matrices de biyecciones en la pr´oxima secci´on. Aqu´ı estaremos interesados solo en el caso particular cuando N = M, o sea, que φ es una
permutaci´on. En este caso a φNN se le llama matriz de la permutaci´
on φ.
Si φ y σ son dos permutaciones de N entonces, el producto φNN σNN
de las matrices de permutaciones es la matriz de la permutaci´on σ ◦ φ.
def
Prueba. Denotemos γNN = φNN σNN . Tenemos
¯ que
X
1 si j = σ (φ (i))
φik σkj = σφ(i)j =
γij =
0 en otro caso
k∈N
y esta es la definicion de la matriz de la permutaci´on σ ◦ φ.
El resultado anterior se puede escribir de forma corta como φNN σNN = (σ ◦ φ)NN .
¿Qu´e querr´a decir φ−1
NN ? Hay dos formas de interpretarlo y en el siguiente resultado se
Secci´on 4.2
Determinantes. Propiedades b´asicas
103
demuestra que ambas producen la misma matriz.
La matriz de la inversa de una permutaci´
on es
igual a la inversa de la matriz de la permutaci´
on.
¡ −1 ¢
φ NN = (φNN )−1
−1
Prueba. Sea φ una permutacion
¡ −1
¢ φNN su matriz y γNN la matriz−1de φ . Por 4.15
tenemos que φNN γNN = φ ◦ φ NN = INN . O sea, γNN = (φNN ) .
Ejercicio 78 ¿Cual es la TL de la matriz de una permutaci´on? ¿Que tienen que ver
4.15 y 4.16 con que la correspondencia entre matrices y TL es un morfismo de a´lgebras?
Ejercicio 79 Demuestre que la transpuesta de la matriz de la permutaci´on φ es la
matriz de la permutaci´on φ−1 .
¡ ¢
¡
¢
Ejercicio 80 Pruebe que (AB)T = BT AT y AT −1 = A−1 T .
det φNN = sgn φ
El determinante de la matriz de una permutaci´on es igual al signo de la permutaci´
on.
Prueba. Sea φ una permutaci´on y φNN
Xsu matriz.
Y Por definici´on tenemos que
det φNN =
sgn σ
φiσi .
σ∈ SN
i∈N
Por otro lado, por definici´on de φNN tenemos
que
¯
Y
1 si σ = φ
φiσi =
.
0 en otro caso
i∈N
Usando estas dos igualdades obtenemos la prueba.
Permutaciones de columnas y renglones
Bueno, ¿y qu´e pasa si multiplicamos una matriz arbitraria por una matriz de permutaciones?
Sea αMN cualquier matriz y φNN la matriz de la permutaci´on φ.
El resultado del producto αMN φNN es la matriz αMN a la que
se le han permutado las columnas usando la permutaci´
on φ.
Prueba. Sea γMN = αMN φNN . Tenemos
X
γij =
αik φkj = αiφ − 1 (j)
k∈N
y por lo tanto γMj = αMφ − 1 (j) o lo que es lo mismo γMφ(j) = αMj . M´as descriptivamente,
Cap´ıtulo 4. Determinantes
104
la columna j de la matriz αMN tiene ´ındice φ (j) en la matriz γMN .
En este recuadro se ilustra graficamente que es lo que pasa
⎛
⎞ cuando se permuta una matriz gen´erica de 4 renglones y
α11 α12 α13 α14
⎜α21 α22 α23 α24 ⎟ columnas usando la permutaci´on 1 7→ 2 7→ 4 7→ 1. Los
⎜
⎟
⎝α31 α32 α33 α34 ⎠ principios de las flechas marcan las columnas que se mover´an
y los finales de las flechas marcan el lugar donde quedar´an
α41 α42 α43 α44
las columnas.
Al permutar las columnas de una matriz con la permutaci´on
φ, el determinante se multiplica por un factor igual a sgn φ.
Prueba. Al permutar la columnas lo que estamos haciendo es multiplicar la matriz
por la matriz de φ. Por 4.17 el determinante de la matriz de φ es igual al signo de φ.
Usando el Teorema del determinante del producto concluimos la demostraci´on.
¿Qu´e pasa con los renglones? Pues lo mismo, solo hay que multiplicar por el otro lado. El lector puede modificar los razonamientos anteriores para el caso de los renglones.
Tambi´en puede tomar la via r´apida: permutar los renglones de una matriz es lo mismo
¢T
¡
= φT
que permutar las columnas de la transpuesta y entonces αT
MM αMN =
MN φMM
−1
φMM αMN (v´eanse los ejercicios 79 y 80). Esto quiere decir que si multiplicamos por
la izquierda con la matriz de permutaciones φ−1
MM entonces los renglones se permutan
mediante la permutaci´on φ y el determinante cambia igual (ya que sgn φ = sgn φ−1 ).
4.3
Expansi´
on de Laplace
En esta secci´on encontraremos una descomposici´on de los determinantes como una
combinaci´on lineal de determinantes de matrices m´as peque˜
nas. Despu´es veremos importantes consecuencias de esta expansi´on, en particular que una matriz tiene inversa
si y solo si esta tiene determinante diferente de cero.
Cambios de ´ındices
Sea αMN una matriz y φ : N → L una biyecci´on. Sea φNL la matriz de la biyecci´on
φ (v´ease la p´agina 102). Podemos construir una matriz βML por la f´ormula βML =
αMN φNL . A esta operaci´on la llamaremos cambio de ´ındices de las columnas de
la matriz αMN mediante la biyecci´on φ. De la misma manera se definen los cambios
de ´ındices de los renglones. Observese que las permutaciones de las columnas y los
renglones son un caso particular de los cambios de ´ındices cuando N = L. Si N 6= L
entonces, podemos pensar que hacer un cambio de ´ındices de las columnas es darle
nuevos nombres a estas.
Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas
coinciden. A este n´
umero com´
un se le llama orden de la matriz. Necesitaremos los
Secci´on 4.3
Expansi´on de Laplace
105
cambios de ´ındices para definir los determinantes de las matrices cuadradas. As´ı, si
φ : N → M es una biyecci´on entonces, podr´ıamos definir det αMN = det αMN φNM . El
u
´nico “pero” es que, en principio, esta definici´on no solo depende de la matriz αNM
sino tambi´en de la biyecci´on φ. El cuanto depende esta definici´on de φ lo responde la
siguiente proposici´on.
Si φ y ϕ son dos biyecciones
de N
¡
¢ en M entonces, det αMN φNM = sgn φ ◦ ϕ−1 det αMN ϕNM .
Prueba. Usando Teorema del determinante del producto (4.13) obtenemos que
−1
det αMN φNM = det αMN ϕNM ϕ−1
NM φNM = det αMN ϕNM det ϕNM φNM
Ahora, observese que φ ◦ ϕ−1 es una permutaci´on de M y que la matriz
de¢esta per¡
−1
mutaci´on es ϕNM φNM cuyo determinante es igual (por 4.17) a sgn φ ◦ ϕ−1 .
No podemos poner la conclusi´on de este resultado como sgn φ det αMN φNM =
sgn ϕ det αMN ϕNM ya que como φ y ϕ son biyecciones de N en M ninguna
de las dos tiene signo.
Como el signo de cualquier permutaci´on es o 1 o −1 esto quiere decir que el determinante det αNM est´a definido “salvo signo” o sea, que hay un elemento a ∈ K tal que
el determinante es a o es −a. En un campo de caracter´ıstica dos esto es irrelevante ya
que en este caso 1 = −1. Sin embargo en los casos m´as importantes (R y C) de que
el campo sea de caracter´ıstica diferente de dos tenemos una ambig¨
uedad al definir el
determinante det αNM .
Esta ambig¨
uedad se resuelve en diferentes casos de varias maneras. En muchos casos
no nos interesa el valor concreto det αMN sino solamente saber si es cierto o no que
det αMN = 0. Si este es el caso entonces, en realidad no nos importa que biyecci´on
se escogi´o para calcular el determinante. Por ejemplo, una matriz cuadrada αMN se
le llama singular si det αMN = 0, en el caso contrario se le llama no singular. Es
claro, que el ser singular o no singular NO depende de la biyecci´on escogida para definir
det αMN . Otro ejemplo, es que si una matriz tiene una columna o rengl´on nulo entonces
su determinante es cero.
En otros casos lo importante no es el valor de alg´
un determinante sino una igualdad
entre estos. Al cambiar los ´ındices en ambos lados de la igualdad los determinantes
cambian en el mismo signo y la igualdad es cierta independientemente de los cambios de
´ındices escogidos. Por ejemplo, las igualdades det αMN = det αTMN y det (αLM βMN ) =
det αLM det βMN son v´alidas independientemente de los cambios de ´ındices usados para
definir los determinantes.
En otros casos hay una biyecci´on natural que nos dice cual debe ser el valor de
det αMN . Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales.
En este caso podemos siempre escoger la u
´nica biyecci´on que conserva el orden. Por
106
Cap´ıtulo 4. Determinantes
ejemplo si N = {2, 3, 7} y M = {1, 4, 5} entonces la biyecci´on es 2 → 1, 3 → 4, 7 → 5.
¿Y por que no escoger de los dos posibles valores el que sea mayor que cero?
Primero, a veces se necesita el valor del signo del determinante y segundo
¿qu´e quiere decir que 0 < x ∈ Z5 ? La desigualdad 0 < x solo tiene sentido si
el campo est´a ordenado. Este es el caso de R pero no el de Zp ni el de C.
En muchos de los textos de ´algebra lineal esta ambig¨
uedad se resuelve postulando que los
conjuntos de ´ındices siempre tienen que ser conjuntos de naturales. Esto no solamente es
innecesario, sino que tambi´en hace la exposici´
on m´as compleja y conceptualmente menos
clara. Por ejemplo, las matrices de cambio de base est´an naturalmente indexadas por conjuntos de
vectores que no poseen un orden natural.
Complementos algebraicos
Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual
todo es m´as f´acil. Sea αNN una matriz y sean i, j ∈ N. La matriz αN\i N\j se obtiene
de la matriz αNN eliminando el rengl´on i y la columna j. ¿Habr´a una manera natural
de definir el determinante de αN\i N\j ?. Veremos que si.
Sea ϕ : N\j → N\i. una biyecci´on cualquiera. Podemos definir ϕ (j) = i y de
esta manera ϕ se convierte en una permutaci´on de N. sgn ϕ det α
N\i N\j ϕN\jN\i
Definamos el determinante det αN\i N\j con la expresi´on
del recuadro a la derecha. Parecer´ıa que no hemos hecho nada ya que en principio esta
definici´on depende de ϕ.
La expresi´
on sgn ϕ det αN\i N\j ϕN\jN\i no depende de ϕ.
Prueba. Sea ω otra permutaci´on de N tal que ω (j) = i. Aqu´ı hay que tener cuidado.
Por un lado ω es una biyecci´on de N\j en N\i y por otro es una permutaci´on de
N. Otro tanto ocurre con ϕ. Para evitar confusiones, a las permutaciones de N las
denotaremos en esta demostraci´
on ¢por ω
^ yϕ
^ respectivamente. Por 4.20 tenemos que
¡
det αN\i N\j ϕN\jN\i = sgn ϕ ◦ ω−1 det αN\i N\j ωN\jN\i . Observese que ϕ◦ω−1 es una
permutaci´on de N\i. ¿Que pasa con ω
^ ◦ϕ
^ −1 ? Pues, ¡en todo elemento
¢
¡de N\i−1coincide
¢
−1
−1
−1
con ω ◦ ϕ y adem´as ϕ
^ ◦ω
^ (i) = i. Luego sgn ϕ ◦ ω
= sgn ϕ
^ ◦ω
^
y por
¡
¢
−1
las propiedades de la funci´on signo se tiene que sgn ϕ
^ ◦ω
^
= sgn ϕ
^ sgn ω.
^ Luego
det αN\i N\j ϕN\jN\i = sgn ϕ
^ sgn ω
^ det αN\i N\j ωN\jN\i y pasando sgn ϕ
^ al otro lado de
la igualdad terminamos la prueba.
Ahora, podemos dar la siguiente definici´on. Si αij es una entrada de la matriz A =
αNN entonces el complemento algebraico de αij es α∗ij = sgn ϕ det αN\i N\j ϕN\jN\i
donde ϕ es cualquier permutaci´on de N tal que ϕ (j) = i. A los complementos algebraicos tambi´en se les llama cofactores. La matriz α∗NN cuyas entradas son los
complemento algebraicos α∗ij es la matriz de los complementos algebraicos de
αNN o matriz de cofactores de αNN .
Secci´on 4.3
Expansi´on de Laplace
107
La expansi´
on de un determinante por sus renglones
Teorema de Expansi´
on de Laplace
det αNN =
Sea αiN un rengl´
on arbitrario de la matriz αNN .
El determinante de αNN es igual a la suma de las
entradas del rengl´
on por sus cofactores.
σ∈ SiN→ j
αij α∗ij
j∈N
Prueba. Si i ∈ N entonces tenemos la partici´on del grupo sim´etrico en el
recuadro a la derecha donde Si→j
= {σ ∈ SN | σ (i) = j} . Luego, aplicando
N
la definici´on de determinante y sacando factor com´
un obtenemos
X
Y
X
det αNN =
αij
sgn σ
αnσn
j∈N
X
[
Si→j
N
j∈N
n∈N\i
Sea ω una permutaci´on de N tal que ω (j) = i. Hagamos el cambio de variable
ρ = ω ◦ σ en la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→i
N = SN\i . Luego,
X
X
Y
αij sgn ω
sgn ρ
αnω − 1 (ρn )
det αNN =
=
X
j∈N
ρ∈ SN \ i
n∈N\i
αij sgn ω det αN\i N\j ωN\jN\i =
j∈N
X
αij α∗ij
j∈N
donde la u
´ltima igualdad se obtiene por la definici´on de α∗ij .
Como es natural hay un teorema exactamente igual a este correspondiente a las
columnas. El lector debe observar que este teorema se expresa en forma m´as compacta
usando el producto escalar can´onico de N-adas: det αNN = αiN α∗iN .
La expansi´
on de Laplace en forma gr´
afica
El Teorema de expansi´on de Laplace es la primera herramienta (aparte de la definici´on) de que disponemos para calcular determinantes. Este reduce el problema a
calcular varios determinantes de matrices m´as peque˜
nas. Es especialmente u
´til cuando
hay renglones (o columnas) con muchos ceros.
Sin embargo, todav´ıa debemos precisar el como calcular los cofactores en forma
gr´afica. Si bien, la definici´on de estos es sencilla necesitamos una biyecci´on simple de
N\i en N\j que facilite los c´alculos cuando N est´a ordenado o sea N = {1, ..., n}.
Sea por ejemplo i = 2 y j = 7. En este caso, la biyec1 3 4 5 6 7 8 ... n
ci´on natural de N\2 en N\7 es la que se muestra en
↓ ↓ ↓ ↓ ↓ ↓ ↓
↓
el recuadro y la llamaremos ϕ. Tenemos que definir
1 2 3 4 5 6 8 ... n
ϕ (2) = 7 para completar una permutaci´on de N.
Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos
los dem´as elementos de N. Luego, ϕ es un ciclo de longitud j − i + 1 (si i > j entonces
es un ciclo de longitud i − j + 1).
108
Cap´ıtulo 4. Determinantes
⎞
Como todo ciclo de orden par tiene signo negativo y todo de ⎛
+ − + −
i+j
orden impar tiene signo positivo obtenemos sgn ϕ = (−1) lo ⎜
− + − + ⎟
⎟
que es muy sencillo ya que es la “regla del tablero de aje- ⎜
⎝ + − + − ⎠
drez”. A la derecha se muestra el sgn ϕ para una matriz con 4
− + − +
renglones y columnas. Observese el parecido con el tablero.
Con estas permutaciones, los complementos algebraicos tienen una interpretaci´on
gr´afica muy sencilla. Si se quiere sacar el complemento algebraico de αij entonces
⎛
⎞ t´achese el rengl´on i, t´achese la columna j, s´aquese
el determinante de la matriz que queda y finalmente
α11 α12 α13 α14
⎜ α21 α22 α23 α24 ⎟ multipl´ıquese por el signo de la regla del tablero de
⎟
− det ⎜
⎝ α31 α32 α33 α34 ⎠ ajedrez. As´ı por ejemplo, en el recuadro se muestra una matriz de orden cuatro en la cual estamos
α41 α42 α43 α44
calculando el complemento algebraico de α23 .
Al matem´atico y f´ısico Pierre-Simon Laplace (Francia 17491827) se le conoce fundamentalmente por sus trabajos en mec´anica celeste, ecuaciones diferenciales y teor´ıa de las probabilidades. El public´o la demostraci´on del Teorema de Expansi´on
de Laplace (4.22) en 1772 en un art´ıculo donde estudiaba las
´orbitas de los planetas interiores del sistema solar. En este
art´ıculo, Laplace analiz´o el problema de soluci´on de sistemas
de ecuaciones lineales mediante el uso de determinantes.
Ejercicio 81 T´ome una matriz y calcule su determinante usando el teorema de descomposici´on de Laplace. Repita hasta que usted est´e satisfecho.
Ejercicio 82 Demuestre que el determinante de la matriz αij = Y
xi−1
es igual a la expresi´on en el recuadro a la derecha. A este
(xj − xi )
j
determinante se le conoce como determinante de Vandermonde 1≤i<j≤n
y la matriz tiene el mismo nombre. [191]
La expansi´
on de Laplace reduce el c´alculo del determinante de una matriz al c´alculo de determinantes de matrices m´as peque˜
nas. Por esto es tambi´en usada para dar la definici´
on de
determinante mediante inducci´
on. En este caso, la f´
ormula de Leibniz es una consecuencia
de esta definici´
on.
Multinearidad de los determinantes
El determinante se puede ver como una funci´on del espacio de matrices en el campo.
¿Ser´a el determinante una TL? ¿Se cumplir´a que det (A + B) = det A + det B? La
respuesta es NO. Para probar que no, basta ver un ejemplo. Para las siguientes matrices
µ
¶
µ
¶
1 0
0 0
A= 0 0 ,B= 0 1
Secci´on 4.3
Expansi´on de Laplace
109
tenemos det A + det B = 0 6= 1 = det (A + B). Sin embargo, los determinantes cumplen
una propiedad bastante parecida.
Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama
funcionales lineales del espacio E. En esta terminolog´ıa vemos que la propiedad
det (A + B) 6= det A + det B lo que quiere decir es que el determinante NO es un
funcional lineal del espacio vectorial de las matrices. Pasemos a considerar una funci´on
f con valor en K de dos variables x, y que toman sus valores en E o sea, f : E2 3 (x, y) 7→
f (x, y) ∈ K. Como E2 es un espacio vectorial sobre K entonces podr´ıa suceder que f
sea un funcional lineal. Sin embargo, hay una propiedad un poco m´as sutil que podr´ıa
cumplir la funci´on f y es que sea lineal en la primera variable. En otras palabras,
que ∀y ∈ E se cumple que f (a + b, y) = f (a, y) + f (b, y) y f (λa, y) = λf (a, y).
An´alogamente, se define la propiedad de que f sea lineal en la segunda variable.
Si f es lineal en las dos variables entonces, se dice que f es un funcional bilineal (el
“bi” es porque son dos variables).
Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo
caso nos referiremos a los funcionales multilineales. M´as rigurosamente, sea f :
EN → K una funci´on donde N es un conjunto de variables. Sea i ∈ N una variable.
Podemos pensar a f como una funci´on de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i
la funci´on E 3 x 7→ f (y, x) ∈ K es un funcional lineal entonces, diremos que f es
lineal en la variable i. Diremos que f es un funcional multilineal si f es lineal en
todas sus variables. Por ejemplo, la funci´on f : R3 3 (x, y, z) 7→ x + y + z ∈ R es un
funcional lineal. La funci´on g : R3 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal
porque (x + x0 ) yz = xyz + x0 yz y tambi´en para las otras variables. Observese que f
no es multilineal y que g no es lineal.
Ahora queremos ver que los determinantes son funcionales multilineales. El espacio
¡ ¢N
de matrices KNN es isomorfo a KN . Un isomorfismo de estos es el que a cada matriz
le hace corresponder la N-ada de sus renglones. Luego, podemos pensar el determinante
como un funcional cuyas variables son los renglones y que toma valores en el campo.
El determinante es un funcional multilineal de los renglones.
Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en
cada variable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una
matriz tal que su i-´esimo rengl´on es la suma de dos N-adas xN y yN . Sea B la misma
matriz que A excepto que su i-´esimo rengl´on es xN . Sea C la misma matriz que A
excepto que su i-´esimo rengl´on es yN . Tenemos que probar que det A = det B + det C.
(Si el lector no entiende porqu´e entonces, debe regresar al principio de esta secci´on y
volver a pensar en la definici´on de funcional multilineal.) Usando la descomposici´
on de
Laplace por el rengl´on i obtenemos
det αNN = αiN α∗iN = (xN + yN ) α∗iN = xN α∗iN + yN α∗iN = det B + det C
donde la u
´ltima igualdad se cumple porque los cofactores de las de las las entradas del
110
Cap´ıtulo 4. Determinantes
rengl´on i son los mismos en las matrices A, B y C (recuerdese que hay que “tachar” el
rengl´on i).
Sea ahora A = αNN una matriz tal que su i-´esimo rengl´on es λxN . Sea B la misma
matriz que A excepto que su i-´esimo rengl´on es xN . Usando la descomposici´on de
Laplace por el rengl´on i obtenemos det αNN = αiN α∗iN = λxN α∗iN = λ det B.
Por transposici´on el determinante es tambi´en multilineal en las columnas.
Los determinantes son los u
´nicos funcionales multilineales de los renglones que son iguales
a 1 en la matriz identidad y que cambian por un factor de sgn θ cuando se permutan
los renglones con la permutaci´
on θ. Esto permite dar una definici´
on alternativa de los
determinantes. El primer problema aqu´ı es demostrar la existencia del determinante.
La inversa de una matriz
Recordemos que, dada una matriz αMN decimos que α−1
MN es la matriz inversa de
−1
−1
αMN si se cumple que αMN αMN = IMM y αMN αMN = INN . Mediante el isomorfismo
de las matrices con las TLs concluimos que αMN y α−1
MN son la matrices de dos TLs
una la inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene
inversa entonces, ella es cuadrada.
Si las matrices βNL y αMN tienen inver−1
sa entonces, (αMN βNL )−1 = β−1
NL αMN .
(AB)−1 = B−1 A−1
Prueba. Usando el isomorfismo de las matrices con las TL la prueba se reduce a la
ya conocida por nosotros igualdad (f ◦ g)−1 = g−1 ◦ f−1 .
Sea ϕ : N → M cualquier biyecci´on y ϕNM la matriz de esa biyecci´on. La matriz
ϕNM siempre tiene inversa e igual a la matriz de la biyecci´on ϕ−1 . Usando el resultado
anterior obtenemos que ϕNM (αMN ϕNM )−1 = α−1
ındices
MN .O sea, cualquier cambio de ´
apropiado reduce el c´alculo de matrices inversas al caso en que el conjunto de columnas
coincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ´ındices
para poder enunciar m´as f´acilmente nuestros resultados.
La siguiente proposici´on nos dice que en ciertos casos para probar que una matriz
es inversa de otra es suficiente comprobar una de las dos igualdades involucradas en
la definici´on. Aqu´ı, la clave es que las matrices son finitas y cuadradas lo que significa
que sus TLs son entre espacios de la misma dimensi´on finita.
Si AB = I entonces, BA = I.
Prueba. Sean f, g : KM → KM las TLs de las matrices A y B respectivamente.
Mediante el isomorfismo de las matrices con las TLs concluimos que f ◦ g = I. De 3.29
(p´agina 85) obtenemos que g ◦ f = I y por lo tanto BA = I.
Secci´on 4.3
Expansi´on de Laplace
111
Si una matriz tiene inversa entonces ella es
no singular. Adem´as, det A−1 = (det A)−1 .
Prueba. Por definici´on de matriz
inversa
y el Teorema del determinante del producto
¡
¢
tenemos que 1 = det I = det AA−1 = det A det A−1 . De esta igualdad obtenemos que
det A 6= 0 y det A−1 = (det A)−1 .
Para probar que el rec´ıproco de esta afirmaci´on tambi´en es cierto, lo que haremos
es construir la matriz inversa en el caso de que el determinante sea diferente de cero.
Si A es una matriz no singular entonces, su
inversa es la transpuesta de la matriz de sus
cofactores dividida por el determinante de A.
A−1 =
A∗T
det A
Prueba. Para hacer la demostraci´on lo que hay que hacer es multiplicar. Sea αMM =
A y B = βMM = (det A)−1 A∗T . Tenemos βMj = (det A)−1 α∗jM y de la definici´on
de producto de matrices obtenemos que la entrada ij de la matriz AB es igual a
αiM βMj = (det A)−1 αiM α∗jM . Si i = j entonces αiM α∗jM es la expansi´on de Laplace del
det A por el rengl´on i de lo que obtenemos que αiM βMj = 1.
Solo queda probar que αiM α∗jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que
esta es la expansi´on de Laplace por el rengl´on j del determinante de la matriz C obtenida
de la matriz A substituyendo el rengl´on j por el rengl´on i. Como la matriz C tiene dos
renglones iguales entonces, su determinante es cero y necesariamente αiM α∗jM = 0.
El determinante de un operador lineal
Sea f ∈ End E un OL. Si escogemos una base de E entonces en esta base el OL f
tiene por coordenadas una matriz A. Podr´ıamos definir det f = det A. Sin embargo, no
nos queda claro si esta definici´on depende o no de como hallamos escogido la base.
Si A y B son las matrices de f ∈ End E
en dos bases entonces, det A = det B.
Prueba. Sean A = αMM y B = βNN las matrices de f en las bases M y N respectivamente. Por la f´ormula del cambio de bases para matrices (3.23) tenemos B = γNM Aγ−1
NM
donde γNM es la matriz
de
cambio
de
la
base
M
a
la
base
N.
Tenemos
¡
¢
−1
det βNN = det γNM αMM γ−1
NM = det γNM det αMM det γNM = det αMM
ya que por 4.26 la igualdad det γNM (det γNM )−1 = 1 es cierta e independiente del
cambio de ´ındices que se utilize para definir el determinante de γNM .
112
Cap´ıtulo 4. Determinantes
El determinante de un OL f ¡en un espacio de dimensi´on finita! es por
definici´on el determinante de su matriz en alguna base y este escalar no
depende de la base escogida.
Esta definici´on nos permite traducir propiedades de las matrices a los OLs. Por
ejemplo, un OL es biyectivo si y solo si su determinante es diferente de cero.
El determinante de un OL en Rn tiene una importante interpretaci´
on geom´etrica: Si A es
un subconjunto de Rn que tiene “volumen n-dimensional” (su medida de Lebesgue) igual
a vol A ∈ R+ y f es un OL entonces vol f (A) = |det f| vol A. En particular, los OLs de
determinante 1 o −1 son los que “preservan el volumen”. Si el lector se intimida con lo de “volumen
n-dimensional”, entonces es mejor que piense en el area en el plano R2 .
El signo del determinante de un OL en Rn tiene otra importante interpretaci´
on geom´etrica.
El espacio Rn es un espacio “orientado”. Esto, intuitivamente, lo que quiere decir es que por
mucho que alquien trate de convertir su mano derecha en su mano izquierda no lo lograr´a,
a menos que use un espejo. Matem´aticamente, las reflexiones invierten la “orientaci´
on” del espacio.
Todo lo que es derecho se convierte en izquierdo y rec´ıprocamente. Por eso las reflexiones tienen en
R3 determinante negativo. Los OLs en Rn que tienen determinante positivo son los que preservan la
“orientaci´on” y los que tienen determinante negativo son los que invierten la “orientaci´
on”
4.4
La expansi´
on generalizada de Laplace
Ahora generalizaremos dram´aticamente el teorema de expansi´on de Laplace. Sea
αNN una matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnos
mucha escritura, denotemos I0 = N\I y J0 = N\J. Adem´as, denotemos por ∇IJ =
det αIJ el determinante de la matriz cuyas columnas son las de J y cuyos renglones
son los de I. Claro, este determinante est´a definido solo salvo signo. De los signos
no nos preocuparemos ahora sino solo m´as adelante. Por otro lado, denotemos por
∆IJ = det αI0 J0 el determinante de la matriz cuyas columnas son las que no est´an en
J y cuyos renglones son los que no est´an en I (no nos preocupemos por los signos).
En estas notaciones, un sumando del Teorema de expansi´on de Laplace es de la forma
∇IJ ∆IJ donde I y J son subconjuntos de cardinal 1. Nos gustar´ıa tener un teorema de
expansi´on donde los subconjuntos sean de un cardinal fijo pero arbitrario.
Para esto, ahora s´ı nos tenemos que preocupar por los signos. Sin embargo, la
siguiente proposici´on nos dice que esto realmente no es un problema. Sea φ cualquier
permutaci´on de N tal que φ (J) = I y por lo tanto φ (J0 ) = I0 . La restricci´on de φ a J
y la restricci´on de φ a J0 son biyeccciones y sus matrices se denotar´an por φJI y φJ0 I0
respectivamente.
La expresi´on sgn φ det αIJ φJI det αI0 J0 φJ0 I0
no depende de la permutaci´on φ.
Prueba. Sea ϕ otra permutaci´on tal que ϕ (J) = I. Observese que ρ = φ ◦ ϕ−1 es
Secci´on 4.4
La expansi´on generalizada de Laplace
113
una permutaci´on de N tal que ρ (I) = I y ρ (I0 ) = I0 . Sea x el signo de la restricci´on de
ρ a I y y el signo¡ de la restricci´
on de ρ a I0 . Como los conjuntos I y I0 son disjuntos
¢
tenemos que sgn φ ◦ ϕ−1 = xy.
Por 4.20 tenemos
det αIJ φJI = x det αIJ ϕJI y det αI0 J0 φJ0 I0 = y det αI0 J0 ϕJ0 I0 . Multiplicando estas dos
igualdades obtenemos
¡
¢
det αIJ φJI det αI0 J0 φJ0 I0 = sgn φ ◦ ϕ−1 det αIJ ϕJI det αI0 J0 ϕJ0 I0
y usando las propiedades de la funci´on sgn obtenemos la prueba.
Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ ∇ = det α φ
IJ
IJ JI
con las f´ormulas de la derecha donde φ denota una permu- ∆ = sgn φ det α 0 0 φ 0 0
IJ
IJ
JI
taci´on (arbitraria pero la misma para las dos definiciones)
tal que φ (J) = I (y en consecuencia φ (J0 ) = I0 ). Esta definici´on no es correcta en el
sentido de que ambos ∇IJ y ∆IJ dependen de φ. Sin embargo ∇IJ ∆IJ no depende de φ
y esto es lo importante.
Expansi´
on Generalizada de Laplace
Si I un conjunto dePp renglones de la matriz αNN entonces, det αNN = ∇IJ ∆IJ donde la suma recorre todos los subconjuntos de columnas J de cardinalidad p.
det αNN =
|J|=p
Prueba.
Si I ⊆ N y |I| = p entonces, tenemos la partici´on del grupo sim´etrico a la derecha donde SI→J
= {σ ∈ SN | σ (I) = J}. Aplicando la
N
definici´on de determinante obtenemos
X X
Y
det αNN =
sgn σ
αnσn
|J|=p σ∈ SI → J
X
∇IJ ∆IJ
[
SI→J
N
|J|=p
n∈N
N
Sea φ una permutaci´on de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ◦σ.
X
X
Y
Entonces,
det αNN =
sgn φ
sgn ρ
αiφ − 1 (ρn )
0
I→ I
ρ∈ SN
|J|=p
0
n∈N
Como ρ (I) = I entonces, ρ (I ) = I . Luego ρ se puede descomponer en la composici´on
de dos permutaciones θ ◦ ω donde θ ∈ SI y ω ∈ SI0 . Substituyendo ρ por θ ◦ ω la
suma se convierte en suma doble y si sacamos factores
comunes obtendremos: ⎞
!⎛
Ã
X
X
Y
Y
X
sgn φ
sgn θ
αiφ − 1 (θ ) ⎝
sgn ω
αiφ − 1 (ω ) ⎠
det αNN =
n
|J|=p
θ∈ SI
n∈I
n
ω∈ SI 0
n∈I 0
Lo contenido en el primer par´entesis es det αIφ(J) = ∇IJ . Lo contenido en el segundo
par´entesis es det αI0 φ(J0 ) y este determinante multiplicado por sgn φ es ∆IJ .
Como ya es costumbre tediosa, hagamos la observaci´on de que tambi´en es v´alida la
Expansi´on Generalizada de Laplace cuando la hacemos por un conjunto de columnas.
114
Cap´ıtulo 4. Determinantes
Matrices diagonales y triangulares por bloques
Sea αMM una matriz. Supongamos que existe una partici´on M1 ∪ · · · ∪ Mt = M
y que αij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que αMM
es diagonal por bloques. Si cada Mi contiene un solo ´ındice entonces decimos que
αMM es diagonal.
Supongamos ahora que, para la partici´on M1 ∪ · · · ∪ Mt = M se cumple que si
i ∈ Mp , j ∈ Mq y p < q entonces αij = 0. En este caso, decimos que αMM es
triangular por bloques. Si cada Mi tiene un solo ´ındice entonces decimos que αMM
es triangular. Es claro de las definiciones que toda matriz diagonal por bloques es
triangular por bloques. En particular, toda matriz diagonal es triangular.
Si αMM es una matriz triangular por bloques entonces,
Q
det αMM = ti=1 det αM i M i .
Prueba. Haremos la prueba por inducci´on en el n´
umero de bloques t. Para t = 1 la
0
proposici´on es trivial. Denotemos M = M\M1 . Aplicando la expansi´
Pon generalizada
de Laplace al conjunto de renglones I = M1 obtenemos det αMM = |J|=|I| ∇IJ ∆IJ .
Si J 6= I entonces, en αIJ hay una columna j ∈
/ M1 y por lo tanto j ∈ Mq con 1 < q.
Luego, por definici´on de matriz triangular, ∀i ∈ I = M1 se tiene que αij = 0. O sea, la
columna j es cero en αIJ e independientemente de la biyecci´on que se escoja para calcular
el deteminante tenemos ∇IJ = 0. Luego, det αMM = ∇II ∆II = det αM 1 M 1 det αM 0 M 0 . La
matriz M0 esQ
triangular por bloques con un bloque menos y por hip´otesis de inducci´on
det αM 0 M 0 = ti=2 det αM i M i .
Ejercicio 83 ¿Cuales
de las⎞siguentes
matrices
⎛
⎛
⎞ son⎛triangulares?
⎞
a 0 0
a 1 1
a 1 1
A =⎝ 1 b 0 ⎠B =⎝ 0 b 1 ⎠C =⎝ 0 b 0 ⎠
1 1 c
0 0 c
0 1 c
[191]
Ejercicio 84 Sean M = {1, . . . , 5} y αMM una matriz triangular por los bloques
M1 = {1, 2}, M2 = {3} y M3 = {4, 5}. ¿Cual es el aspecto de αMM en forma gr´afica?
[192]
La expansi´
on generalizada de Laplace en forma gr´
afica
Ahora, precisaremos los signos de las biyecciones en la expansi´on generalizada de
Laplace cuando la matriz est´a dada en forma gr´afica. Como esto es u
´til solo para
calcular el determinante de matrices concretas y hacerlo as´ı es por lo general extremadamente ineficiente y complicado, recomiendo omitir en una primera lectura lo que
resta de esta secci´on.
Si N = {1, . . . , n} entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismo
Secci´on 4.4
La expansi´on generalizada de Laplace
115
cardinal hay una biyecci´on natural que conserva el orden. Para esto, introduscamos la
notaci´on {m1 , m2 , . . . , mt }< para se˜
nalar que ∀p ∈ {2, . . . , t} se tiene que ip−1 < ip .
Ahora, si I = {i1 , . . . , it }< y J = {j1 , . . . , jt }< entonces, la biyecci´on es φ1 : I 3 ip 7→
jp ∈ J. Tambi´en, tenemos una biyecci´on natural entre los complementos de I y J.
Para esto sean K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< y definamos
φ2 : K 3 kp 7→ `p ∈ L. Luego, para cualesquiera subconjuntos I, J ⊆ N del mismo
cardinal la permutaci´on φJI = φ1 ∪ φ2 cumple lo necesario para calcular el signo de un
sumando de la expansi´on generalizada de Laplace, o sea φJI (I) = J y φJI (N\I) = N\J.
Observese, que la biyecci´on φ1 es la natural de renglones a columnas que se obtiene
si en una matriz αNN tachamos todos los renglones con ´ındices en K y todas las columnas con ´ındices en L. De la misma manera φ2 es la biyecci´on de renglones a columnas
si tachamos todos los renglones con ´ındices en I y todas las columnas con ´ındices en J.
Calculemos el signo de φJI . Al estudiar la expansi´on (normal) de Laplace en forma
gr´afica vimos que si I = {i} y J = {j} entonces,
(j, j − 1, · · · , i + 1, i) si j > i
φJI = φji es el ciclo que se muestra a la derecha y
(j, j + 1, · · · , i − 1, i) si j < i
por lo tanto sgn φji = (−1)i+j (la regla del “tablero
de ajedrez”).
J\j
sgn φJI = sgn φji11 sgn φI\i11 .
¡ ¢−1
J\j
◦ φI\i11 . Tenemos que demostrar que sgn θ = (−1)i1 +j1 .
Prueba.
Sea θ = φJI
Para esto, recordemos que K = N\I = {k1 , . . . , ks }< y L = N\J = {`1 , . . . , `s }< . Sea p el
menor ´ındice tal que i1 < kp y sea q el menor ´ındice tal que j1 < `q (es admisible que
p = s+1 y/o q = s+1). Usando la definici´on de
(kp , kp+1 , · · · , kq−1 , i1 ) si p < q
θ calculamos que esta permutaci´on es igual a la
(kp−1 , kp−2 , · · · , kq , i1 ) si p > q
del recuadro a la izquierda. Luego, θ es siempre
I
si p = q
un ciclo de longitud |p − q| + 1 y por lo tanto
sgn θ = (−1)p+q .
nos de I y J respectivamente entonces, teComo i1 y j1 son los elementos m´as peque˜
nemos que {k1 , . . . , kp−1 , i1 }< = {1, . . . , p − 1, p} y {`1 , . . . , `q−1 , j1 }< = {1, . . . , q − 1, q}
y de aqu´ı finalmente, p = i1 y q = j1 .
Iterando este resultado obtenemos sgn φJI = sgn φji11 sgn φji22 · · · sgn φjitt . Observese
que αir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para
hallar sgn φJI lo que hay que hacer es multiplicar los signos de la regla del tablero de
ajedrez de los
P elementos
P en la diagonal de αIJ . Tambi´en se puede hacer, calculando la
paridad de i∈I i + j∈J j.
⎛
⎞
Ejemplo. Calculemos el determinante de una matriz αNN del re4 5 1 1
⎜ 1 2 3 2 ⎟
cuadro
a la izquierda haciendo la expansi´on generalizada de Laplace
⎜
⎟
⎝ 4 5 2 3 ⎠
por el conjunto I del segundo y cuarto renglones. Tenemos que re1 2 3 4
correr todos los subconjuntos J de dos columnas.
Cap´ıtulo 4. Determinantes
116
Observese, que si la columna 4 no est´a en J entonces la matriz αIJ tiene dos renglones
iguales por lo que todos los sumandos correspondientes en la expansi´on ser´an cero.
Adem´as, para J = {3, 4} la matriz αN\I N\J tiene dos renglones iguales por lo que
tambi´en el correspondiente sumando es cero.
Solo nos quedan dos sumandos cuando J = {1, 4} y
J = {1, 4}
J = {2, 4}
cuando J = {2, 4}. Para ellos podemos extraer del table- µ − + ¶ µ + + ¶
ro de ajedrez las submatrices del recuadro a la derecha
− +
+ +
y multiplicando los signos en las diagonales obtenemos
{1,4}
{2,4}
sgn φI
= −1 y sgn φI
= 1. Luego, por la expansi´on generalizada de Laplace el
determinante de nuestra matriz es igual a
¯
¯¯
¯ ¯
¯¯
¯
¯ 2 2 ¯¯ 4 1 ¯ ¯ 1 2 ¯¯ 5 1 ¯
¯
¯¯
¯−¯
¯¯
¯
¯ 2 4 ¯¯ 4 2 ¯ ¯ 1 4 ¯¯ 5 2 ¯ = 4 × 4 − 2 × 5 = 6
donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.
4.5
El rango de una matriz
En esta secci´on definiremos las bases de una matriz como las submatrices m´as
grandes con determinante diferente de cero. Probaremos que las bases de una matriz
definen y est´an definidas por las bases de los espacios de columnas y renglones. Esto
es el fundamento de los diversos m´etodos de solucion de los sistemas de ecuaciones
lineales.
Matrices no singulares
Agrupemos en un solo resultado lo que hemos probado para las matrices no singulares.
Caracterizaci´
on de Matrices No Singulares
Para cualquier matriz cuadrada A las
siguientes afirmaciones son equivalentes:
1. A tiene inversa, 3. los renglones de A son LI,
2. A es no singular, 4. las columnas de A son LI.
Prueba. La implicaci´on 1⇒2 es el resultado 4.26. La implicaci´on 2⇒1 es el resultado
4.27. La equivalencia 1⇔4 es el resultado 3.21 (p´agina 79). De aqu´ı, 2⇔4 y como los
determinantes no cambian por transposici´on obtenemos 2⇔3.
Espacios de columnas y renglones
Al subespacio de KN generado por los renglones de la matriz αMN se le llama
espacio de renglones de la matriz. Aqu´ı tenemos un peque˜
no problema de lenguaje:
Secci´on 4.5
El rango de una matriz
117
es posible que haya renglones iguales y los conjuntos no distinguen elementos iguales.
Por esto, diremos que un conjunto de renglones es LI si ellos son distintos dos a dos
y es LI en el espacio de renglones de la matriz. Un conjunto de renglones distintos dos a
dos que es una base del espacio de renglones lo llamaremos base de los renglones de
αMN . An´alogamente se define el espacio de columnas de una matriz, los conjuntos
de columnas LI y las bases de las columnas.
El espacio de columnas de αMN es la imagen de la TL de αMN .
Prueba. Sea f : KN 3 βN 7−→ αMN βN ∈ KM la TL de la matriz αMN . La imagen de
f es igual a hf (B)i donde B es cualquier base de KN . En particular si tomamos B igual
a la base can´onica obtenemos que f (B) es el conjunto de columnas de αMN .
Debido a este resultado, frecuentemente al espacio de columnas de una matriz se le
llama imagen de la matriz. Obviamente, el espacio de renglones de una matriz es la
imagen de la TL correspondiente a la transpuesta de la matriz.
Lema de aumento de matrices no singulares
El siguiente lema es parte importante de las demostraciones de los que siguen. Su
demostraci´on es cl´asica e ingeniosa. Este lema es en cierta manera an´alogo al lema de
aumento de conjuntos LI que vimos en el Cap´ıtulo 2.
Lema de Aumento de Submatrices No Singulares
Sea αIJ una submatriz cuadrada no singular de αMN . Sea m ∈ M\I
tal que el conjunto de renglones indexado por I ∪ m es LI.
Entonces, existe n ∈ N tal que la matriz αI∪m J∪n es no singular.
Prueba.
Denotemos M0 = I ∪ m y Bn = αM 0 J∪n . Al absurdo, supongamos
que ∀n ∈ N\J se cumple que det Bn = 0. Si n ∈ J entonces, denotemos por Bn la
matriz αM 0 J a la que artificialmente le agregamos otra columna n. En este caso Bn
tiene dos columnas iguales y por lo tanto tambi´en det Bn = 0. Para cualquier n, pode¶
µ
mos pensar la matriz Bn gr´aficamente como se muestra en el
αIJ αIn
´ltima Bn =
recuadro. Sean Bin los cofactores de las entradas de la u
αmJ αmn
columna en la matriz Bn . Observemos que en la definici´on de
los Bin no est´an involucradas las entradas de la u
´ltima columna. Luego, Bin no depende de n y podemos denotar Bin = βi ∈ K. De la expansi´on de Laplace por la u
´ltima
columna en la matriz Bn obtenemos: X
X
αin Bin =
αin βi .
0 = det Bn =
i∈M 0
i∈M 0
Cap´ıtulo 4. Determinantes
118
Como esto es v´alido ∀n ∈ N concluimos que βM 0 αM 0 N = 0N . Como βm = det αIJ 6= 0
esto significa que los renglones de αM 0 N est´an en una combinaci´on lineal nula con
coeficientes no todos nulos. Esto contradice la hip´otesis de que sus renglones son LI.
Bases de una matriz
Sea αMN una matriz. Entre las submatrices cuadradas no singulares de αMN tenemos la relaci´on de contenci´on
(αI0 J0 ⊆ αIJ ) ⇔ (I0 ⊆ I y J0 ⊆ J)
Una base de αMN es una submatriz no singular maximal por contenci´on.
Si αIJ es una base de una matriz αMN entonces el conjunto de renglones indexado por I es una base del espacio de renglones de αMN .
¶
µ
Prueba. Sea αIJ una submatriz de αMN . Es conveniente
αIJ αIY
denotar X = M \ I y Y = N \ J y pensar que αMN es de la αMN =
αXJ αXY
forma en el recuadro a la derecha. Supongamos que αIJ es
cuadrada y que es una base de αMN . Entonces, por la Caracterizaci´on de Matrices No
Singulares (4.33) los renglones de αIJ son LI y con m´as raz´on los renglones de αIN son
LI .
Si los renglones de αIN no son una base de los renglones de αMN entonces, existe
otro rengl´on indexado por m ∈ X tal que el conjunto de renglones indexado por I ∪ m
es LI y por el Lema de Aumento de Submatrices No Singulares (4.35) existe n ∈ Y
tal que αI∪m J∪n es no singular y esto contradice la suposici´on de que αIJ es una base.
Luego, los renglones de αIN son una base de los renglones.
Una consecuencia importante de 4.36 es la siguiente.
Teorema del rango
Para
1.
2.
3.
cualquier matriz los siguientes tres n´
umeros coinciden:
La dimensi´on de su espacio de renglones.
La dimensi´on de su espacio de columnas.
El n´
umero de renglones y columnas en cualquier base de la matriz.
Prueba. La igualdad (1) = (3) es consecuencia inmediata de 4.36. La igualdad (2) =
(3) tambi´en la obtenemos de 4.36 teniendo en cuenta que los determinantes no cambian
al transponer una matriz.
El rango de una matriz es por definici´on el n´
umero com´
un del resultado anterior.
Secci´on 4.6
Sistemas de ecuaciones lineales
119
Ejercicio 85 Sean E = F ⊕ G espacios vectoriales y xi = (yi , zi ) vectores donde
xi ∈ E, yi ∈ F y zi ∈ G. Pruebe que si los yi son LI entonces los xi son LI. Esto es lo
que se usa en la prueba de 4.36 cuando se usa la frase “con m´as raz´on”.
4.6
Sistemas de ecuaciones lineales
Sea A = αNM una matriz y xM = xM1 una columna. El producto X
de estas matrices es nuevamente una columna αNM xM1 = bN1 = bN .
αij xj = bi
Si desarrollamos este producto por la definici´on de producto de ma- j∈M
trices entonces obtenemos para cada i ∈ N la igualdad en el recuadro
a la derecha.
Como ya es usual podemos interpretar la columna xM como un vector x en el
espacio vectorial KM y a bN como un vector b en el espacio KN y en estas notaciones
la igualdad se escribe en una forma m´as simple Ax = b. Supongamos que A es una
matriz fija. Si hacemos variar x en KN entonces esta igualdad la podemos pensar
como una TL de KM en KN . Como es l´ogico, si conocemos x entonces como sabemos
multiplicar matrices hallamos b = Ax. M´as dif´ıcil es el problema inverso, si se conoce
b entonces, ¿como hallar x tal que Ax = b?
A una igualdad de la forma Ax = b donde A y b son conocidos y x es inc´ognita se
le llama sistema de ecuaciones lineales. ¿Porqu´e sistema? ¿Porqu´e ecuaciones en
plural si nada m´as tenemos UNA?. La respuesta a estas preguntas no es gran misterio,
es un problema hist´orico. Cuando sobre la faz de la Tierra a´
un no viv´ıan las matrices
y los vectores, los humanos necesitaban
encontrar
unos
numeritos
xj tales que para
P
cualquier i ∈ N se cumpla que j∈M αij xj = bi . Obs´ervese que se necesitan encontrar
|M| numeritos. En el caso de que |N| = 1 se dec´ıa que tenemos que resolver una
ecuaci´
on lineal. Para el caso |N| > 1 los numeritos xj deber´ıan de cumplir todas y
cada una de las ecuaciones (para cada i ∈ N) y entonces, se dec´ıa que se necesitaba
resolver un sistema (conjunto, colecci´on, cualquier cosa que signifique que hay muchas)
de ecuaciones lineales. De hecho, para acercarnos m´as a la verdad, debemos substituir
en todo lo dicho los “se dec´ıa” por “se dice” en presente. Luego, hay dos formas de ver
los sistemas de ecuaciones lineales:
¨ Tenemos que encontrar |M| elementos delP
campo xj tales que
para cualquier i, se cumple la igualdad j∈M αij xj = bi ,
¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b.
Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo que encontrar todas sus coordenadas xj . Sin embargo, la elegancia de la segunda forma hace que nuestra manera de pensarlo sea mucho m´as simple y sistem´atica (a costo de aprender sobre matrices y vectores). Por ejemplo, si ocurre que la
Cap´ıtulo 4. Determinantes
120
matriz A es no singular entonces multiplicando por A−1 a la izquierda obtenemos
Ax = b ⇒ A−1 Ax = A−1 b ⇒ x = A−1 b y como ya sabemos encontrar la matriz
inversa y sabemos multiplicar matrices la soluci´on del sistema de ecuaciones lineales
est´a a la mano. Esto no significa que ya sepamos resolver todos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular se necesita primero que sea
cuadrada y que adem´as el determinante sea diferente de cero.
Regla de Cramer
Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz
del sistema y al vector b lo llamaremos vector de coeficientes libres. Denotaremos
por A (j) la matriz obtenida de la matriz del sistema substituyendo la j-´esima columna
por el vector de coeficientes libres. Un ejemplo de esta substituci´on es el siguiente
¶
µ
¶
µ ¶
µ
1 7 3
7
1 2 3
.
, A (2) =
, b=
A=
4 8 6
8
4 5 6
Regla de Cramer
Si la matriz A es no singular entonces, la j-´esima
coordenada xj del vector x es igual al determinante de A (j) dividido entre el determinante de A.
xj =
det A (j)
det A
Prueba. Sea αNM es una matriz no singular. Ya observamos que en este caso ne−1
cesariamente x = α−1
NM b. Denotemos por βij las entradas de αNM entonces, tenemos
∗
xj = βjN bN . Por 4.27 tenemos que βjN = αNj / det αNM y de aqu´ı xj det αNM = bN α∗Nj .
Para terminar la demostraci´on basta observar que la expresi´on a la derecha de la igualdad es la expansi´on de Laplace de A (j) por la columna j.
Gabriel Cramer (Suiza 1704-1752) public´o su famosa regla en
el art´ıculo “Introducci´on al an´alisis de las curvas algebraicas”
(1750). Esta surgi´o del deseo de Cramer de encontrar la ecuaci´on
de una curva plana que pasa por un conjunto de puntos dado. El
escribe su regla en un ap´endice del art´ıculo y no da prueba alguna para ella. Este es uno de los or´ıgenes hist´oricos del concepto
de determinante. Es curioso (y educativo) ver con que palabras
Cramer formula su regla:
“Uno encuentra el valor de cada indeterminada formando n
fracciones el com´
un denominador de las cuales tiene tantos t´erminos
como las permutaciones de n cosas.”
Cramer contin´
ua explicando como se calculan estos t´erminos como productos de
ciertos coeficientes de las ecuaciones y como se determina el signo. El tambi´en se˜
nala
Secci´on 4.6
Sistemas de ecuaciones lineales
121
como los numeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de los denominadores por los coeficientes libres del sistema.
Para nosotros, con m´as de dos siglos de ventaja, es mucho m´as f´acil. Las “n fracciones” son det A (j) / det A y el “com´
un denominador” es det A (que tiene tantos
sumandos como las permutaciones de n cosas).
La Regla de Cramer (4.38) tiene fundamentalmente un inter´es hist´orico por ser
uno de los or´ıgenes del concepto de determinante. Es necesario recalcar que esta regla
solo funciona para el caso de que la matriz es no singular. O sea, cuando en el sistema
se tienen tantas incognitas como ecuaciones y el determinante de la matriz del sistema
no es nulo.
Existencia de soluciones
Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:
¨ ¿Existe una soluci´on?
¨ ¿Como encontrar una soluci´on en el caso de que exista?
¨ ¿Como encontrar TODAS las soluciones?
La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz
no singular: la soluci´on existe, es u
´nica y se halla por la Regla de Cramer. Ahora
responderemos en general la primera pregunta.
Primero, una definici´on. Si Ax = b es un sistema de ecuaciones lineales entonces
la matriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la
matriz del sistema a˜
nadiendo el vector columna de coeficientes libres b.
Teorema de Existencia de Soluciones
El sistema Ax = b tiene una soluci´on si y solo si el rango de la
matriz del sistema coincide con el rango de la matriz ampliada.
Prueba. Por definici´on de rango de una matriz siempre se tiene que rank A ≤
rank (A|b) . Que coincidan es equivalente por el Teorema del rango (4.37) a que b
sea combinaci´on lineal de las columnas de A. El que b sea combinaci´on lineal de las
columnas de A es equivalente a la existencia de escalares xj tales que αiN xN = bi o sea
a que Ax = b tenga al menos una soluci´on.
Eliminaci´
on de ecuaciones dependientes
122
Cap´ıtulo 4. Determinantes
Lema de Eliminaci´
on de Ecuaciones Dependientes
Sea I el conjunto de ´ındices de una base de renglones de la matriz ampliada (αMN |bM ). Entonces, el conjunto de soluciones de
αMN xN = bM es exactamente el mismo que el de αIN xN = bI .
Prueba. Como αMN xN = bM tiene m´as ecuaciones que αIN xN = bI entonces cada
soluci´on de αMN xN = bM es soluci´on de αIN xN = bI .
Rec´ıprocamente, sea xN tal que αIN xN = bI y m ∈ M\I. El rengl´on (αmN |bm )
es combinaci´on lineal de los indexados por I. Luego existen escalares
αmN = λI αIN
λi tales que se cumplen las igualdades a la derecha. Multiplicando
bm = λI bI
la primera igualdad por xN y usando la definici´on de xN obtenemos
αmN xN = λI αIN xN = λI bI = bm y por lo tanto xN satisface todas las ecuaciones del
sistema αMN xN .
Otra manera, m´as algor´ıtmica, de ver este lema es que si tenemos un sistema de
ecuaciones αMN xN = bM y un rengl´on de este sistema es combinaci´on lineal de los
dem´as entonces, debemos eliminar la ecuaci´on correspondiente a este rengl´on. El Lema
de Eliminaci´on de Ecuaciones Dependientes (4.40) nos garantiza que esta operaci´on
no altera el conjunto de soluciones. Repitiendo esta operaci´on una cierta cantidad de
veces, obtenemos una matriz ampliada con renglones LI.
El n´
ucleo y la imagen de una matriz
Sea αMN una MN-matriz. Ella es la matriz de la TL f : KN 3 xN 7→ αMN xN ∈
K . Luego, podemos definir la imagen de la matriz αMN como Im αMN = Im f y
el n´
ucleo de la matriz αMN como ker αMN = ker f. Pasemos ahora a analizar la
imagen. Por definici´on de imagen tenemos Im αMN = {βM | ∃xN αMN xN = βM }. O
sea, Im αMN es el conjunto de vectores βM tales que el sistemaPde ecuaciones lineales
αMN xN = βM tiene al menos una soluci´on. Tenemos αMN xN = i∈N αMi xi que es una
combinaci´on lineal de las columnas. Luego, Im αMN es el subespacio generado por las
columnas de la matriz αMN . Adem´as, si γN es una soluci´on de αMN xN = βM entonces,
3.30 (p´agina 86) nos dice que el conjunto de todas sus soluciones es el subespacio af´ın
γN + ker αMN . Resumamos todo lo dicho en 4.41 para referencias futuras.
M
¨ El subespacio ker αMN es el conjunto de soluciones de αMN xN = 0M .
¨ El subespacio Im αMN es el generado por las columnas de αMN .
¨ Si γN es una soluci´on de αMN xN = βM entonces, el conjunto de todas
sus soluciones es el subespacio af´ın γN + ker αMN .
Secci´on 4.6
Sistemas de ecuaciones lineales
123
Bases del subespacio af´ın de soluciones
Ahora daremos la soluci´on general de los sistemas de ecuaciones lineales. Sea αMN xN =
bM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema
αMN tiene el mismo rango que la matriz ampliada [αMN |bM ] porque si no entonces,
el conjunto de soluciones es vac´ıo. Segundo, podemos suponer que la matriz ampliada
[αMN |bM ] tiene renglones linealmente independientes porque si no, entonces podemos
descartar aquellos que son combinaci´on lineal de otros.
Luego existe un conjunto de columnas J ⊆ M tal que αMJ es una base de la matriz
ampliada [αMN |bM ]. Denotando por Y al conjunto de columnas que no est´an en la base
podemos representar nuestro sistema de ecuaciones lineales
αMJ xJ + αMY xY = bM
como se muestra en el recuadro a la izquierda.
Aqu´ı las inc´ognitas xJ y xY son aquellas que se corresponden con las columnas en J
y Y respectivamente. Por ejemplo, en el sistema de ecuaciones
2x1 + 1x2 + 1x3 + 0x4 = 5
3x1 + 2x2 + 0x3 + 1x4 = 5
podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera
y cuarta columnas. Luego a este sistema lo podemos escribir como
¶µ ¶ µ
¶µ ¶ µ ¶
µ
2 1
x1
1 0
x3
5
+ 0 1
= 5 .
3 2
x
x
2
4
Ahora, como la matriz αMJ tiene inversa, lo que hacemos es simplemente despejar
−1
xJ y obtenemos xJ = α−1
MJ bM − αMJ αMY xY . En nuestro ejemplo obtenemos
¶µ ¶ µ
¶µ ¶ µ
¶
µ ¶ µ
x1
2 −1
5
2 −1
x3
−2x3 + x4 + 5
= −3 2
− −3 2
= 3x − 2x − 5
5
x
x
2
4
3
4
Esto describe en forma par´am´
de todas
¡etrica el conjunto
¢ las soluciones, para cual−1
b
−
α
α
x
,
x
quier vector xY hay una soluci´on α−1
Y del sistema. Otra manera
MJ M
MJ MY Y
de describir el conjunto soluci´on es ponerlo en la forma descrita en 4.41. Para encontrar
una soluci´on ponemos xY = 0 y en nuestro ejemplo el vector soluci´on es (5, −5, 0, 0).
Para encontrar el n´
ucleo de la matriz del sistema ponemos bM = 0. Para encontrar
una base del n´
ucleo recorremos con xY a la base can´onica de KY . En nuestro ejemplo
(x3 , x4 ) = (1, 0) ⇒ (x1 , x2 ) = (3, −2)
(x3 , x4 ) = (0, 1) ⇒ (x1 , x2 ) = (6, −7)
y finalmente obtenemos que el conjunto de soluciones (x1 , x2 , x3 , x4 ) es el subespacio
af´ın
(5, −5, 0, 0) + ρ (1, 0, 3, −2) + τ (0, 1, 6, −7)
donde ρ y τ son escalares cualesquiera.
124
4.7
Cap´ıtulo 4. Determinantes
M´
etodo de eliminaci´
on de Gauss
La idea del m´etodo de eliminaci´on de Gauss es realizar ciertas transformaciones de
las matrices que no cambian lo que se pretende calcular y que convierte a las matrices en
otras con muchas entradas iguales a cero. Este es el m´etodo m´as universal y eficiente (al
menos manualmente) para calcular los determinantes, el rango, el n´
ucleo, las matrices
inversas, etc. Aqu´ı, estudiaremos brevemente este m´etodo.
Transformaciones elementales
Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar.
Denotemos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando
el rengl´on αjN por la N-ada βjN . A la operaci´on que dados αMN , i, j y λ obtenemos
βMN se le llama transformaci´
on elemental de los renglones. Otra manera u
´til
de pensar las transformaciones elementales de los renglones es que en la matriz αMN
al rengl´on αjN le sumamos el rengl´on αiN multiplicado por λ. De forma an´aloga, se
definen las transformaciones elementales de las columnas. Una transformaci´
on
elemental es de renglones o de columnas.
Las transformaciones elementales no cambian los determinantes.
Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el rengl´on indexado por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante es un funcional lineal de los renglones tenemos det βMM = λ det γMM + det αMM
y como la matriz γMM tiene dos renglones iguales entonces, det βMM = det αMM .
La prueba termina al recordar que el determinante no cambia por transposici´on de la
matriz.
Las bases y el rango de una matriz dependen exclusivamente de los determinantes
de sus submatrices y por lo tanto no son afectados por las transformaciones elementales.
Sin embargo, las trasformaciones elementales de las columnas cambian los n´
ucleos y el
subespacio af´ın soluci´on de un sistema de ecuaciones lineales. Para las transformaciones
elementales de los renglones la situaci´on es diferente.
Las transformaciones elementales de los renglones de la matriz ampliada no
cambian el subespacio af´ın soluci´on de un sistema de ecuaciones lineales.
Prueba. Sea αMN xN = bM un sistema de ecuaciones lineales. Sea βMN xN = cM otro
sistema que se diferencia solo en la ecuaci´on j para la cual se tiene βjN = λαiN + αjN y
cj = λbi + bj . Si γN es una soluci´on del primer sistema entonces, βjN γN = λαiN γN +
αjN γN = λbi + bj = cj por lo que γN es una soluci´on del segundo sistema. Si γN es una
soluci´on del segundo sistema entonces, αjN γN = βjN γN − λαiN γN = cj − λbi = bj por
Secci´on 4.7
M´etodo de eliminaci´on de Gauss
125
lo que γN es una soluci´on del primer sistema.
Ejemplo
El m´etodo de Gauss se puede precisar en todo detalle para convertirlo en un algoritmo programable en una computadora. Pero como tratamos de ense˜
nar a humanos y
no a computadoras la mejor manera no es dar todos los detalles sino dejar a la creatividad individual y a la imitaci´on de ejemplos el como aplicar las transformaciones
elementales.
La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecuaciones lineales. Despues de las 4 transformaciones elementales de los renglones que se
muestran obtenemos la matriz de abajo a la derecha. La soluci´on del sistema de esta
u
´ltima es obvia.
Ã
1 1 0
2 3 4
3 3 1
¯
!
¯ 3
¯ 2
¯
¯ 1
r 2 :=r 2 −2r 1
Ã
1 1 0
0 1 4
3 3 1
r 2 :=r 2 −4r 3
Ã
1 1 0
0 1 0
0 0 1
−→
−→
¯
!
¯ 3
¯ −4
¯
¯ 1
¯
!
¯ 3
¯ 28
¯
¯ −8
r 3 :=r 3 −3r 1
−→
r 1 :=r 1 −r 2
−→
Ã
1 1 0
0 1 4
0 0 1
Ã
1 0 0
0 1 0
0 0 1
¯
!
¯ 3
¯ −4
¯
¯ −8
¯
!
¯ −25
¯ 28
¯
¯ −8
Aqu´ı las transformaciones elementales realizadas est´an marcadas en las flechas. Por
ejemplo, la primera es r2 := r2 − 2r1 lo que significa que al segundo rengl´on le sumamos
el primero multiplicado por −2. Observese que despu´es de dos transformaciones ya
vemos que el determinante de la matriz del sistema es 1 porque en una matriz triangular
el determinante es el producto de las entradas diagonales.
El caso general
Para el c´alculo de los determinantes no hay mucho m´as que decir. Podemos utilizar
transformaciones elementales de columnas y renglones para convertir nuestra matriz
cuadrada en matriz triangular. Si en el proceso nos aparece un rengl´on o columna cero
entonces el determinante es cero.
Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada
y solo podemos realizar transformaciones elementales de los renglones. Podemos adem´as
multiplicar un rengl´on por un escalar porque esto no afecta la ecuaci´on correspondiente
al rengl´on. Si nos aparece un rengl´on cero podemos descartarlo como combinaci´on lineal
de los otros. Si nos aparece un rengl´on que es cero en la matriz del sistema pero su
coeficiente libre no es cero entonces el sistema no tiene soluci´on porque el rango de
la matriz ampliada es mayor que el rango de la matriz del sistema. Finalmente, si en
126
Cap´ıtulo 4. Determinantes
alg´
un momento nos aparece una configuraci´on del tipo
¯
⎛
a
∗ ···
∗
∗
∗ ¯¯
∗
∗ ¯
⎜ 0 b ··· ∗
⎝ ··· ··· ··· ··· ··· ··· ¯
¯
0
0 ···
c
∗
∗ ¯
∗
∗
···
∗
⎞
⎟
⎠
donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una
base de la matriz y tenemos m´as inc´ognitas que ecuaciones. En este caso debemos
seguir diagonalizando la parte correspondiente a las primeras columnas hasta obtener
¯
⎛
⎞
1
0 ···
0
∗
∗ ¯¯ ∗
1 ···
0
∗
∗ ¯ ∗ ⎟
⎜ 0
⎝ ··· ··· ··· ··· ··· ··· ¯ ··· ⎠.
¯
0
0 ···
1
∗
∗ ¯ ∗
Para este sistema procedemos como en la secci´on anterior y pasamos restando las
inc´ognitas que sobran como par´ametros hacia la parte derecha del sistema de ecuaciones. Tomemos el mismo ejemplo de la secci´on anterior
µ
2 1 1 0
3 2 0 1
¯ ¶
¯
¯
¶
¶
µ
µ
r −r
¯ 5 r2 :=3r2 −2r1
r 1 := 1 2 2
2 1 1 0 ¯¯ 5
1 0 2 −1 ¯¯ 5
¯
−→
−→
¯ 5
0 1 −3 2 ¯ −5
0 1 −3 2 ¯ −5
y por lo tanto la soluci´on de este sistema es x1 = 5 − 2x3 + x4 y x2 = −5 + 3x3 − 2x4
donde x3 y x4 pueden tomar cualquier valor.
Aqu´ı es cuando el lector se preguntar´a ¿Para qu´e diagonalizar la primera y segunda
columna si ya la tercera y cuarta est´an en forma diagonal? Pues tiene toda la raz´on,
simplemente est´a escogiendo otra base de la matriz. La soluci´on del sistema se obtiene
directamente de la matriz ampliada original en la forma x3 = 5−2x1 −x2 y x4 = 5−3x1 −
2x2 donde x1 y x2 pueden tomar cualquier valor. Que es mejor es cuesti´on de gustos
u otras necesidades. Por ejemplo, si se necesita substituir x1 y x2 en otras f´ormulas
entonces, la mejor soluci´on es la primera. Si por el contrario se necesita substituir x3 y
x4 en otras f´ormulas entonces, la mejor soluci´on es la segunda.
Soluci´
on de ecuaciones matriciales, matriz inversa
Si tenemos varios sistemas de ecuaciones lineales αMN xN1 = bM1 , . . . , αMN xN` =
bM` todos con la misma matriz del sistema αMN entonces, podemos denotar L =
{1, . . . , `} y escribirlos todos en la forma αMN xNL = bML . Esta ecuaci´on matricial
tiene la matriz ampliada [αMN |bML ] y podemos aplicarle a esta matriz la eliminaci´on
de Gauss para resolver todos nuestros sistemas al mismo tiempo. Esto lo podremos
hacer porque en la eliminaci´on de Gauss no se reordenan columnas y solo se aplican
transformaciones elementales a los renglones, as´ı que no nos importa cuantas columnas
halla despu´es de la barra vertical.
En particular, si M = N entonces, la u
´nica soluci´on posible (si existe) a la ecuaci´on
matricial αMM xMM = IMM ser´ıa xMM = α−1
etodo
MM . Esta es la forma en que con el m´
Secci´on 4.7
M´etodo de eliminaci´on de Gauss
127
de eliminaci´on de Gauss se calculan las matrices inversas. Por ejemplo:
¯
!
¯ 1 0 0
¯ 0 1 0
¯
¯ 0 0 1
¯
Ã
!
1 1 0 ¯ 1 0 0
¯
0 1 0 ¯ 10 1 −4
0 0 1 ¯ −3 0 1
Ã
1 1 0
2 3 4
3 3 1
y por lo tanto
Ã
1 1 0
2 3 4
3 3 1
r 2 :=r 2 −2r 1
−→
r 3 :=r 3 −3r 1
r 1 :=r 1 −r 2
!Ã
−→
Ã
1 1 0
0 1 4
0 0 1
Ã
1 0 0
0 1 0
0 0 1
−9 −1 4
10 1 −4
−3 0
1
!
=
¯
!
¯ 1 0 0
¯ −2 1 0
¯
¯ −3 0 1
r 2 :=r 2 −4r 3
−→
¯
!
¯ −9 −1 4
¯ 10 1 −4
¯
¯ −3 0 1
Ã
1 0 0
0 1 0
0 0 1
!
.
Ejercicio 86 Tome un sistema de ecuaciones lineales y resuelvalo por el m´etodo de
eliminaci´on de Gauss. Repita cuantas veces le sea necesario.
No est´a de m´as recalcar aqu´ı que el m´etodo de eliminaci´on de Gauss funciona
en espacios vectoriales sobre cualquier campo sea este Q, R, C, Zp u otro campo
cualquiera. Solo hay que realizar las operaciones de suma, producto y divisi´on como
est´an definidas en el campo en particular.
128
Capítulo quinto
Polinomios
´
pesar de que t´ecnicamente, el estudio de los polinomios no es parte del Algebra
Lineal, ellos son una herramienta ineludible para la clasificaci´on de los operadores lineales. Es por esto que necesitamos aprender algunas de las cosas m´as
b´asicas sobre ellos.
5.1
Polinomios sobre campos
Hay muchas maneras de ver los polinomios. La manera m´as sencilla de
n
verlos es que un polinomio de grado n en la literal x es una expresi´on X
ai xi
formal del tipo en el recuadro a la derecha donde los coeficientes a0 , ..., an
i=0
son elementos de cierto campo K y an 6= 0. Al coeficiente an se le llama
coeficiente principal del polinomio. Todos los elementos del campo son polinomios
de grado cero. Dos polinomios se consideran iguales solo cuando todos sus coeficientes
son iguales.
En la definici´on anterior no encaja el polinomio cero cuyos coeficientes son todos
cero. Es el u
´nico polinomio con coeficiente principal cero y su grado no est´a bien definido. Algunos de los resultados formulados en esta secci´on, obviamente no son v´alidos
para el polinomio cero. El lector interesado en cuales s´ı y cuales no, deber´a pensarlo
por si mismo en cada caso.
Suma y producto de polinomios
Aunque el lector seguramente conoce las definiciones de suma y producto de polinomios, nos parece apropiado recordar el porqu´
P e ide las mismas. Si interpretamos a x
como un elemento del campo K entonces,
ai x tambi´en es un elemento
del campo
P
i
K. Esto quiere decir que un polinomio define una funci´on K 3 x 7→
ai x ∈ K y en
esta interpretaci´on x no es una literal sino una variable. Siendo esta interpretaci´on de
los polinomios fundamental, necesitamos que la suma y producto de polinomios concuerde con la definici´on de suma y producto de funciones (f + g) (x) = f (x) + g (x),
Cap´ıtulo 5. Polinomios
130
(fg) (x) = f (x) g (x). Por esto, tenemos
n
n
n
n
X
X
X
¡ i
¢ X
ai x + bi xi =
ai xi +
bi xi =
(ai + bi ) xi
i=0
i=0
i=0
i=0
donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por
distributividad. O sea, interpretamos al polinomio como la imagen por la funci´on de
evaluaci´on de la variable x que toma sus valores en el campo. Para el producto, usando
la forma general de la ley distributiva tenemos
⎛
⎞
à n
!Ã m
!
m´ın(n,k)
n X
n+m
m
X
X
X
X
X
⎝
ai xi
bj xj =
ai bj xi+j =
ai bk−i ⎠ xk
i=0
j=0
i=0 j=0
k=0
i=m´
ax(0,k−m)
donde la segunda igualdad se obtiene haciendo el cambio de variable k = i + j y usando
asociatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar
polinomios sin saberse estas f´ormulas. Lo importante es saber aplicar sistem´aticamente
asociatividad, conmutatividad y distributividad para obtener el resultado deseado.
El conjunto de todos los polinomios sobre un campo arbitrario K forma un anillo
conmutativo (para ser campo solo le falta la existencia de inversos multiplicativos). A
este anillo se lo denota por K [x].
El lector debe observar en la f´ormula del producto que el coeficiente principal del
producto de dos polinomios es an bm xn+m . Como en un campo no hay divisores de cero
entonces an bm 6= 0 y por lo tanto el grado del producto de dos polinomios es igual a la
suma de sus grados.
La funci´
on de evaluaci´
on
Pn
i
Sea p (x) =
i=0
Pani x uni polinomio en K [x] . Sea b un elemento arbitrario del
campo. Obviamente i=0 ai b es tambi´en un elemento del campo ya que la suma, la
multiplicaci´on y P
las potencias est´an bien definidas en un campo arbitrario. Es natural
denotar p (b) = ni=0 ai bi . Esto nos da una funci´on K 3 b 7→ p (b) ∈ K llamada la
funci´
on de evaluaci´
on del polinomio p.
Rec´ıprocamente, diremos que una funci´on f : K → K es polinomial si existe un
polinomio p (x) ∈ K [x] tal que f es la funci´on de evaluaci´on del polinomio p, o sea que
∀b ∈ K se tiene que f (b) = p (b).
Identificar los polinomios con las funciones polinomiales es un craso error. As´ı por
ejemplo, hay solo 4 funciones de Z2 en Z2 pero hay una cantidad infinita de polinomios
en Z2 [x]. Sin embargo, si el campo es infinito esto no sucede.
Un polinomio de grado n est´a predeterminado por su
evaluaci´on en n + 1 diferentes elementos del campo.
Prueba. Sea p (x) =
Pn
i=0
ai xi y b0 , . . . , bn diferentes elementos del campo entonces,
Secci´on 5.1
Polinomios sobre campos
en forma matricial
⎛ tenemos
bn
bn−1
···
0
0
b
b
···
1
⎜ 1
..
⎝ ..
..
.
bn
.
bn
.
···
b0
b1
..
.
1
1
..
.
bn
1
131
⎞ ⎛ a ⎞ ⎛ p (b ) ⎞
n
0
⎟ ⎜ an−1 ⎟ ⎜ p (b1 ) ⎟
⎠ ⎝ .. ⎠ = ⎝ .. ⎠.
.
a0
.
p (bn )
Si conocemos las evaluaciones p (b0 ) , . . . , p (bn ) entonces, para encontrar los coeficientes a0 , ..., an tenemos que resolver este sistema de ecuaciones lineales. La matriz de
este sistema es una matriz de Vandermonde cuyo determinante es diferente de cero
si y solo si todos los bi son diferentes (v´ease el ejercicio 82). Esto quiere decir que el
sistema tiene una soluci´on u
´nica, o sea los ai est´an predeterminados por los p (bi ).
De este resultado se deduce f´acilmente, que en el caso de campos infinitos, la correspondencia entre funciones polinomiales y polinomios es biyectiva y m´as a´
un, que esta
correspondencia es un isomorfismo de anillos. Por esto, es frecuente que se identifiquen
los polinomios reales con las funciones polinomiales reales.
Un problema que frecuentemente aparece en aplicaciones de las matem´aticas es que se
tiene una funci´on real de la cual no se sabe mucho salvo su valor en n puntos. Entonces
esta funci´on se “aproxima” con el u
´nico polinomio de grado n − 1 que pasa por estos
puntos. Hay diferentes f´ormulas para esto pero todas son equivalentes a sacar la matriz inversa de
la matriz de Vandermonde. Estas f´ormulas se diferencian en que tan “buenas” y/o “estables” son
computacionalmente.
Divisi´
on de polinomios
Divisi´
on con Resto de Polinomios
Sea q un polinomio de grado al menos 1 y sea p otro polinomio.
Existen polinomios c y r tales que:
1. p = cq + r
2. El grado de r es estrictamente menor que el grado de q.
P
P
Prueba. Sea p =
ai xi un polinomio de grado n y q =
bi xi un polinomio de
grado m ≥ 1. Si n < m entonces poniendo c = 0 y r = p terminamos.
Supongamos m ≤ n. Sea c1 como en el recuadro a la izquierda. Saxn−m an cando cuentas nos podemos convencer de que el grado de r1 = p −c1 q
c1 =
bm
es estrictamente menor que el grado de p. Si el grado de r1 es menor
que el grado de q entonces ya terminamos, si no entonces, haciendo
c´alculos similares podemos escribir r1 = c2 q + r2 y vamos disminuyendo el grado de ri
hasta que este sea menor que el grado de q.
Luego, existe un i tal que p = (c1 + ... + ci )q + ri y el grado de ri es estrictamente
menor que el grado de q.
Al polinomio c se le llama cociente de la divisi´on de p entre q. Al polinomio r se
le llama resto de la divisi´on de p entre q.
Cap´ıtulo 5. Polinomios
132
Divisibilidad
Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces
se dice que q divide a p, o que q es un divisor de p, o que p es un m´
ultiplo
de q. Obviamente, cualquier polinomio no cero de grado cero divide a cualquier otro
polinomio (en un campo hay inversos).
Para denotar la relaci´on de divisilidad entre polinomios usaremos los
s´ımbolos “a” y “`”. O sea, p a q significa que p divide a q. Por otro
lado p ` q se lee como p es m´
ultiplo de q.
La tradici´on exige que la relaci´on de divisibilidad se denote por el s´ımbolo “|”.
Nosotros no seguiremos la tradici´on por dos razones. Primero en este libro
ese s´ımbolo se utiliza sistem´aticamente para denotar “tal que”. Segundo, ese
s´ımbolo sugiere que la relaci´on es sim´etrica y no lo es para nada, todo lo contrario. Sin
embargo, es importante que el lector conozca esto para poder leer satisfactoriamente
otros libros.
Si p a q y q a p entonces existe un elemento del campo α tal que p = αq.
Prueba. Tenemos que existen polinomios a y b tales que p = aq y q = bp y por lo
tanto p = abp. El grado de la parte derecha de esta igualdad es la suma de los grados
de a, b y p. As´ı vemos que necesariamente los polinomios a y b tienen que tener grado
cero, o sea, son elementos del campo.
La relaci´on de divisibilidad entre polinomios es obviamente reflexiva y transitiva.
pero no es ni sim´etrica ni antisim´etrica.
Debido a que en un campo hay siempre inversos multiplicativos, todo polinomio
p se expresa de forma u
´nica como αp0 donde α es el coeficiente principal y p0 es
un polinonio m´
onico o sea, un polinomio cuyo coeficiente principal es igual a 1. Del
resultado anterior se puede deducir f´acilmente que la relaci´on de divisibilidad entre
polinomios m´onicos es antisim´etrica y por lo tanto es una relaci´on de orden (parcial).
Este simple hecho ser´a fundamental para nosotros ya que frecuentemente usaremos
la antisimetr´ıa para probar que dos polinomios m´onicos son iguales.
Adem´as, esto significa que el conjunto de polinomios con la relaci´on de divisibilidad
es un conjunto parcialmente ordenado y por lo tanto a ´el se aplican los conceptos
tales como m´aximo y m´ınimo; cotas superiores e inferiores; elementos maximales y
minimales; supremos e ´ınfimos (v´ease el glosario).
Especial inter´es tienen el supremo y el ´ınfimo los cuales para este caso se traducen
como el m´ınimo com´
un m´
ultiplo y el m´
aximo com´
un divisor.
Secci´on 5.1
Polinomios sobre campos
133
Ejercicio 87 Encuentre todos los divisores m´onicos del polinomio (x + 1)2 (x + 2).
Organ´ıcelos de tal manera que se vea claramente la relaci´on de orden entre ellos.
Factores y raices
Diremos que q es un factor de p si q a p, el grado de q es al menos uno y q es
m´onico. Los ceros de la funci´on de evaluaci´on son las raices del polinomio p, o sea son
los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lo
llamaremos n´
ucleo de p y lo denotaremos por ker p (en ingl´es “n´
ucleo” es “kernel”).
Las raices y los factores de un polinomio est´an enlazados por el siguiente resultado:
Para que b sea una ra´ız de p es necesario
y suficiente que (x − b) sea un factor de p.
Prueba. Dividamos con resto p entre (x − b). Sean c y r tales que p (x) = c (x) (x − b)+
r. Como (x − b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemos p (b) = c (b) (b − b) + r = r. Luego, si b es ra´ız entonces, r = 0 y rec´ıprocamente.
Sea b una ra´ız del polinomio p. Si n ≥ 1 es el mayor natural tal que (x − b)n es
factor de p entonces a n se le llama multiplicidad de la ra´ız b. Es muy inc´omodo
trabajar con el concepto de multiplicidad. Por ejemplo, tomemos la afirmaci´on: “Si b1
y b2 son dos raices del polinomio p entonces (x − b1 ) (x − b2 ) es un factor de p”. Esta
afirmaci´on es cierta no solo para cuando b1 6= b2 sino tambi´en cuando son iguales pero
la ra´ız tiene multiplicidad mayor que 2.
Es mucho m´as c´omodo pensar que si una ra´ız tiene multiplicidad n entonces hay n “diferentes” raices todas del mismo “valor”. Este abuso del
lenguaje ser´a com´
un en este libro y a partir de ahora no tendremos necesidad de usar continuamente el concepto de multiplicidad. Le dejamos al lector interesado
la desagradable tarea, de ajustar los hechos expuestos a un lenguaje m´as riguroso.
Ahora el n´
ucleo de un polinomio no es exactamente un conjunto sino una “colecci´on”
de elementos ¡del campo en la cual
¢ puede haber elementos repetidos. As´ı por ejemplo
3
2
tenemos Ker x − 6x + 9x − 4 = {1, 1, 4}. Ajustada nuestra terminolog´ıa, podemos
establecer una importante consecuencia del resultado anterior.
Un polinomio de grado n ≥ 1 tiene a lo m´as n raices.
Prueba. Si elQ
polinomio p tiene como raices a b1 , . . . , bn+1 entonces p tiene, por 5.4,
como factor a n+1
i=1 (x − bi ) que es un polinomio de grado n + 1. Esto contradice que
p tiene grado n.
Cap´ıtulo 5. Polinomios
134
Ejercicio 88 Sea G un subgrupo finito del grupo multiplicativo de un campo. Calcule
el producto de todos los elementos de G. [192]
Ejercicio 89 Demuestre que todo subgrupo finito con q elementos del grupo multiplicativo de un campo es isomorfo a (Zq , +). [192]
Ideales de polinomios
Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades:
¨ Si p, q ∈ I entonces p + q ∈ I.
¨ Si p ∈ I y r ∈ K [x] entonces rp ∈ I.
En otras palabras, la suma es una operaci´on binaria dentro del ideal y cualquier
m´
ultiplo de un elemento del ideal tambi´en est´a en el ideal. Los ideales m´as sencillos
son los que se forman tomando todos los m´
ultiplos de un polinomio fijo p. Si qp y q0 p
son dos tales m´
ultiplos entonces qp + q0 p = (q + q0 ) p tambi´en es un m´
ultiplo de p.
Esto demuestra la propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se
les llama ideales principales. Lo asombroso es que todo ideal es as´ı.
Todo ideal de polinomios es principal.
Prueba. Sea I un ideal. Sea ahora m un polinomio no nulo de grado m´ınimo tal
que m ∈ I y denotemos por el conjunto de todos los m´
ultiplo de m o sea, Im =
{αm | α ∈ K [x]}. Por definici´on de ideal se tiene que Im ⊆ I. Probemos que Im ⊇ I.
Efectivamente, si g ∈ I entonces dividiendo g entre m obtenemos polinomios c, r tales
que g = cm + r donde el grado de r es menor que el grado de m. Tenemos r = g − cm
y por definici´on de ideal r ∈ I. De la minimalidad del grado de m obtenemos r = 0. y
por lo tanto g = cm ∈ Im . Esto prueba que Im = I o sea, que I es principal.
Observese que f´acilmente podemos definir los ideales en cualquier anillo conmutativo. Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo,
para el anillo de polinomios de dos variables K [x, y].
Una primera consecuencia de 5.6 es el Teorema de Bezout, el cual tendremos much´ısimas oportunidades para utilizarlo.
Teorema de Bezout
Sean p y q dos polinomios sin factores comunes.
Existen polinomios α y β tales que αp + βq = 1.
Prueba. Denotemos por Ipq = {αp + βq | α, β ∈ K [x]}. Probemos que Ipq es un ideal.
Secci´on 5.1
Polinomios sobre campos
135
Veamos primero que la suma de elementos de Ipq est´a en Ipq . Efectivamente,
(αp + βq) + (α0 p + β0 q) = (α + α0 ) p + (β + β0 ) q = α00 p + β00 q
donde α00 = (α + α0 ) y β00 = (β + β0 ). Ahora, comprobemos que los m´
ultiplos de los
0
elementos de Ipq est´an en Ipq . Tenemos, γ (αp + βq) = γαp + γβq = α p + β0 q donde
α0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal.
Como todo ideal de polinomios es principal, existe m tal que Ipq = {αm | α ∈ K [x]}.
Como p, q ∈ Ipq , existen polinomios α y β tales que p = αm y q = βm. Como p
y q no tienen factores comunes, esto significa que m es de grado cero y por lo tanto
Ipq = K [x]. En particular, 1 ∈ Ipq .
Etienne Bezout (Francia, 1730-1783). Famoso en su ´epoca sobre todo por los seis vol´
umenes de su libro de texto “Cours complet de
math´ematiques a` l’usage de marine et de l’artillerie” que por muchos
a˜
nos fueron los libros que estudiaban los que aspiraban a ingresar a
´
la “Ecole
Polytechnique”. Su investigaci´on matem´atica la dedic´o al
estudio de los determinantes y de las soluciones de ecuaciones polinomiales.
Ejercicio 90 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin
factores comunes. Entonces, existen dos enteros α y β tales que αp + βq = 1. [193]
Ejercicio 91 Demuestre que si p y q son dos polinomios tales que el m´aximo com´un
divisor de p y q es r entonces, existen polinomios α y β tales que αp + βq = r. [193]
Unicidad de la factorizaci´
on en irreducibles.
Diremos que un factor q es factor propio del polinomio m´onico p, si p 6= q.
Un polinomio se le llama irreducible si este es m´onico, tiene grado al menos 1 y no
tiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente en producto de dos factores. Cualquier polinomio p se puede descomponer como
αp1 p2 . . . pn donde α es su coeficiente principal y p1 · · · pn son polinomios irreducibles.
La prueba de esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en
producto de dos factores. Si estos factores no son irreducibles puedo descomponer en
factores cada uno de ellos y as´ı sucesivamente llegamos a factores irreducibles.
Si p y q son dos polinomios y r es un factor irreducible de pq entonces r es un factor de p o de q.
Prueba. Supongamos que r no es un factor de p y probemos que es un factor de
q. Como r es irreducible p y r no tienen factores comunes. Por el teorema de Bezout
existen polinomios α y β tales que αr + βp = 1. Multiplicando por q obtenemos que
αrq + βpq = q. Como la parte izquierda de esta igualdad se divide entre r entonces r
Cap´ıtulo 5. Polinomios
136
es un factor de q.
Sea p = αp1 · · · pn una descomposici´on en factores irreducibles de p. Si q
es cualquier factor irreducible de p entonces, q es igual a alguno de los pi .
Prueba. Por inducci´on en n. Si n = 1 entonces q divide a p1 y como p1 y q son
irreducibles obtenemos que p1 = q. Sea n > 1. Por 5.8 o q es un factor de pn o q es
un factor de p1 · · · pn−1 . En el primer caso q = pn y en el segundo el resultado se sigue
por hip´otesis de inducci´on.
Teorema de Factorizaci´
on de Polinomios
Cualquier polinomio p se descompone como αp1 p2 . . . pn donde α
es su coeficiente principal y p1 · · · pn son polinomios irreducibles.
Esta descomposici´on es u
´nica salvo el orden de los factores.
Prueba. Solamente debemos probar la unicidad. Adem´as, sacando como factor el
coeficiente principal podemos suponer que p es m´onico. Si p es de grado 1 entonces no
hay nada que probar ya que entonces p es irreducible y la u
´nica descomposici´on de p
es el mismo.
Supongamos que el teorema es cierto para cualquier polinomio de grado estrictamente menor que k. Sea p m´onico de grado k que tiene dos descomposiciones en
irreducibles p1 . . . pn = p01 . . . p0m . Como pn es irreducible entonces de 5.9 obtenemos
que tiene que existir un j tal que pn es un factor de p0j . Como p0j es irreducible p0j = pn .
Luego, para p/pn = p/p0j tenemos dos descomposiciones que por hip´otesis de inducci´on
son iguales salvo orden.
El conjunto ordenado de polinomios m´
onicos
Sea p = pj11 pj22 . . . pjmm la descomposici´on factores irreducibles
del polinomio m´onico p. Entonces, todos los divisores m´onicos
de p son de la forma pk1 1 pk2 2 . . . pkmm con 0 ≤ ki ≤ ji .
Prueba. Sea q un divisor m´onico de p = pj11 pj22 . . . pjmm . Por el resultado 5.9 y la
transitividad de la relaci´on de divisibilidad cualquier factor irreducible de q es factor
irreducible de p y por lo tanto q = pk1 1 pk2 2 . . . pkmm para ciertos ki ≥ 0. Supongamos
que k1 > j1 . Entonces como p1 no divide a pj22 . . . pjmm obtenemos que pk1 1 no divide a
p. Esto contradice que q divide a p. Este mismo argumento funciona si suponemos que
para cierto i se tiene que ki > ji .
Sean p y q dos polinomios m´onicos. Sea {p1 , . . . , pm } el conjunto de los polinomios
Secci´on 5.1
Polinomios sobre campos
137
irreducibles que son factores de p ´o de q. Entonces por el Teorema de Factorizaci´on
de Polinomios encontramos descomposiciones u
´ nicas p = pj11 . . . pjmm y q = pk1 1 . . . pkmm
donde los exponentes son naturales algunos posiblemente iguales a cero.
Si p = pj11 . . . pjmm y q = pk1 1 . . . pkmm son dos polinomios m´onicos descompuestos
m´
ax(j ,k )
m´
ax(j ,k )
de la manera anterior, entonces de 5.11concluimos que p1 1 1 . . . pm m m es el
m´ın(j ,k )
m´ın(j ,k )
m´ınimo com´
un m´
ultiplo de p y q; y que p1 1 1 . . . pm m m es el m´aximo com´
un
divisor de p y q. Esto prueba que cualesquiera dos polinomios tienen m´aximo com´
un
divisor y m´ınimo com´
un m´
ultiplo.
Este mismo argumento se puede usar para convencernos de que cualquier conjunto
finito de polinomios tiene m´ınimo com´
un m´
ultiplo y m´aximo com´
un divisor.Este asunto
es un poco m´as complejo cuando
el
conjunto
de
polinomios
es
infinito.
As´ı por ejemplo,
© 2 3
ª
el conjunto de polinomios x, x , x , . . . no tiene m´ınimo com´
un m´
ultiplo. Sin embargo,
cualquier conjunto de polinomios (finito o infinito) si tiene m´aximo com´
un divisor. La
prueba de este hecho es en esencia la misma que la anterior, solo hay que observar que
cualquier conjunto de naturales (finito o infin´ıto) tiene m´ınimo.
Ejercicio 92 Pruebe que cualquier conjunto de polinomios m´onicos tiene m´aximo
com´
un divisor.
Ejercicio 93 Sea p = pj11 pj22 . . . pjmm la descomposici´on factores irreducibles del polinomio m´onico p. ¿Cuantos divisores m´onicos tiene p?
Desarrollo de Taylor
Brook Taylor (Inglaterra 1685-1731). Entre las contribuciones de este
matem´atico, se destacan: La invenci´on de la rama de las matem´aticas
que hoy en d´ıa se conoce como C´alculo en Diferencias, la invenci´on
de la integraci´on por partes, y la f´ormula llamada por su nombre. En
1772 Lagrange proclam´o esta f´ormula como “el principio b´asico del
c´alculo diferencial”. A esta f´ormula, enunciada en la siguiente proposici´on, se le llama Desarrollo de Taylor alrededor del punto x0 .
Como el lector sabe de los cursos de c´alculo, este desarrollo es mucho
m´as general y se cumple en cierta clase de funciones. Sin embargo para polinomios,
su demostraci´on es independiente del campo y puramente algebraica (no requiere del
concepto de continuidad).
Desarrollo de Taylor
Para cualquier polinomio p (x) y cualquier elemento del campo
´nicos coeficientes α0 , α1 , . . . , αn tales que
x0 existen unos u
p (x) = α0 + α1 (x − x0 ) + · · · + αn (x − x0 )n .
138
Cap´ıtulo 5. Polinomios
P
Prueba. Sea p (x) = ak xk un polinomio de grado n. Si x0 = 0 entonces, αk = ak .
Supongamos que x0 6= 0. Por el binomio de Newton tenemos
à n µ ¶
!
j µ ¶
n
n
n
X
X
X
X
X j
j k
j
j−k
j−k
αj (x − x0 ) =
αj
x (−x0 ) =
(−x0 ) αj xk
k
k
j=0
j=0
k=0
k=0
j=k
y para encontrar los coeficientes
αj tenemos el sistema de ecuaciones lineales ak =
¡j ¢
Pn
j−k
. Observese que bkk = 1 por lo que la matriz de
j=k bkj αj donde bkj = k (−x0 )
nuestro sistema de ecuaciones es triangular con unos en la diagonal y por lo tanto su
determinante es distinto de cero. Luego, el sistema tiene soluci´on u
´nica.
de Taylor para polinomios lo que afirma es que
­ En otras palabras el desarrollo
®
2
1, (x − x0 ) , (x − x0 ) , . . . es una base del espacio vectorial de polinomios. Esto no
es algo muy notable. Lo que s´ı es notable es la forma que toman los coeficientes αi en
t´erminos de las derivadas del polinomio (v´eanse los ejercicios que siguen).
Ejercicio 94 Pruebe que si P = {p0 , p1 , p2 , . . .} es un conjunto de polinomios tales que
∀i ∈ N el grado de pi es i entonces, P es una base del espacio vectorial de polinomios.
¡ ¢¡ ¢
P
Ejercicio 95 Demuestre que la expresi´on ij=k (−1)j−k kj ij es igual a la funci´on
delta de Kronecker δik o sea, es cero si i 6= k y es uno si i = k. [193]
Ejercicio P
96 Demuestre que los coeficientes
α del Desarrollo de Taylor (5.12) del
Pn ¡i¢ ji−j
k
polinomio
ak x son iguales a βj = i=j j ai x0 . [194]
Ejercicio 97 Pruebe que los coeficientes αj del Desarrollo de Taylor (5.12) del polinomio p (x) son iguales a p(j) (x0 ) /j! donde p(j) (x) denota el polinomio derivado j
veces. [194]
5.2
Polinomios complejos. Teorema de Gauss
Johann Carl Friedrich Gauss (Alemania 1977-1855) fu´e el m´as grande
matem´atico de su ´epoca. Este teorema que lleva su nombre fu´e demostrado por primera vez en su tesis doctoral (1799). Este teorema
es conocido como el “teorema fundamental del a´lgebra”. En este libro
hemos mencionado otros resultados de Gauss y cualquiera que se dedique a estudiar matem´aticas, estad´ısticas, f´ısica o astronom´ıa oir´a de
este cient´ıfico en m´as de una ocasi´on.
En esta secci´on demostraremos que el campo de los n´
umeros complejos es algebraicamente cerrado. Como esta demostraci´on no es algebraica sino anal´ıtica necesitaremos
introducir algunos conceptos b´asicos de an´alisis complejo. Para esto, presupondremos
que el lector conoce los correspondientes conceptos de an´alisis real.
Si bi´en, el contenido de esta secci´on no es b´asico para la comprensi´on del a´lgebra
Secci´on 5.2
Polinomios complejos. Teorema de Gauss
139
lineal, por otro lado, si es fundamental que el lector conosca a la perfecci´on el enunciado
del teorema de Gauss: todo polinomio complejo de grado al menos 1 tiene una ra´ız.
Forma polar. Igualdad de Moivre
Todo n´
umero complejo z se puede representar en la forma
polar z = r (cos ϕ + i sin ϕ) donde r es la longitud del vector
→
−
0z en el plano complejo y ϕ es el ´angulo que forma dicho vector
con el eje real de este plano (vease la figura). Al n´
umero r se le
llama m´
odulo del n´
umero complejo y es com´
un que se denote por
kzk. Al a´ngulo ϕ se le llama argumento del n´
umero complejo.
La forma polar hace mucho m´as f´acil calcular el producto y las
potencias de n´
umeros complejos.
r
r sin ϕ
ϕ
r cos ϕ
Para hallar el producto de dos n´
umeros complejos hay
que multiplicar sus m´odulos y sumar sus argumentos.
Prueba. Sean r (cos ϕ + i sin ϕ) y ρ (cos ψ + i sin ψ) dos complejos. Tenemos
r (cos ϕ + i sin ϕ) ρ (cos ψ + i sin ψ) =
rρ ((cos ψ cos ϕ − sin ψ sin ϕ) + (cos ψ sin ϕ + cos ϕ sin ψ) i) =
rρ (cos (ϕ + ψ) + i sin (ϕ + ψ))
que es lo que se necesitaba probar.
Aplicando este resultado al caso de la potencia de n´
umeros complejos obtenemos la igualdad mostrada en el recuadro a la izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de
sus consecuencias m´as importantes es el siguiente resultado.
zn = rn (cos nϕ + i sin nϕ)
Los polinomios zn − a tienen exactamente n raices complejas.
Prueba. Sea a = r (cos ϕ√+ i sin ϕ). Para k ∈ {0, 1, ..., n − 1} denotemos xk el n´
umero complejo con m´odulo n r y argumento (ϕ + 2kπ) /n. Por la Igualdad de Moivre
tenemos
¶
µ
¡√
¢n
ϕ + 2kπ
ϕ + 2kπ
n
n
+ i sin n
= r (cos ϕ + i sin ϕ) = a
cos n
r
xk =
n
n
que es lo que se necesitaba probar.
Cap´ıtulo 5. Polinomios
140
Abraham de Moivre (Francia 1667-1754). Uno de los fundadores de la
Geometr´ıa Anal´ıtica y de la Teor´ıa de las Probabilidades. A pesar de
su exelencia cient´ıfica, nunca tuvo la oportunidad de tener un puesto
en alguna universidad. Sus ingresos proven´ıan de dar clases privadas
de Matematicas y muri´o en la pobreza. Moivre tambi´en es famoso por
haber predicho el d´ıa de su muerte. Descubri´o que dorm´ıa 15 minutos
m´as cada noche y sumando la progresi´on aritm´etica calcul´o que morir´ıa
en el d´ıa que dormir´ıa 24 horas. ¡Tuvo raz´on!
Ejercicio 98 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un
grupo para el producto. ¿Que grupo es este? [194]
Continuidad
Una funci´on f : C → C es continua en el punto z0 si para todo real positivo ε
existe otro real positivo δ tal que se cumple que (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε).
Una funci´on continua en todo punto del plano complejo se le llama continua.
La funci´on m´odulo z 7→ kzk es continua.
Prueba. Veamos la desigualdad kz − z0 k ≥ kkzk − kz0 kk. Esta desigualdad es equivalente a la siguiente: “En un tri´angulo el valor absoluto de la diferencia de dos de
sus lados siempre es menor o igual que el tercero”. La prueba de esta la dejaremos
en calidad de ejercicio. Por esta desigualdad, tenemos que ∀ε > 0 ∃δ = ε tal que si
kz − z0 k < δ entonces, kkzk − kz0 kk ≤ kz − z0 k < ε y esto prueba nuestra tesis.
Ejercicio 99 Pruebe que en un tri´angulo el valor absoluto de la diferencia las longitudes de dos de sus lados siempre es menor o igual que la longitud del tercero.
[194]
La suma y el producto de funciones continuas
en un punto z0 son continuas en el punto z0 .
Prueba. Sean f y g funciones continuas en z0 . Con el objetivo de ahorrar espacio
denotemos fz = f (z), f0 = f (z0 ), gz = g (z) y g0 = g (z0 ). Para todo ε > 0 existen δ1
y δ2 tales que
(kz − z0 k < δ1 ) ⇒ (kfz − f0 k < ε)
(kz − z0 k < δ2 ) ⇒ (kgz − g0 k < ε)
Secci´on 5.2
Polinomios complejos. Teorema de Gauss
141
y en particular para el m´ınimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualdades a la derecha. Sumando y aplicando la desigualdad del tri´angulo obtenemos:
θ = 2ε > kfz − f0 k + kgz − g0 k ≥ kfz − f0 + gz − g0 k = k(f + g) (z) − (f + g) (z0 )k
Luego, para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒ |(f + g) (z) − (f + g) (z0 )| < θ
con lo que se prueba que la suma de continuas es continua.
Por otro lado, por la desigualdad del tri´angulo y 5.13 tenemos
k(fg) (z) − (fg) (z0 )k = kfz gz − f0 g0 k =
k(fz − f0 ) (gz − g0 ) + (fz − f0 ) g0 + (gz − g0 ) f0 k ≤
kfz − f0 k kgz − g0 k + kfz − f0 k kg0 k + kgz − g0 k kf0 k <
< ε2 + ε |g0 | + ε |f0 | < (1 + |g0 | + |f0 |) ε = cε = θ
donde la u
´ltima desigualdad se da para ε < 1. Como c es una constante que no
depende de z obtenemos que para todo θ > 0 existe δ tal que (|z − z0 | < δ) ⇒
|(fg) (z) − (fg) (z0 )| < θ lo que prueba que el producto de continuas es continua.
Para cualquier polinomio complejo p la funci´on
de evaluaci´on C 3 z 7→ p (z) ∈ C es continua.
Prueba. La funci´on de evaluaci´on de un polinomio se obtiene usando sumas y productos de funciones constantes y la funci´on identidad f (z) = z. Estas funciones son
continuas y de 5.16 obtenemos la prueba.
Sea g una funci´on continua en el punto z0 y f una funci´on continua en
el punto g (z0 ) entonces, la composici´
on f ◦ g es continua en el punto z0 .
Prueba. Por la continuidad de f en g (z0 ) tenemos que ∀ε > 0 ∃δ (kz − g (z0 )k < δ) ⇒
kf (z) − f (g (z0 ))k < ε. Por otro lado, de la continuidad de g en z0 sabemos que ∀δ >
0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kg (y) − g (z0 )k < δ. Componiendo estas dos propiedades
obtenemos ∀ε > 0 ∃δ0 (ky − z0 k < δ0 ) ⇒ kf (g (y)) − f (g (z0 ))k < ε que es lo que
necesitabamos.
El m´odulo de un polinomio es una funci´
on continua.
Prueba. Por 5.18 y porque los polinomios y el m´odulo son funciones continuas.
L´ımite de sucesiones complejas
Una sucesi´on de n´
umeros complejos {zj } = {aj + bj i} tiene l´ımite z = a + bi si las
sucesiones reales {aj } y {bj } tienen l´ımites a a y b respectivamente. Esto es equivalente
a que los m´odulos y los argumentos de la sucesi´on converjan al m´odulo y al argumento
Cap´ıtulo 5. Polinomios
142
del l´ımite. Tambi´en, esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε.
Una sucesi´on es convergente si esta tiene l´ımite. Por una propiedad an´aloga para
las sucesiones reales se tiene que toda subsucesi´on de una sucesi´on convergente es
convergente y converge al mismo l´ımite. Una sucesi´on {zj } = {aj + bj i} es acotada
si ambas sucesiones {aj } y {bj } son acotadas. Esto es equivalente a que la sucesi´on
real {kzj k} sea acotada. Es claro que una sucesi´on no acotada no puede tener l´ımite.
Tambi´en, que toda sucesi´on acotada tiene una subsucesi´on convergente pues esta misma
propiedad se cumple para sucesiones reales. Expongamos otras dos propiedades que son
un poco m´as dif´ıciles de probar.
Sea f una funci´
on continua en z0 y {zk } una sucesi´
on de n´
umeros complejos que converge a z0 . Entonces, l´ım f (zk ) = f (l´ım zk ).
Prueba. Como f es continua en z0 y l´ım zk = z0 entonces tenemos que
∀ε > 0 ∃δ (kz − z0 k < δ) ⇒ (kf (z) − f (z0 )k < ε)
.
∀δ > 0 ∃N (k > N) ⇒ (kzk − z0 k < δ)
Por la transitividad de la implicaci´on obtenemos que
∀ε > 0 ∃N (k > N) ⇒ kf (zk ) − f (z0 )k < ε
y esto quiere decir que l´ım f (zk ) = f (z0 ).
Si {zk } es no acotada y p es un polinomio de grado al
menos 1 entonces, la sucesi´on {kp (zk )k} es no acotada.
Prueba.
tenemos
Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular,
kp (z)k ≥
n
n
n−1
X
X
° i° X
°ai z ° =
kai k kzki = kan k kzkn +
kai k kzki ≥ kan k kzkn
i=0
i=0
i=0
Como {zk } no es acotada, tampoco lo son {kan k kzk kn } y {kp (zk )k}.
Teorema de Gauss
Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un
resultado preliminar que hace la mayor´ıa del trabajo.
Sea p un polinomio complejo de grado al menos 1. Si z0 no es
una ra´ız de p entonces, existe z ∈ C tal que kp (z)k < kp (z0 )k.
Secci´on 5.2
Polinomios complejos. Teorema de Gauss
143
Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0 . Tenemos
n
n
X
X
j
p (z) =
αj (z − z0 ) = p (z0 ) +
αj (z − z0 )j
j=0
j=1
ya que α0 = p (z0 ) . Sea αk el primero de los {αj | j > 0} diferente de cero y escojamos
z = z0 + tθ donde θ es una (v´ease 5.14) de las raices de la ecuaci´on αk xk + p (z0 ) = 0
y t es un real tal que 0 < t < 1 que definiremos despues. Por la definici´on de θ, z y k
tenemos
n
n
X
¡
¢ X
k k
j j
k
p (z) = p (z0 ) + αk θ t +
αj θ t = p (z0 ) 1 − t +
αj θj tj
j=k+1
j=k+1
y por lo tanto, de la desigualdad del tri´angulo obtenemos:
n
X
° j° j
¡
¢
k
°αj θ ° t = kp (z0 )k + tk q (t)
kp (z)k ≤ 1 − t kp (z0 )k +
j=k+1
n
X
° j ° j−k
donde q (t) denota el polinomio (con coeficientes re°αj θ ° t
−
kp
(z
)k
+
0
ales) del recuadro a la derecha. Observemos que se
j=k+1
cumple la desigualdad q (0) = − kp (z0 )k < 0.
Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente peque˜
no
k
tal que q (t0 ) < 0. Luego, kp (z0 + t0 θ)k ≤ kp (z0 )k + t0 q (t0 ) < kp (z0 )k.
Ejercicio 100 ¿Donde se usa en la demostraci´on anterior que t < 1? [194]
Teorema de Gauss
Todo polinomio de grado mayor que
cero tiene al menos una ra´ız compleja.
Prueba. Sea p un polinomio. Denotemos A = {kp (z)k : z ∈ C}. El conjunto A es
un conjunto de reales acotado inferiormente pues kp (z)k ≥ 0. Luego (por un teorema
cl´asico de an´alisis matem´atico), A tiene un ´ınfimo que denotaremos por μ.
Demostremos que μ es el m´ınimo o sea, que μ ∈ A. Como μ es ´ınfimo hay una sucesi´on {aj } de elementos de A que converge a μ y por lo tanto hay una sucesi´on de complejos {zj } tales que l´ım kp (zj )k = μ. Si la sucesi´on {zj } no estuviera acotada entonces, por
5.21 la sucesi´on {kp (zj )k} tampoco lo ser´ıa lo que contradice que esta sucesi´on converge
a μ. Luego, {zj } es acotada y podemos escoger una subsucesi´on convergente que podemos suponer la misma. Denotemos y = l´ım zj . Como el m´odulo de un polinomio es una
funci´on continua entonces, por 5.20 tenemos μ = l´ım kp (zj )k = kp (l´ım zj )k = kp (y)k.
Luego, μ ∈ A.
Si μ 6= 0 entonces, por 5.22 existir´ıa un y0 tal que kp (y0 )k < kp (y)k = μ lo que
contradice que μ es el m´ınimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una
Cap´ıtulo 5. Polinomios
144
ra´ız.
5.3
Factorizaci´
on de polinomios complejos y reales
En esta secci´on utilizaremos el teorema de Gauss para averiguar cuales son todos
los polinomios irreducibles con coeficientes complejos y los polinomios irreducibles con
coeficientes reales. Esto nos dar´a la posibilidad de encontrar la descomposici´on en
factores (´
unica salvo orden de los factores) de los polinomios complejos y reales.
Caso Complejo
Clasificaci´
on de los polinomios complejos irreducibles
Los polinomios complejos irreducibles son
exactamente los m´onicos de grado uno.
Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor
que uno. Por el Teorema de Gauss (5.23) este polinomio tiene una ra´ız α. Por 5.4 el
polinomio se divide entre (x − α) y esto contradice que el polinomio es irreducible.
Este resultado nos da la posibilidad de factorizar completamente los polinomios complejos. Por el Teorema de Factorizaci´on de
an
(x − αj )n j
Polinomios (5.10) cada polinomio complejo p (x) se tiene que desj=1
componer como en el recuadro a la izquierda. En esta f´ormula, an
es el coeficiente principal del polinomio. Los complejos αj son
P las diferentes raices de
ni es el grado de p (x).
p (x). El natural nj es la multiplicidad de la ra´ız αj y n =
Nuevamente, por el Teorema de Factorizaci´on de Polinomios (5.10) esta descomposici´on
es u
´nica salvo orden de los factores.
k
Q
Caso real
Recordemos que si a+bi es un n´
umero complejo entonces su
complejo conjugado es a−bi. Denotaremos por z¯ el complejo 1. z ∈ R ⇒ z¯ = z
¯
conjugado del n´
umero complejo z. Es f´acil comprobar que la 2. z + u = z¯ + u
¯
¯
3.
zu
=
z
u
operaci´on de conjugaci´on cumple las propiedades del recuadro
a la derecha.
Las propiedad 1 es trivial de la definici´on. Las propiedades 2 y 3 significan que la
conjugaci´on compleja es un automorfismo del campo de los n´
umeros complejos.
Ejercicio 101 Demuestre que la conjugaci´on es un automorfismo. [194]
Secci´on 5.3 Factorizaci´on de polinomios complejos y reales
145
Sea p un polinomio con coeficientes reales y α una ra´ız
¯ es tambi´en una ra´ız de p.
compleja de p. Entonces α
P
Prueba. Como α es ra´ız de p =
ai xi y por las propiedades de la conjugaci´on
tenemos
X
X
X
¯i =
¯i
ai α
ai α
0 = 0¯ =
ai αi =
que es lo que se quer´ıa probar.
Clasificaci´
on de los polinomios reales irreducibles
Si p es un polinomio real irreducible entonces p es de la
forma x − α o es de la forma (x − a)2 + b2 con b 6= 0.
Prueba. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto
n´
umero real α. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor
x − α para cierto α complejo. Si α fuera real esto contradecir´ıa que p es irreducible.
Luego, α = a + bi con b 6= 0. Por la proposici´on anterior a − bi tambi´en es una ra´ız
de p por lo que
p (x) = (x − (a + bi)) (x − (a − bi)) = (x − a)2 + b2
Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una ra´ız
compleja α. Si α fuera real entonces x − α ser´ıa un factor de p. Si α = a + bi con b 6= 0
entonces (x − a)2 + b2 ser´ıa un factor de p. En ambos casos se contradice la suposici´on
de que p es irreducible.
Ahora, ya podemos descomponer completamente en factores los polinomios con
coeficientes reales. Cada polinomio real p (x) se tiene que expresar como:
p (x) = an
k
Y
j=1
(x − αj )nj
k ³
´m `
Y
(x − a` )2 + b2`
`=1
En esta f´ormula, an es el coeficiente principal del polinomio. Los n´
umeros reales αj son
las diferentes raices reales de p (x). El n´
umero natural nj es la multiplicidad de la ra´ız
αj . Los n´
umeros complejos (a` + b` i) y (a` − b` i) son las diferentes raices complejas
de p (x). El n´
umero
P naturalPm` es la multiplicidad de la ra´ız compleja (a` + b` i).
Obviamente, n =
ni + 2 m` es el grado de p (x). Nuevamente, por el Teorema
de Factorizaci´on de Polinomios (5.10) esta descomposici´on es u
´nica salvo orden de los
factores.
La diferencia fundamental entre los n´
umeros reales y los n´
umeros complejos se
expresa de manera muy evidente en los resultados de esta secci´on. Esta diferencia
har´a que posteriormente nos sea mucho m´as f´acil clasificar los operadores lineales en un
espacio vectorial complejo que en un espacio vectorial real. En general, todo es m´as f´acil
para los campos que cumplen el Teorema de Gauss o sea, los campos algebraicamente
Cap´ıtulo 5. Polinomios
146
cerrados.
5.4
Campos de fracciones. Funciones racionales
Sea (A, +, ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 el
neutro multiplicativo respectivamente . Queremos construir un campo que contenga a
A. Esta es una situaci´on an´aloga a cuando construimos el campo de los racionales Q
para que contenga al anillo conmutativo Z . ¿Funcionar´a esta misma construcci´on en
el caso general? Investiguemos para lograr una respuesta.
Campos de fracciones
Lo primero es definir las fracciones. Consideremos con- ³ a
c´
=
⇔ (ad = bc)
junto de todas las fracciones a/b donde a ∈ A y b ∈
b
d
A \ {0}. Dos fracciones las consideraremos iguales si se cumple la igualdad en el recuadro a la derecha.
Ejercicio 102 Pruebe que la igualdad de fracciones es una relaci´on de equivalencia.
[194]
Ahora, necesitamos definir las operaciones entre fracciones. Primero el
producto porque es el m´as f´acil. Definamos el producto por la f´ormula
en el recuadro a la izquierda. Nos tenemos que convencer primero de que
esta definici´on es correcta. O sea que si las fracciones son iguales sus productos son
iguales. M´as precisamente, necesitamos ver que se cumple lo siguiente:
µ
¶
µ
¶
a a0 c
c0
a0 c0
ac
= 0 y = 0 ⇒
=
b
b
d d
bd b0 d0
y efectivamente de las hip´otesis de esta implicaci´on tenemos ab0 = a0 b , cd0 = c0 d y
multiplicando estas dos igualdades obtenemos acb0 d0 = a0 c0 bd, lo que es equivalente a
la tesis de la implicaci´on.
Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen
en los “numeradores” y en los “denominadores”. La fracci´on 1/1 es neutro para el
producto y cualquier fracci´on a/b donde a 6= 0 tiene inverso multiplicativo b/a ya
que ab/ba = 1/1 por la conmutatividad del producto en A. Todo esto significa que el
conjunto de fracciones con numerador distinto de cero forman un grupo conmutativo.
Definamos ahora la suma de fracciones por la f´ormula en el a c
ad + cb
recuadro a la derecha. Para convencernos que la definici´on es b + d =
bd
correcta tenemos que probar que las sumas de fracciones iguales
son iguales. O sea que:
µ
¶
µ
¶
a a0 c
c0
ad + cb a0 d0 + c0 b0
= 0 y = 0 ⇒
=
b
b
d d
bd
b0 d0
ac
ac
=
b d bd
Secci´on 5.4
Campos de fracciones. Funciones racionales
147
y efectivamente haciendo algunos c´alculos inteligentes obtenemos
¶
µ
¶
µ
¶
µ
0 = (ab0 − a0 b) dd0 =
(ad + cb) b0 d0 =
ab0 = a0 b
⇒
⇒
cd0 = c0 d
= (c0 d − cd0 ) bb0 = 0
= (a0 d0 + c0 b0 ) bd
que era lo que se necesitaba probar.
La comprobaci´on de que esta suma es conmutativa es obvia. La asociatividad se
comprueba calculando que a c u adv + cbv + ubd
+ + =
b d v
bdv
independientemente del orden en que se haga la suma. La fracci´on 0/1 es neutro para
la suma y cualquier fracci´on a/b tiene opuesto −a/b (para esto u
´ltimo es necesario
observar que 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es
un grupo abeliano respecto a la suma.
Solo nos falta la distributividad para comprobar que las fracciones con las operaciones definidas forman un campo y esto se comprueba con los siguientes c´alculos:
u ³ a c ´ uad + ucb uad ucb ua uc u a u c
+
=
=
+
=
+
=
+
.
v b d
vbd
vbd vbd
vb vd
vb vd
Por u
´ltimo observemos que si identificamos al elemento a ∈ A con la fracci´on a/1
podemos pensar que el anillo A es un subconjunto de las fracciones ya que que la suma
y el producto de estas fracciones coinciden con la suma y el producto dentro de A.
Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar que esto que hemos demostrado sirve para cualquier anillo conmutativo. El lector
deber´ıa analizar cuidadosamente cada igualdad en los razonamientos anteriores para
convencerse de que todas ellas se desprenden de los axiomas de anillo conmutativo y
de las definiciones de las operaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones as´ı definidas se le llama el campo de fracciones del anillo
conmutativo A.
MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo. ¿Puede usted encontrar el error? Si cree que puede regrese arriba
y b´
usquelo, si no, siga leyendo.
El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b y
d distintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto
no es cierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2 × 3 = 0.
Si en el anillo hay tales elementos no podemos definir adecuadamente el producto de
fracciones (tampoco la suma). Ya vimos, que si un anillo conmutativo es tal que para
cualesquiera b y d distintos de cero se tiene que bd es distinto de cero entonces, se dice
que este anillo es un dominio de integridad. Ahora si, todo dominio de integridad tiene
su campo de fracciones. El ejemplo evidente de dominio de integridad es Z. Su campo
de fracciones es Q.
Funciones racionales
El ejemplo por el cual hemos escrito esta secci´on es el siguiente:
148
Cap´ıtulo 5. Polinomios
Todo anillo de polinomios con coeficientes
en un campo es un dominio de integridad.
Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero
es diferente de cero (recuerdese que un polinomio es cero cuando todos sus coeficientes
son cero).
P
P
i
Sean p (x) = ni=0 ai xi y q (x) = m
cualesquiera de grados n
i=0 bi x dos
P polinomios
i
y m respectivamente. Denotemos p (x) q (x) = n+m
c
x
.
Por
la f´ormula del producto
i
i=0
de polinomios, tenemos cn+m = an bm . Como an 6= 0, bm 6= 0 y todo campo es dominio
de integridad obtenemos cn+m 6= 0 y por lo tanto p (x) q (x) 6= 0.
Observese que en la demostraci´
on no se us´o el hecho de que en el campo K hay inversos
multiplicativos. Eso quiere decir que de hecho, hemos demostrado algo mucho m´as fuerte:
Los anillos de polinomios con coeficientes en un dominio de integridad son dominios de
integridad.
Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo
de fracciones que se denota por K (x) . N´otese la diferencia entre K [x] y K (x). A los
elementos de K (x) se les llama funciones racionales (en la variable x). Las funciones
racionales son fraciones de polinomios p (x) /q (x) que se suman y multiplican mediante
las reglas a las que todos estamos acostumbrados.
Ejercicio 103 ¿Conoce usted un campo infinito de caracter´ıstica 2? [195]
Ejercicio 104 ¿Que pasa si construimos el campo de fracciones de un campo? [195]
Capítulo sexto
Descomposición de
Operadores Lineales
ay dos teoremas que son muy conocidos por el lector y que son muy parecidos.
El primero es que todo n´
umero natural se descompone de forma u
´nica salvo
orden de los factores en producto de n´
umeros primos. El segundo es que todo
polinomio se descompone de forma u
´nica salvo orden de los factores en producto de
polinomios irreducibles. Para los operadores lineales hay un teorema parecido todo
operador lineal se descompone en suma directa de OLs irreducibles, el “tipo” de tal
descomposici´
on es u
´nico. En este cap´ıtulo daremos la demostraci´on de este teorema y
lo que es m´as importante, encontraremos cuales son todos los OLs irreducibles de un
espacio vectorial de dimensi´on finita.
6.1
Suma directa de operadores lineales
Recordemos que el acr´onimo OL significa para nosotros un operador lineal, o sea una
transformaci´on lineal de un espacio en si mismo. Con otras palabras, un endomorfismo
del espacio. Usaremos sistem´aticamente este acr´onimo. Sin embargo, al conjunto de
todos los OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos que
el conjunto End (E) es un ´algebra para la suma de funciones, la multiplicaci´on por
escalares y la composici´on de OLs. El conjunto End (E) contiene el neutro para la
suma que es el operador lineal O que a cualquier vector le hace corresponder el vector
0. Tambi´en contiene al neutro para la composici´on de funciones I que es la identidad
I (a) = a.
En este cap´ıtulo todos los espacios vectoriales ser´an de dimensi´on finita. Si f : E → E
y g : F → F son dos OLs entonces, a la funci´on
f ⊕ g : E ⊕ F 3 (a, b) 7→ (f (a) , g (b)) ∈ E ⊕ F
se le llama suma directa de los OLs f y g. Es f´acil comprobar que la suma directa de
dos OLs es un OL.
150
Cap´ıtulo 6. Descomposici´on de operadores lineales
Ejercicio 105 Pruebe que la suma directa de OLs es siempre un OL. [195]
El lector no debe confundir la suma directa de OLs con la habitual suma de
funciones. Si f : E → E y g : E → E son dos OLs entonces su suma se define
como (f + g) (a) = f (a) + g (a).
Veamos ahora un ejemplo. Sea f : R2 → R2 la rotaci´on en el
[f ⊕ g] [a, b, c]
´angulo α en contra de las manecillas del reloj o en otras palabras
2c
(1, 0) 7→ (cos α, sin α) y (0, 1) 7→ (− sin α, cos α). Sea g : R → R
c
f [a, b]
la dilataci´on de factor 2 o sea z 7→ 2z. El espacio R2 ⊕ R lo
[a,
b,
c]
3
podemos pensar como R en el cual el primer sumando es el
α
plano x, y y el segundo es el eje z. Sabemos como transforma f
[a, b]
el plano x, y (rotando) y como transforma g el eje z (dilatando).
Vease la figura a la derecha.
Ahora si (a, b, c) es un vector arbitrario de R3 entonces podemos rotar a (a, b)
en el plano xy obteniendo (a cos α − b sin α, b cos α + a sin α) y dilatar c en el eje z
obteniendo 2c. De esta manera, obtenemos el OL de todo R3 que a (a, b, c) le hace
corresponder (a cos α − b sin α, b cos α + a sin α, 2c) . Este OL es precisamente f ⊕ g.
Ejercicio 106 Dado f ⊕ g ∈ End (E ⊕ F) podemos definir a f0 = f ⊕ I y g0 = I ⊕ g.
Pruebe que f ⊕ g = f0 ◦ g0 = g0 ◦ f0 . Esto significa que podemos pensar la suma directa
como la composici´on de dos OLs que conmutan. [195]
Subespacios invariantes, componentes irreducibles
A partir de ahora y en todo este cap´ıtulo la funci´on h : E → E es un
OL del espacio vectorial finito dimensional E. La dimensi´
on de h es por
definici´on la dimensi´on de E.
La simplicidad de la operaci´on de suma directa de OLs nos lleva a querer descomponer h en suma directa de otros OLs. La pregunta es: ¿Dado h ser´a posible encontrar
OLs f y g tales que h = f ⊕ g?. Detallemos un poco m´as el problema. Si F y G
son subespacios complementarios de E entonces, por el isomorfismo can´onico entre
la suma de subespacios complementarios y la suma directa de subespacios tenemos
E = F + G = F ⊕ G. La pregunta es ¿cuando existen OLs f : F → F y g : G → G tales
que h = f ⊕ g?
Supongamos que efectivamente h = f ⊕ g y sea a un vector en F. Por definici´on
de f ⊕ g para calcular h (a) tenemos que expresar a como suma de un vector en F
y otro en G. Esta descomposici´on es u
´nica y en este caso es a = a + 0 por lo que
h (a) = f (a) + g (0) = f (a) + 0 = f (a). De aqu´ı deducimos que h (a) ∈ F y como
esto se hizo para un vector arbitrario en F obtenemos que h (F) = {h (a) | a ∈ F} ⊆ F.
Secci´on 6.1
Suma directa de operadores lineales
151
De la misma manera se demuestra que h (G) ⊆ G.
6.1
Esto nos lleva a la siguiente definici´on. Diremos que F ⊆ E es un subespacio
invariante de h (o que F es h-invariante) si se cumple que h (F) ⊆ F.
Un OL se descompone como suma directa de dos OLs si y
solo si ´el tiene dos subespacios invariantes complementarios.
Prueba. Ya demostramos la necesidad. Demostremos la suficiencia. Para esto supongamos que h : E → E tiene dos subespacios invariantes complementarios F y G.
Tenemos E = F ⊕ G, h (F) ⊆ F y h (G) ⊆ G. Sean f : F → F y g : G → G las
restricciones de la funci´on h a los subespacios F y G respectivamente. Obviamente f y
g son OLs. Sea x un vector arbitrario en E. Existen unos u
´nicos a ∈ F, b ∈ G tales que
x = a + b y por linearidad tenemos h (x) = h (a + b) = h (a) + h (b) = f (a) + g (b)
por lo que h = f ⊕ g.
Acabamos de traducir nuestro problema original al de la existencia de subespacios
invariantes complementarios pero hay un caso degenerado que no nos facilita en nada
las cosas. Todo el espacio E es invariante pues obviamente h (E) ⊆ E. Igualmente el
subespacio {0} formado solo por el origen es invariante ya que h (0) = 0. Adem´as, los
subespacios {0} y E son complementarios y en este caso h se descompone como la suma
directa de f : 0 7→ 0 y g = h. Tal descomposici´on siempre existe, pero no nos da nada
ya que g = h.
Un subespacio se le llama no trivial si ´el no es ni todo el espacio y ni el origen. Un
OL se le llama reducible si el tiene dos subespacios invariantes complementarios no
triviales y en otro caso se le llama irreducible. A la restriccion de h a un subespacio
invariante no trivial que tiene un complementario invariante se le llama componente
de h. En otras palabras, f es una componente de h si existe g tal que h = f ⊕ g
y esta descomposici´on es no trivial. Los OLs irreducibles son exactamente aquellos
cuya u
´nica descomposici´on como suma directa de dos es la trivial o sea, aquellos que
no tienen componentes. Si un OL es reducible entonces, este se descompone como
suma directa de dos componentes. Si alguna de las componentes es reducible entonces
podemos descomponerla. Asi, vemos que cualquier OL es suma directa de componentes
irreducibles.
Ejercicio 107 Sea α un escalar no nulo y f un OL. Pruebe que si f es irreducible
entonces αf es irreducible. [195]
Ejercicio 108 Se dice que dos operadores f y g son conjugados si existe un OL
biyectivo ρ tal que f = ρ ◦ g ◦ ρ−1 . Pruebe que la relacion de conjugaci´on es de
equivalencia. [195]
152
Cap´ıtulo 6. Descomposici´on de operadores lineales
Ejercicio 109 Pruebe que f y g son conjugados si y solo si existen bases A y B del
espacio tales que la matriz de f en la base A es igual a la matriz de g en la base B.
[195]
Ejercicio 110 Pruebe que si f es irreducible y g es un conjugado de f entonces, g
tambi´en es irreducible. [195]
Ejemplos en dimensi´
on 2
Todo OL de dimensi´on 1 es irreducible pues los u
´nicos subespacios posibles son
los triviales. Veamos que sucede en dimensi´on 2. Supongamos que E es de dimensi´on
2. Si h es reducible entonces, E = F ⊕ G y necesariamente F y G son subespacios
h-invariantes de dimensi´on 1. Por la proposici´on 3.2 las restricciones f y g de h a F
y G respectivamente son homotecias, o sea, existen escalares α y β tales que f es la
multiplicaci´on por α y g es la multiplicaci´on por β.
¶ Si {x} es una base de F y {y} es una base de G
µ
y
α 0
entonces la matriz de h en la base {x, y} es la del
R2
0 β
recuadro a la izquierda, o sea es diagonal. Hemos
x
demostrado que cualquier operador lineal reducible de dimensi´on 2 cumple que existe una base en la cual su
matriz es diagonal. En la figura de la derecha est´a representada x 7→ 3x y 7→ 2y
el OL de este tipo cuando E = R2 , {x, y} es la base can´onica,
α = 3 y β = 2.
Una rotaci´on de R2 en un ´angulo α en contra de las manecillas del reloj es obviamente irreducible para α ∈
/ {0◦ , 180◦ } ya que en este caso, ninguna recta por el origen se
queda en su lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales.
Otro ejemplo es el que surge si a un cuadrado le apli- µ
¶
y
R2
λ 1
camos dos fuerzas en sentido contrario a dos de sus
0 λ
lados opuestos. M´as precisamente, al OL que tiene co2
x mo matriz en la base can´onica de R la del recuadro a
la derecha la llamaremos λ-deslizamiento. La figura de la izquierda
muestra intuitivamente como se mueven los puntos de R2 al aplicar
un 1-deslizamiento. De esta figura, se ve que la u
´nica recta por el
origen que es invariante es el eje x. Luego un λ-deslizamiento es irreducible (λ 6= 0) ya
que el eje x no tiene complementario invariante.
Ejercicio 111 ¿Ser´a cierto que si un operador es irreducible entonces es biyectivo?
[195]
Las matrices y los subespacios invariantes
Sea F es un subespacio invariante del OL h : E → E. Sea G un subespacio complementario a F. Escojamos bases A y B de F y G respectivamente. Sabemos que A ∪ B
Secci´on 6.2
Polinomios de operadores lineales
153
es una base de todo el espacio. Sea x un vector en la base A. Podemos hallar las
coordenadas de h (x) en la base A ∪ B
X
X
h (x) =
αa a +
βb b
a∈A
b∈B
6.2
y como h (x) ∈ hAi entonces, todas las coordenadas βb son iguales a cero.
µ
¶ Estas coordenadas forman una columna de la matriz de h en la base
M ∗
A ∪ B y por lo tanto despues de ordenar las bases, esta matriz tiene
0 ∗
que verse como en el recuadro a la izquierda. La matriz M es la de la
restricci´on de h a F. El 0 representa una submatriz con entradas cero
con |A| columnas y |B| renglones. Finalmente, los “*” representan submatrices de las
dimensiones apropiadas. Resumiendo para futuras referencias:
Si F es un subespacio invariante de h y A es una base de todo
el espacio que contiene a una base B de F entonces, la matriz
de h en la base A es triangular por bloques y el bloque superior
izquierdo es la matriz de la restricci´on de h a F en la base B.
6.3
Si adem´as, G es h invariante entonces, el mismo razonamiento nos µ
¶
M 0
hace ver que el “*” superior derecho es una submatriz con entradas
0 M0
cero con |B| columnas y |A| renglones. En este caso la matriz tiene
0
que verse como en el recuadro a la derecha. La matriz M es la de
la restricci´on de h a G. Resumiendo para futuras referencias:
Si F y G son subespacios invariantes complementarios de h y
los conjuntos A y B son bases de F y G respectivamente entonces, la matriz de h en la base A ∪ B es diagonal por bloques y
los bloques diagonales son las matrices de las restricci´
ones de
h a F en la base A y de h a G en la base B respectivamente.
Ejercicio 112 Demuestre que (f ⊕ g)2 = f2 ⊕ g2 . Traduzca esta igualdad al lenguaje
de matrices.
6.2
Polinomios de operadores lineales
En esta secci´on introduciremos una herramienta para el c´alculo de los subespacios
invariantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea
(o vuelva a leer) la secci´on 5.1 en la cual se introducen los ideales de polinomios y se
154
Cap´ıtulo 6. Descomposici´on de operadores lineales
demuestra que todo ideal de K [x] es principal.
El morfismo de K [x] en End (E)
Para cualquier n´
umero natural n el operador hn
⎧ n veces
⎨ z }| {
se define como en el recuadro a la derecha. De aqu´ı,
n
h ◦ ... ◦ h si n > 0
como sabemos sumar OLs y multiplicar por escalares h =
⎩ I
si n = 0
a los OLs, vemos que una expresi´on como por ejemplo
2
1
h − 2h + 5I es un OL que conocemos si tan solo
conocemos a h
P
En general si p (x) = ni=0 αi xi ∈ K [x] es un polinomio
arbitrario con coeficientes
Pn
i
en el campo del espacio vectorial E, entonces ph = i=0 αi h es un OL bien definido. Al
proceso de substituir la variable x por el OL h y de esta manera convertir el polinomio
p (x) en el OL ph se le llama evaluaci´
on de p en h.
El lector debe prestar atenci´on a la notaci´on. Usaremos ph y no p (h) aunque al parecer esta u
´ltima es m´as natural. El problema es que tendremos
que evaluar polinomios en operadores lineales y a su vez estos en vectores.
Si usaramos la notaci´on p (h) tendr´ıamos que escribir p (h) (a) y estos son demasiados
par´entesis en comparaci´on con ph (a).
6.4
Recordemos de la secci´on 3.2 que un a´lgebra es un espacio vectorial con un producto de vectores asociativo, distributivo, con elemento neutro y que conmuta con el
producto por escalares. Ya vimos, que el espacio vectorial End (E) es un ´algebra para
la composici´on de OL. Tambi´en vimos que el espacio vectorial de todos los polinomios
K [x] es un ´algebra para el producto de polinomios.
Una subalgebra es un subconjunto de una ´algebra que es a´lgebra para las operaciones inducidas en el subconjunto. Un subconjunto de una algebra es sub´algebra
cuando es subespacio del espacio vectorial, es cerrado para el producto y contiene el 1.
Una transformaci´on lineal entre dos ´algebras es un morfismo de ´
algebras si esta
conmuta con el producto y preserva el 1.
La funci´
on de evaluaci´on de polinomios en un
operador lineal es un morfismo de ´algebras.
Prueba. La funci´on de evaluaci´on K [x] 3 p (x) 7→ ph ∈ End (E) es una funci´on
cuyo dominio y codominio son ´algebras. Sean α0 , ..., αn y β0 , ..., βn los coeficientes de
dos polinomios p y q respectivamente. Tenemos la misma cantidad de coeficientes en
ambos polinomios ya que siempre podemos agregar suficientes ceros. Sea λ un escalar.
n
n
P
P
Tenemos
(λp)h =
λαi hi = λ αi hi = λph
(p + q)h =
n
P
i=0
i=0
i
(αi + βi ) h =
n
P
i=0
i=0
αi hi +
n
P
i=0
βi hi = ph + qh
Secci´on 6.2
Polinomios de operadores lineales
155
y esto muestra que la evaluaci´on en h es una TL.
Por definici´onÃde producto de!polinomios, tenemos
n P
n P
n P
n
n
n
¡
¢
P
P
P
(pq)h =
αi βj xi+j
=
αi βj hi+j =
αi βj hi ◦ hj =
i=0 j=0
n ¡
n P
P
h
i=0 j=0
i=0 j=0
n
n
¢ P
P
αi hi ◦ βj hj = ph ◦ qh
αi hi ◦ βj hj =
=
i=0 j=0
i=0
j=0
¡ 0¢
0
y finalmente, con 1h = x h = h = I terminamos la prueba.
La sub´
algebra K [h]
6.5
El morfismo de evaluaci´on en h tiene como im´agen el conjunto de todos los OL
que son la evaluaci´on en h de alg´
un polinomio de K [x]. Este conjunto de OLs se
denotar´a por K [h]. Esto refleja que en la evaluaci´on lo que hacemos es substituir la
variable x por el OL h.
K [h] es una sub´algebra conmutativa del a´lgebra de operadores lineales.
Prueba. Como la im´agen de una transformaci´on lineal es un subespacio, obtenemos
que K [h] es un subespacio de End (E). Como 1 (h) = I, obtenemos que I ∈ K [h]. Como
ph ◦qh = (pq)h obtenemos que K [h] es cerrado para la composici´on. La conmutatividad
se sigue de la conmutatividad del producto de polinomios. Efectivamente, ph ◦ qh =
(pq)h = (qp)h = qh ◦ ph y por lo tanto, los OLs en K [h] conmutan entre ellos.
La conmutatividad de K [h] es un hecho trivial pero muy notable. Los operadores
lineales en general, no son conmutativos para la composici´on. Sin embargo, los que
est´an en K [h] s´ı conmutan entre ellos. Esto jugar´a un papel importante en lo que
sigue.
Cada vez que se tiene un morfismo de ´algebras, la im´agen de este morfismo es una sub´algebra
del codominio del morfismo. Si el dominio del morfismo es un ´algebra conmutativa entonces
la imagen es una sub´algebra conmutativa.
El polinomio m´ınimo
6.6
El morfismo de evaluaci´on en h tiene como n´
ucleo el conjunto de todos los polinomios p tales que ph = O.
El n´
ucleo del morfismo de evaluaci´on en h es un ideal de K [x].
Prueba. El n´
ucleo de una transformaci´on lineal es un subespacio y por lo tanto si
ph = qh = O entonces (p + q)h = O. Sea r (x) cualquier polinomio. Necesitamos
mostrar que (rq)h = O. Para cualquier a ∈ E tenemos
(rq)h (a) = (rh ◦ qh ) (a) = rh (qh (a)) = rh (0) = 0
156
Cap´ıtulo 6. Descomposici´on de operadores lineales
y esto es todo lo que quer´ıamos probar.
Por 5.6 todo ideal de K [x] es principal y por lo tanto existe un u
´nico polinomio
h (n´otese la letra g´otica) de coeficiente principal 1 (o sea, m´onico) tal que si ph = O
entonces, p es un m´
ultiplo de h. En s´ımbolos matem´aticos {p (x) ∈ K [x] | ph = O} =
{qh | q ∈ K [x]}. Al polinomio h se le llama polinomio m´ınimo de h. El polinomio
m´ınimo de h es el polinomio m´onico de grado m´as peque˜
no que al evaluarlo en h se
obtiene el OL nulo O. Por ahora, no sabemos mucho del polinomio m´ınimo de h, solo
sabemos que existe y que es u
´nico.
Otra manera m´as descriptiva de ver el polinomio m´ınimo es la siguiente. Consideremos la sucesi´on infinita de operadores I, h, h2 , . . .. Todos los elementos de esta
sucesi´on no pueden ser LI en el espacio vectorial End (E) porque este espacio es de
dimensi´on finita e igual a (dim E)2 . Esto quiere decir que hay un primer natural n y
unos coeficientes escalares αi tales que hn = α0 h0 + α1 h1 + · · · + αr−1 hn−1 . Denotando
p (x) = xn − αr−1 xn−1 − · · · − α1 x1 − α0 x0 vemos que ph = O y que este es el u
´nico
polinomio m´onico de grado m´as peque˜
no que cumple esto. Luego, p es el polinomio
m´ınimo de h.
El per´ıodo de un vector
6.7
Si p es un polinomio entonces ph es un OL. Si a es un vector entonces a la imagen
por ph de a se le denotar´a por ph (a). Luego, ph (a) se obtiene en dos pasos: primero
tomamos el polinomio p lo evaluamos en h y as´ı obtenemos ph ; segundo la funci´on ph
la evaluamos en a y as´ı obtenemos ph (a).
Para cualquier vector a, el conjunto de todos los
polinomios p tales que ph (a) = 0, es un ideal.
Prueba. Si ph (a) = qh (a) = 0 y r es cualquier polinomio entonces
(p + q)h (a) = (ph + qh ) (a) = ph (a) + qh (a) = 0
(rp)h (a) = rh (ph (a)) = rh (0) = 0
y esto es todo lo que se requer´ıa probar.
Nuevamente, como todo ideal de polinomios es principal entonces, existe un u
´nico polinomio m´onico q tal que el conjunto {p ∈ K [x] | ph (a) = 0} es exactamente el
conjunto de todos polinomios que son m´
ultiplos de q. Al polinomio q se le llama el
h-per´ıodo del vector a o sencillamente el per´ıodo de a si est´a impl´ıcito cual es el
operador h. En otras palabras, el per´ıodo de a es el polinomio q m´onico de grado m´as
peque˜
no tal que qh (a) = 0.
M´as descriptivamente. En la sucesi´on infinita de vectores a, h (a) , h2 (a) , . . . todos
los elementos no pueden ser LI porque el espacio E es de dimensi´on finita. Esto quiere
decir que hay un primer natural n y unos coeficientes escalares αi tales que hn =
α0 h0 (a) + · · · + αr−1 hn−1 (a). Denotando p (x) = xn − αn−1 xn−1 − · · · − α1 x1 − α0 x0
Secci´on 6.2
Polinomios de operadores lineales
157
vemos que ph (a) = 0 y que este es el u
´nico polinomio m´onico de grado m´as peque˜
no
que cumple esto. Luego, p (x) es el per´ıodo de a.
Ejercicio 113 Pruebe que 0 es el u´nico vector cuyo per´ıodo es de grado cero. [195]
Ejercicio 114 Pruebe que los vectores no nulos cuyo per´ıodo es el polinomio x son
exactamente aquellos que est´an en el n´
ucleo de h. [196]
Anuladores
Sea ahora A ⊆ E un conjunto arbitrario de vectores. El h-anulador de A es
el conjunto de polinomios {p ∈ K [x] | ∀a ∈ A ph (a) = 0}. Previamente ya hab´ıamos
considerado dos anuladores. En el caso de que A es todo el espacio entonces el anulador
es el ideal usado para definir el polinomio m´ınimo. En el caso de que A es un solo vector
entonces el anulador es el ideal usado para definir el per´ıodo del vector. An´alogamente
a las pruebas de 6.6 y 6.7 podemos probar que cualquier anulador es un ideal. Esto nos
permite definir el h-per´ıodo de un conjunto de vectores como el polinomio generador
de su anulador. El anulador de un conjunto de vectores es el conjunto de polinomios
que son m´
ultiplos de su per´ıodo.
De aqu´ı en lo adelante denotaremos por perh (A) al h-per´ıodo de un conjunto de vectores A. As´ı, perh (a) es el h-per´ıodo del vector a y perh (E)
es el h-per´ıodo de todo el espacio o sea, el polinomio m´ınimo de h.
6.8
Propiedades del per´ıodo.
El h-anulador de A es el conjunto de los m´
ultiplos comunes a los per´ıodos de los vectores en A.
6.9
Prueba. Sea A0 = {p ∈ K [x] | ∀a ∈ A ph (a) = 0} el h-anulador de A. Sea A1 =
{p ∈ K [x] | ∀a ∈ A p ` perh (a)} el conjunto de los m´
ultiplos comunes a los per´ıodos
de los vectores en A.
Si p ∈ A1 y a ∈ A, entonces existe q tal que p = q perh (a) y por lo tanto
ph (a) = qh (perh (a)h (a)) = qh (0) = 0. Luego, A1 ⊆ A0 .
Rec´ıprocamente, sean p ∈ A0 y a ∈ A entonces ph (a) = 0 y por definici´on de
per´ıodo perh (a) a p. Luego, A0 ⊆ A1 .
Una consecuencia directa de esto son los siguientes dos resultados:
perh (A) es el m´ınimo com´
un m´
ultiplo
de los per´ıodos de los vectores en A.
6.10
158
Cap´ıtulo 6. Descomposici´on de operadores lineales
6.11
El polinomio m´ınimo de h es el m´ınimo com´
un
m´
ultiplo de los per´ıodos de todos los vectores.
Si h = f ⊕ g entonces el polinomio m´ınimo de h es igual al
m´ınimo com´
un m´
ultiplo de los polinomios m´ınimos de f y g.
Prueba. Demostraremos que el h-anulador de todo el espacio es igual al conjunto de
los m´
ultiplos comunes de los polinomios m´ınimos de f y g. Lo que se quiere demostrar
es una consecuencia directa de esto.
Sea E = E1 ⊕ E2 la descomposici´on en subespacios invariantes de tal manera que
f y g son las restricciones de h a E1 y E2 respectivamente. Sean a ∈ E1 y b ∈ E2 .
Cualquier vector en E es de la forma a + b.
Si p es un com´
un m´
ultiplo de los polinomios m´ınimos de f y g entonces ph (a + b) =
pf (a) + pg (b) = 0 y por lo tanto p est´a en el h-anulador de todo el espacio.
Reciprocamente si p est´a en el h-anulador de todo el espacio, entonces tiene que
anular a todos los vectores en E1 y por lo tanto es un m´
ultiplo del polinomio m´ınimo
de f. Por la misma raz´on es un m´
ultiplo del polinomio m´ınimo de g.
6.12
monoton´ıa del per´ıodo
Si A ⊆ B entonces, perh (A) a perh (B).
Prueba. Sea A0 el h-anulador de A. Si p es el per´ıodo de B entonces ph (b) = 0 para
cualquier b ∈ B y por lo tanto ph (a) = 0 para cualquier a ∈ A. Luego p ∈ A0 y por
lo tanto es un m´
ultiplo del per´ıodo de A.
6.3
Subespacios radicales
N´
ucleos de polinomios de operadores lineales
Los n´
ucleos de los polinomios evaluados en un OL son un objeto importante para
la descomposici´on de ese OL en componentes irreducibles. Su importancia est´a dada
por el siguiente resultado.
6.13
invariancia de los n´
ucleos
El n´
ucleo de cualquier operador en
K [h] es un subespacio h-invariante.
Secci´on 6.3
Subespacios radicales
159
Prueba. Sabemos que el n´
ucleo de cualquier OL es un subespacio. Demostremos la
invariancia. Sea p un polinomio y a ∈ ker ph . Entonces ph (a) = 0. Por la conmutatividad de los OL en K [h] tenemos ph (h (a)) = h (ph (a)) = h (0) = 0. O sea,
h (a) ∈ ker ph .
6.14
monoton´ıa de los n´
ucleos
Si p a q entonces Ker ph ⊆ Ker qh .
Prueba. Sea q = p0 p. Si x ∈ Ker ph entonces qh (x) = p0h (ph (x)) = p0h (0) = 0 y
por lo tanto x ∈ Ker qh .
En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sin
factores comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero,
les daremos un nombre m´as corto. Dos polinomios p y q se les llama coprimos si
cualquier divisor com´
un a ambos es de grado 0. O sea, no tienen factores comunes no
triviales. Dos polinomios p y q son coprimos si y solo si los factores irreducibles de p
son diferentes a los factores irreducibles de q.
6.15
Lema de Descomposici´
on de N´
ucleos
Si p y q son polinomios coprimos entonces, ker (pq)h = ker ph ⊕ ker qh .
Prueba. Todos los n´
ucleos involucrados son subespacios. Lo que hay que probar es
que ker ph ∩ ker qh = {0} y que ker (pq)h = ker ph + ker qh . O sea, es una suma directa.
Por el Teorema de Bezout existen polinomios r, s tales que rp + sq = 1.
Sea x ∈ ker ph ∩ ker qh . Tenemos que
x = 1h (x) = (rp + sq)h (x) = rh (ph (x)) + sh (qh (x)) = rh (0) + sh (0) = 0
lo que prueba que ker ph ∩ ker qh = {0}.
Sea x ∈ ker (pq)h y denotemos y = (sq)h (x), z = (rp)h (x). Como rp + sq = 1
tenemos z + y = x. Adem´as, por la conmutatividad tenemos que
ph (y) = (psq)h (x) = sh ((pq)h (x)) = sh (0) = 0
qh (z) = (qrp)h (x) = rh ((pq)h (x)) = rh (0) = 0
o sea, y ∈ ker ph y z ∈ ker qh . Luego ker (pq)h ⊆ ker ph + ker qh .
Para probar la otra inclusi´on sean a ∈ ker p (h) y b ∈ ker q (h). Tenemos que
(pq)h (a + b) = ph (qh (a + b)) = ph (qh (a) + qh (b)) =
= ph (qh (a)) = qh (ph (a)) = qh (0) = 0
y por lo tanto ker ph + ker qh ⊆ ker (pq)h .
Operadores lineales radicales
Por la invariancia de los n´
ucleos (6.13) y el Lema de Descomposici´on de N´
ucleos
(6.15) si (pq)h = O y p, q son coprimos entonces, h tiene dos subespacios invariantes
160
Cap´ıtulo 6. Descomposici´on de operadores lineales
complementarios ker ph y ker qh y podr´ıamos tener (si la descomposici´on es no trivial)
que h es reducible. El candidato que tenemos para el polinomio pq es el polinomio
m´ınimo de h.
Un polinomio p se descompone en producto de dos factores coprimos si y solo si p
tiene al menos dos factores irreducibles distintos. Esto nos lleva a la siguiente definici´on.
Diremos que h es radical de tipo p si el polinomio m´ınimo de h tiene un solo factor
irreducible e igual a p. Equivalentemente, h es radical si el per´ıodo de cualquier vector
es de la forma pm donde p es un polinomio m´onico sin factores no triviales.
6.16
En la teor´ıa de anillos el radical de un ideal I es el conjunto de todos los elementos x tales
que para cierto natural m se tiene que xm ∈ I. El radical de cualquier ideal es un ideal. En
este lenguaje, un operador es radical de tipo p (irreducible) si el radical del anulador del
espacio es el ideal generado por p.
Si h es irreducible entonces, es radical.
Prueba. Si h no es radical entonces el polinomio m´ınimo h de h se descompone no
trivialmente como un producto h = pq donde p y q son coprimos. Por el Lema de
Descomposici´on de N´
ucleos (6.15) tenemos E = ker (pq)h = ker ph ⊕ ker qh siendo
ker ph y ker qh subespacios invariantes de h (por la invariancia de los n´
ucleos (6.13)).
Como p es un factor propio de h que es el m´ınimo com´
un m´
ultiplo de los per´ıodos de
todos los vectores entonces, ker ph 6= E y por la misma raz´on ker qh 6= E. Esto quiere
decir que la descomposici´on ker ph ⊕ ker qh es no trivial y por lo tanto h es reducible.
Este resultado no alcanza para caracterizar a los operadores lineales irreducibles.
Por ejemplo la identidad en R2 tiene polinomio m´ınimo x − 1 o sea, es radical. Sin
embargo, es evidentemente la suma directa de la identidad en el eje x y la identidad
en el eje y.
Componentes radicales
6.17
Un vector se le llama radical de tipo p si su per´ıodo es igual a pm y p es irreducible.
Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son radicales
de tipo p.
Si p es factor irreducible de multiplicidad m del polinomio m´ınimo de h
entonces, ker pm
h es el conjunto de todos los vectores radicales de tipo p.
Prueba. Sea a un vector de per´ıodo pk . Si k > m entonces pk = perh (a) no divide
al polinomio m´ınimo y esto no puede ser. Luego k ≤ m. De la monoton´ıa de los
m
n´
ucleos (6.14) obtenemos ker pkh ⊆ ker pm
ıprocamente,
h y por lo tanto a ∈ ker ph . Rec´
m
m
si a ∈ ker ph entonces ph (a) = 0 y por lo tanto perh (a) es un divisor de pm . Como
Secci´on 6.3
Subespacios radicales
161
p es irreducible, necesariamente perh (a) es igual a pk para cierto k ≤ m.
Por el teorema de descomposici´on de un polinomio
en factores irreducibles el poliQ
mp
nomio m´ınimo de h es igual a un producto p∈P p donde P es el conjunto de sus
factores irreducibles y mp es la multiplicidad del polinomio irreducible p. Por el resulm
tado anterior, los espacios ker ph p son los subespacios radicales maximales de h.
De la invariancia de los n´
ucleos (6.13) sabemos que los subespacios radicales maximales son invariantes. A la restricci´on de h a un subespacio radical maximal se le llama
componente radical de h.
6.18
Teorema de Descomposici´
on en Componentes Radicales
Todo operador lineal es la suma directa de sus componentes radicales.
Q
Prueba. Sea h = p∈P pm p el polinomio m´ınimo de h. Si en P hay un solo polinomio
irreducible entonces h es radical y no hay nada que probar. Hagamos inducci´on en
el n´
umero de polinomios irreducibles en P. SeaQr un polinomio irreducible fijo pero
mp
arbitrario en P. Denotemos q = rm r y q0 =
. Tenemos que h = qq0 y
p∈P\r p
que q, q0 son coprimos. Del Lema de Descomposici´on de N´
ucleos (6.15) obtenemos la
descomposici´on en subespacios invariantes complementarios E = F ⊕ G donde F =
ker qh y G = ker q0h .
Sean f y g las restricciones de h a F y G respectivamente. Tenemos que f = f ⊕ g
y que f es una componente radical. De 6.11 el polinomio m´ınimo de g es q. Como q
tiene menos factores irreducibles que h, podemos aplicar hip´otesis de inducci´on.
Como la descomposici´on de un polinomio en polinomios irreducibles es u
´nica salvo
orden de los factores entonces, la descomposici´on de un operador lineal en componentes
radicales es u
´nica salvo orden de los sumandos.
Existencia de un vector de per´ıodo m´
aximo
6.19
La descomposici´on en componentes radicales nos permite limitarnos a considerar
el caso en que el operador lineal h es radical. Esto simplifica mucho las cosas por la
simplicidad de la relaci´on de divisibilidad entre los divisores de los polinomios tipo pn
cuando p es irreducible. Esta relaci´on orden es total. Por ejemplo, si A es un conjunto
un multiplo de A es un
de divisores de pn entonces se cumple que el m´ınimo com´
polinomio en A.
Para cualquier operador lineal h existe un vector tal
que su per´ıodo es igual al polinomio m´ınimo de h.
Prueba. Sea h el polinomio m´ınimo de h : E → E. Primero para el caso cuando
h = pn con p irreducible. El polinomio h es el m´ınimo com´
un m´
ultiplo de los per´ıodos
de todos los vectores y todos estos son divisores de pn . Por la observaci´on que precede
162
Cap´ıtulo 6. Descomposici´on de operadores lineales
a este resultado tiene que ocurrir que uno de esos per´ıodos es pn .
El caso general por inducci´on en el n´
umero de componentes radicales. Descompongamos h = f ⊕ g donde f es una componente radical. Esta descomposici´on se
corresponde con la descomposici´on E = F ⊕ G en subespacios invariantes. Los operadores f y g son las restricciones de h a F y G respectivamente. Los polinomios m´ınimos
f y g de f y g respectivamente son coprimos y cumplen que h = fg. Por hip´otesis de
inducci´on existen vectores a y b en F y G respectivamente tales que f = perh (a) y
g = perh (b).
Denotemos p = perh (a − b). Tenemos p a h = fg. Adem´as, (ph (a − b) = 0) ⇒
(ph (a) = ph (b)). Como F y G son invariantes F 3 ph (a) = ph (b) ∈ G. Como F y G
son complementarios ph (a) = ph (b) = 0. Luego, p ` perh (a) = f y p ` perh (b) = g.
Como f y g son coprimos entonces, p ` fg = h.
6.4
Subespacios c´ıclicos
h-combinaciones
Sea h : E → E un operador lineal. Sea V = {v1 , . . . , vn } ⊆ E un conjunto de
vectores. Una h-combinaci´
on de V es un vector de la forma
ph (v1 ) + qh (v2 ) + · · · + rh (vn )
donde los coeficientes p, q, ..., r son polinomios arbitrarios en K [x].
Le dejamos al lector dar la definici´on para el caso de que V es infinito. En este caso,
hay que exigir soporte finito, o sea que el conjunto de coeficientes no nulos sea finito.
Las h-combinaciones son combinaciones lineales en el caso de que los coeficientes sean polinomios de grado cero. Recordemos que hVi denota el conjunto de todas las combinaciones lineales de V. Denotemos por hVih el conjunto de todas las
h-combinaci´ones de V. La observaci´on anterior significa que hVi ⊆ hVih .
6.20
Conjuntos h-generadores
El conjunto de todas las h-combinaciones
de V es un subespacio invariante.
Prueba. Sea λ un escalar. Sean a = ph (v1 )+· · ·+qh (vn ) y b = rh (v1 )+· · ·+sh (vn )
dos h-combinaciones de V. Entonces,
a + b = p0h (v1 ) + · · · + q0h (vn ) donde p0 = p + r, . . . , q0 = q + s,
λa = p0h (v1 ) + · · · + q0h (vn ) donde p0 = λp, . . . , q0 = λq,
h (a) = p0h (v1 ) + · · · + q0h (vn ) donde p0 (x) = xp (x) , . . . , q0 (x) = xq (x) .
Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que es
invariante.
Secci´on 6.4
Subespacios c´ıclicos
163
Ya es la tercera vez que nos tropezamos con una situaci´on similar. Las anteriores
fueron la cerradura lineal y la cerradura af´ın. Los ejercicios siguientes tres resultados
muestran que la funci´on V 7→ hVih es un operador de cerradura que llamaremos hcerradura. Las pruebas son completamente an´alogas a las que dimos en el Cap´ıtulo
2 para la cerradura lineal.
Ejercicio 115 Pruebe que la intersecci´on de subespacios invariantes es invariante.
Ejercicio 116 Pruebe que hVih es la intersecci´on de todos los subespacios invariantes
que contienen a V.
Ejercicio 117 Pruebe que la h-cerradura cumple las siguientes propiedades:
(incremento),
¨ V ⊆ hVih
¨ V 0 ⊆ V ⇒ hV 0 ih ⊆ hVih (monoton´ıa),
¨ hhVih ih = hVih
(idempotencia).
6.21
A hVih le llamaremos el subespacio invariante h-generado por V. Si hVih es todo
el espacio diremos que V es un h-generador. Obviamente los sobreconjuntos de hgeneradores y los conjuntos generadores (sin la h) son h-generadores.
perh hVih = perh V.
Prueba. Tenemos V ⊆ hVih y por la monoton´ıa del per´ıodo (6.12) sabemos que
perh V a perh hVih . Denotemos q = perh V. Si x ∈ hVih entonces, x es una hcombinaci´on x = ph (v1 ) + · · · + rh (vn ), donde {v1 , . . . , vn } ⊆ V. De la linearidad
y conmutatividad obtenemos que
qh (x) = qh (ph (v1 )) + · · · + qh (rh (vn )) = ph (qh (v1 )) + · · · + rh (qh (vn )) = 0.
Luego, perh V est´a en el anulador de hVih y por lo tanto perh V ` perh hVih .
Subespacios c´ıclicos
6.22
Un subespacio invariante se le llama h-c´ıclico si este est´a h-generado por un solo
vector. Los subespacios c´ıclicos son los h-an´alogos de las rectas por el origen que est´an
generadas (sin la h) por un solo vector. Al operador h se le llama c´ıclico si todo el
espacio es h-c´ıclico.
El siguiente resultado es “an´alogo” a que si una recta por el origen est´a generada
por a entonces tambi´en est´a generada por los m´
ultiplos de a.
Si q es un polinomio coprimo con perh a entonces, haih = hqh (a)ih y perh a = perh qh (a).
Prueba. Denotemos p = perh a. Sea q un polinomio coprimo con p y denotemos
164
Cap´ıtulo 6. Descomposici´on de operadores lineales
a0 = qh (a). Demostremos que existe un polinomio r tal que a = rh (a0 ). Efectivamente
por el Teorema de Bezout existen polinomios s y r tales que sp + rq = 1 y por lo tanto
rh (a0 ) = (rq)h (a) = (sp)h (a) + (rq)h (a) = I (a) = a
y as´ı el polinomio r cumple lo que queremos.
Luego a0 ∈ haih y a ∈ ha0 ih . Usando la monoton´ıa y la idempotencia de la hcerradura obtenemos que ha0 ih ⊆ haih y haih ∈ ha0 ih .
Por esto, usando 6.21 obtenemos que
perh qh (a) = perh hqh (a)ih = perh haih = perh a.
6.23
Ahora veremos que los subespacios c´ıclicos pueden tener dimension grande. Esto
significa que la analog´ıa con las rectas por el origen no hay que llevarla demasiado lejos.
Si el per´ıodo
n, ª
entonces el conjunto de
© de a es de grado
n−1
vectores a, h (a) , . . . , h
(a) es una base de haih .
6.24
©
ª
Prueba. Denotemos p = perh a y B = a, h (a) , . . . , hn−1 (a) . Tenevos que convencernos que B es una base del subespacio haih . Si hubiera una combinaci´on lineal
β0 a + β1 h (a) + · · · + βn−1 hn−1 (a) = 0
con no todos sus coeficientes nulos entonces, el polinomio no nulo
q (x) = β0 + β1 x + · · · + βn−1 xn−1
ser´ıa tal que qh (a) = 0 y esto contradice (q tiene grado menor que n) que los polinomios en el anulador de a son los multiplos de p. Luego, B es LI.
Por otro lado, para cualquier vector x ∈ haih existe un polinomio q tal que x =
qh (a). Efectuando la divisi´on con resto obtenemos q = cp + r donde el grado de r es
estrictamente menor que n y por lo tanto rh (a) ∈ hBi.
Tenemos que
rh (a) = (q − cp)h (a) = qh (a) − ch (ph (a)) = qh (a) = x
Esto significa que hBi = haih y por lo tanto es una base de haih .
Una consecuencia obvia de este resultado es la siguiente.
dim haih es igual al grado del per´ıodo de a.
Conjuntos h-independientes
Un conjunto de vectores {v1 , . . . , vn } no nulos se le llama h-independiente si
(ph (v1 ) + · · · + qh (vn ) = 0) ⇒ (ph (v1 ) = · · · = qh (vn ) = 0)
Esto es equivalente a que si una h-combinaci´on de ellos es cero entonces, para todo i el
coeficiente de vi es un m´
ultiplo del per´ıodo de vi . Al considerar coeficientes de grado
cero vemos que los conjuntos h-independientes siempre son linealmente independien-
Secci´on 6.4
Subespacios c´ıclicos
165
tes. En particular, el n´
umero de elementos en un conjunto h-independiente no puede
sobrepasar la dimensi´on del espacio.
Es posible imaginar tres definiciones distintas de h-independencia:
(ph (v1 ) + · · · + qh (vn ) = 0) ⇒ (p = · · · = q = 0)
(ph (v1 ) + · · · + qh (vn ) = 0) ⇒ (ph = · · · = qh = O)
(ph (v1 ) + · · · + qh (vn ) = 0) ⇒ (ph (v1 ) = · · · = qh (vn ) = 0)
6.25
En la primera se pide que los polinomios sean cero. En la segunda que los operadores
lineales sean cero. En la tercera que los vectores sean cero. Las dos primeras son
erroneas.
Si V = {v1 , . . . , vn } es h-independiente entonces hVih = hv1 ih ⊕ · · · ⊕ hvn ih .
Prueba. Por inducci´on en el natural n. Si n = 1 el resultado es obvio. Denotemos
V 0 = {v2 , . . . , vn }. Tenemos que probar que hVih = hv1 ih +hV 0 ih y que hv1 ih ∩hV 0 ih = 0.
Si a ∈ hVih entonces existen coeficientes polinomiales tales que a = ph (v1 ) +
qh (v2 )+· · ·+rh (vn ). Obviamente, a0 = ph (v1 ) ∈ hv1 ih , a00 = qh (v2 )+· · ·+rh (vn ) ∈
hV 0 ih y a = a0 + a00 . Luego, hVih ⊆ hv1 ih + hV 0 ih . La otra inclusi´on se demuestra igual.
Supongamos que a ∈ hv1 ih ∩ hV 0 ih . Entonces, existen polinomios tales que
ph (v1 ) = a = qh (v2 ) + · · · + rh (vn )
por lo tanto
ph (v1 ) − qh (v2 ) − · · · − rh (vn ) = 0.
Como V es h-independiente entonces, a = ph (v1 ) = 0. Luego, hVih = hv1 ih ⊕ hV 0 ih y
usando la hip´otesis de inducci´on terminamos la prueba
h-bases
6.26
El resultado anterior es bueno para nosotros. Si solo V adem´as de h-independiente
fuera h-generador, obtendr´ıamos una descomposici´on de todo el espacio en suma directa
de subespacios invariantes h-generados por un solo vector o sea c´ıclicos.
Una h-base es un conjunto de vectores que es h-independiente y h-generador. El
u
´nico problema es que no sabemos si existen o no las h-bases. Veremos en la siguiente
secci´on que s´ı existen, sin embargo, el demostrarlo no es tan sencillo como en el caso
de las bases ordinarias.
Por lo pronto, nos conformaremos con dos consecuencias obvias de lo ya demostrado:
Si A es una h-base entonces, la dimensi´
on del espacio es igual
a la suma de los grados de los h-per´ıodos de los vectores en A.
Prueba. Es consecuencia de que la dimensi´on de la suma directa es la suma de las
dimensiones y de que la dimensi´on de un subespacio c´ıclico es igual al grado del per´ıodo
166
Cap´ıtulo 6. Descomposici´on de operadores lineales
6.27
de su h-generador (6.23).
Si A es una h-base entonces, el polinomio m´ınimo de h es igual
al m´ınimo com´
un multiplo de los h-per´ıodos de los vectores en A.
Prueba. Es consecuencia de que el per´ıodo de la suma directa es el m´ınimo com´
un
m´
ultiplo de los per´ıodos de los sumandos (6.11) y de 6.21.
6.5
Descomposici´
on en subespacios c´ıclicos radicales.
Entre todos los subespacios h-c´ıclicos los m´as grandes son aquellos que est´an hgenerados por vectores cuyo per´ıodo tiene grado lo m´as grande posible (6.23), o sea,
aquellos cuyo per´ıodo es igual al polinomio m´ınimo. A estos subespacios les llamaremos
les llamaremos h-c´ıclicos maximales. Por 6.19 siempre existe alg´
un subespacio hc´ıclico maximal.
La estrategia para deshacernos del problema de que no cualquier subespacio invariante tiene complementario invariante es limitarnos a los operadores radicales, fijarnos
solamente en los subespacios invariantes maximales y construir un complementario que
s´ı es invariante. Para eso necesitaremos usar espacios cocientes.
El espacio cociente por un subespacio invariante
Sea h : E → E un OL y F un subespacio h-invariante o sea h (F) ⊆ F. El espacio
cociente E/F es el conjunto de todos los subespacios afines paralelos a F. Lo que
queremos ver es que si los vectores v y u est´an en un mismo subespacio af´ın paralelo
a F entonces h (v) y h (u) cumplen exactamente lo mismo.
Efectivamente, si v y u est´an en un mismo subespacio af´ın paralelo a F entonces
v − u ∈ F. Como F es h-invariante entonces h (v) − h (u) = h (v − u) ∈ F y por lo
tanto h (v) y h (u) est´an en un mismo subespacio af´ın paralelo a F. N´otese que aqu´ı el
argumento crucial es que F es h-invariante.
e en el espacio cociente con la igualdad h
e (v + F) = h (v)+F.
Definiremos la funci´on h
e est´a bien definida, o sea, si v + F = u + F entonces,
Por la observaci´on precedente, h
e es un OL en E/F ya que
h (v) + F = h (u) + F. Observese que h
e (v + F + u + F) = h
e (v + u + F) = h (v + u) + F =
h
e (v + F) + h
e (u + F) ;
= h (v) + F + h (u) + F = h
e (λ (v + F)) = h
e (λv + F) = h (λv) + F = λh (v) + F = λ (h (v) + F) = λh
e (v + F) .
h
Necesitaremos conocer mejor los OLs del espacio cociente End (E/F).
6.28
Secci´on 6.5 Descomposici´on en subespacios c´ıclicos radicales.
167
El conjunto EndF (E) de todos los operadores lineales
que dejan invariante F es una sub´algebra de End (E).
6.29
Prueba. Sean f y g dos operadores en EndF (E). Sea λ un escalar. Para cualquier
vector v ∈ F tenemos f (v) ∈ F y g (v) ∈ F y por lo tanto
(g + f) (v) = g (v) + f (v) ∈ F ; I (v) ∈ F ;
(g ◦ f) (v) = g (f (v)) ∈ F ; (λf) (v) = λf (v) ∈ F.
F
Luego, End (E) es una subalgebra.
e ∈ End (E/F) es un morfismo de a´lgebras.
La funci´
on EndF (E) 3 h 7→ h
e es morfismo para la composici´on
Prueba. Probaremos que h 7→ h
e
fg
◦ g (v + F) = (f ◦ g) (v) + F = f (g (v)) + F =
³ f (g (v)
´ + F) =
e (v + F) ;
= fe(g (v) + F) = fe(e
g (v + F)) = fe ◦ g
y para la suma
f]
+ g (v + F) = (f + g) (v) + F = f (v) +³F + g´(v) + F =
e (v + F) = fe + g
e (v + F) ;
= fe(v + F) + g
y para el producto por escalares
e (v + F) = (λf) (v) + F = f (λv) + F = fe(λv + F) =
λf
³ ´
e
= f (λ (v + F)) = λfe (v + F) ;
y que preserva la identidad eI (v + F) = I (v) + F = v + F = I (v + F) .
Ejercicio 118 Muestre que el morfismo h 7→ he es sobreyectivo y su n´ucleo est´a for-
mado por aquellos operadores lineales cuya imagen es F. [196]
Polinomios y el espacio cociente
6.30
e en E/F a saber
Sea F ⊆ E un subespacio h-invariante. Ya vimos como se define h
e (v + F) = h (v) + F y comprobamos que esta definici´on es correcta debido a la hh
fh (v + F) = ph (v) + F necesitamos que F sea
invariancia de F. Para poder definir p
ph -invariante. Por suerte, esto se cumple autom´aticamente.
Sea p un polinomio. Si F es h-invariante entonces tambi´en es ph -invariante.
Prueba. Como el conjunto de los operadores que preservan F es una sub´algebra del
algebra de todos los operadores entonces todos los hn estan ah´ı, tambi´en todas las
168
Cap´ıtulo 6. Descomposici´on de operadores lineales
combinaciones lineales de estos o sea, todos los polinomios evaluados en h.
6.31
fh es un OL bien definido en el espacio cociente. Por otro lado, si evaluamos
Luego, p
e obtendremos p que es otro OL bien definido en el
el polinomio p en el operador h
h
espacio cociente.
fh = ph
p
e es un morfismo de a´lgebras,
Prueba. Sea p (x) = Σαi xi . Como la funci´on h 7→ h
tenemos
³ ´i
X^
Xn
Xn
Xn
n
e
i =
i =
e = p
fh =
αg
h
p
αi hi =
h
α
α
i
i
i h
h
i=0
i=0
i=0
i=0
y esto es lo que se necesitaba probar.
Esto es muy c´omodo, ya que en el cociente tenemos la f´ormula ph (v + F) =
fh (v + F) = ph (v) + F.
p
6.32
El per´ıodo en el espacio cociente
Si b ∈ v + F entonces perh (b) ` perh (v + F).
Prueba. Sea b ∈ v+F. Si p = perh (b) entonces ph (b + F) = ph (b)+F = 0+F = F
y por lo tanto p ` perh (b + F). La prueba concluye observando que v + F = b + F.
Ejercicio 119 Pruebe que perh (b) a perh (b + F) si y solo si hbih ∩ F = {0}. [196]
El resultado que sigue no es trivial y consiste en que bajo ciertas condiciones es
posible encontrar un b ∈ v+F tal que perh (b) a perh (v + F) y por lo tanto perh (b) =
perh (v + F).
6.33
Lema del Per´ıodo
Sea h ∈ End (E) radical y F = haih un subespacio h-c´ıclico maximal. Para cualquier v+F ∈ E/F existe b ∈ v+F tal que perh (b) a perh (v + F).
Prueba. Sea pn (con p irreducible) el polinomio m´ınimo de h. Como F = haih es
maximal, el h-per´ıodo de a es pn . Los h-per´ıodos de todos los vectores son potencias
e
de p. Los h-per´
ıodos de todos v + F son potencias de p ya que por 6.32 estos son
divisores de los per´ıodos de los vectores.
Secci´on 6.5 Descomposici´on en subespacios c´ıclicos radicales.
169
e
Sea v + F ∈ E/F de h-per´
ıodo pm . Sabemos que m ≤
F = ha0 ih
n. Veamos que existe un natural k y un vector a0 tales
perh (a0 ) = pn
que se cumplen las propiedades del recuadro a la derecha.
k
0
m
m
Efectivamente, sabemos que ph (v) + F = ph (v + F) = F pm
h (v) = ph (a ) (*)
o lo que es lo mismo pm
h (v) ∈ F = haih . Luego, existe
un polinomio r tal que pm
on de un
h (v) = rh (a). Usando el teorema de descomposici´
polinomio en producto de irreducibles, existen un polinomio q coprimo con p y un
def
natural k ≥ 0 tales que r = pk q. Por 6.22 el vector a0 = qh (a) es tambi´en un hgenerador de F y a0 tiene el mismo h-per´ıodo que a o sea, pn . Adem´as pm
h (v) =
k
k
0
rh (a) = ph (qh (a)) = ph (a ) y esto demuestra la igualdad (*).
Si ocurriera que m > k entonces, aplicando pn−m
a la igualdad (*) y observando
h
n
que p es el polinomio m´ınimo, obtendr´ıamos que 0 = pnh (v) = pn−m+k
(a0 ) . Como
h
n − m + k < n esto contradecir´ıa que el h-per´ıodo de a0 es pn .
Luego, m ≤ k y esto nos sirve para definir el siguiente vector
def
b = v − pk−m
(a0 ) .
h
Observese que b ∈ v + F ya que pk−m
(a0 ) ∈ ha0 ih = F. Aplicando pm
on
h a la definici´
h
(*)
de b, obtenemos que
m
k
0
pm
h (b) = ph (v) − ph (a ) = 0
por lo que perh (b) a pm .
Existencia de h-bases
6.34
Lema del Cociente
Sea h : E → E un operador radical y F = haih un subespacio h-c´ıclico
e
del espacio cociente
maximal. Si {v1 + F , . . . , vm + F} es una h-base
E/F entonces, existen vectores b1 ∈ v1 + F, . . . , bm ∈ vm + F tales que
{a, b1 , . . . , bm } es una h-base de E.
Prueba. Sea a un h-generador de F. Aplicando el Lema del Per´ıodo (6.33) a v1 +
F, . . . , vm + F, obtenemos b1 ∈ v1 + F, . . . , bm ∈ vm + F tales que el h-per´ıodo de bi es
def
e
igual al h-per´
ıodo de vi + F. Denotemos B = {a, b1 , . . . , bm }. Observese que
def
B r a = {b1 + F, . . . , bm + F} = {v1 + F, . . . , vm + F}
e
es una h-base
®de E/F. Probemos que B es h-generador de E. Si x ∈ E entonces
­
x + F ∈ B r a h , o sea, existen coeficientes polinomiales tales que
x + F = qh (b1 + F) + · · · + rh (bm + F) = qh (b1 ) + · · · + rh (bm ) + F
o lo que es lo mismo x−qh (b1 )−· · ·−rh (bm ) ∈ F = haih . Luego, existe otro polinomio
s tal que x − qh (b1 ) − · · · − rh (bm ) = sh (a) y por lo tanto
x = sh (a) + qh (b1 ) + · · · + rh (bm ) ∈ hBih .
170
Cap´ıtulo 6. Descomposici´on de operadores lineales
Para probar que B es h-independiente supongamos que existen polinomios tales que
0 = sh (a) + qh (b1 ) + · · · + rh (bm ) . (*)
Pasando al cociente (sumando F) obtenemos
0 + F = sh (a) + F + qh (b1 ) + F + · · · + rh (bm ) + F =
= qh (b1 + F) + · · · + rh (bm + F)
y como B r a es independiente obtenemos que
qh (b1 + F) = · · · = rh (bm + F) = 0 + F.
e
ıodo de bi + F concluimos que
Como el h-per´ıodo de bi es igual al h-per´
qh (b1 ) = · · · = rh (bm ) = 0.
Substituyendo esto en la igualdad (*) obtenemos sh (a) = 0.
6.35
Teorema de Existencia de h-bases
Cualquier operador lineal radical h tiene una h-base.
Prueba. Sea h : E → E un operador radical y F = haih subespacio h-c´ıclico maximal.
Hagamos inducci´on en dim h. Si dim h = 1 entonces, F = E y por lo tanto {a} es una
h-base.
Supongamos dim h > 1. Si F = E entonces, otra vez {a} es una h-base. Si no,
entonces E/F es no trivial y dim E/F < dim h. Por hip´otesis de inducci´on E/F tiene
e
una h-base
y por el Lema del Cociente (6.34) existe una h-base de E.
Ejercicio 120 Demuestre la siguente afirmaci´on. Sean h : E → E un OL y E = F ⊕ G
una descomposici´on de E en subespacios h-invariantes. Si A es una h-base de F y B es
una h-base de G entonces A ∪ B es una h-base de E. [196]
Ejercicio 121 Use el ejercicio anterior, el Teorema de Descomposici´on en Componentes Radicales (6.18) y el Teorema de Existencia de h-bases (6.35) para probar todo
operador lineal h tiene una h-base.
6.36
Teorema de Descomposici´
on en Componentes Radicales C´ıclicas
Todo operador lineal es suma directa de componentes radicales c´ıclicas.
Prueba. Sea h : E → E un OL. Si h es radical entonces E tiene una h-base
{a1 , . . . , an }. Por 6.25 E = ha1 ih ⊕· · ·⊕han ih . Por 6.20 todos los ha1 ih son subespacios
invariantes. Denotando por fi la restricci´on de h a hai ih obtenemos h = f1 ⊕ · · · ⊕ fn .
Si h no es radical entonces usando el Teorema de Descomposici´on en Componentes
Radicales (6.18) lo descomponemos en componentes radicales y posteriormente cada
componente radical la descomponemos en componentes c´ıclicas.
Secci´on 6.5 Descomposici´on en subespacios c´ıclicos radicales.
171
Unicidad de la descomposici´
on
A diferencia de la descomposici´on en componentes radicales una descomposici´on en
componentes radicales c´ıclicas no es u
´nica. Esto sucede porque h-bases pueden haber
muchas. Por ejemplo para la identidad en R2 cualesquiera dos rectas diferentes por
el origen forman una descomposici´on en subespacios invariantes radicales c´ıclicos. Sin
embargo, lo que s´ı es u
´nico es el “tipo” de la descomposici´on.
Si h = f1 ⊕ · · · ⊕ fn es una descomposici´on entonces, a la sucesi´on p, q, . . . , r de los
polinomios m´ınimos de las componentes se le llama el tipo de la descomposici´
on.
Dos tipos se consideran iguales si uno se puede obtener del otro reordenando la sucesi´on.
6.37
Teorema de Unicidad del Tipo
Dos descomposiciones cualesquiera en componentes radicales c´ıclicas tienen el mismo tipo.
6.38
Antes de demostrar nuestro teorema de unicidad necesitamos demostrar tres resultados auxiliares sencillos. El lector a´vido puede salt´arselos y regresar a ellos en la
medida de sus necesidades. En los siguientes tres resultados h : E −→ E es un operador
radical con polinomio m´ınimo pn (no se necesita que sea c´ıclico).
perh x = p × perh ph (x).
6.39
Prueba. Los per´ıodos de los vectores son divisores del polinomio m´ınimo, en par(ph (x)) = pkh (x) = 0.
ticular, el per´ıodo de x es pk para cierto k ≤ n. Tenemos pk−1
h
k−2
k−1
k−1
Por otro lado ph (ph (x)) = ph (x) 6= 0. Luego, p
es el polinomio m´onico de
grado m´as peque˜
no que anula a ph (x). Un lector cuidadoso deber´ıa analizar los casos
k ∈ {0, 1} para los cuales esta prueba es formalmente incorrecta.
ph (E) es un subespacio invariante y dim ph (E) < dim E.
6.40
Prueba. El subespacio F = ph (E) = Im ph es invariante ya que h (ph (x)) =
ph (h (x)). Sea x un vector no nulo de per´ıodo pk (claramente estamos asumiendo
que E 6= {0}). Si k = 1 entonces, x ∈ ker ph . Si k > 1 entonces, el vector no nulo
(x) es tal que ph (y) = 0. De aqu´ı, el OL ph tiene n´
ucleo no trivial y por lo
y = pk−1
h
tanto F 6= E. Luego, dim F < dim E.
Si X es una h-base de E entonces ph (X) \ {0} es una h-base de ph (E).
def
Prueba. Para todo x ∈ E denotemos x = ph (x). Sea X = {u, . . . , v} una h-base de
172
Cap´ıtulo 6. Descomposici´on de operadores lineales
def
E. Comprobaremos que X = {x | x ∈ X y x 6= 0} es una h-base de F. Efectivamente, si
def
y ∈ F = ph (E) entonces, como X es h-generador, existen polinomios tales que:
y = qh (u) + · · · + rh (v) = qh (u) + · · · + rh (v) .
Es claro que en la suma de
­ la
® derecha podemos descartar aquellos sumandos para los
cuales x = 0. Luego, F ⊆ X h o sea, X es un h-generador de F. Supongamos que para
ciertos polinomios q, . . . , r se tiene que
0 = qh (u) + · · · + rh (v) = (qp)h (u) + · · · + (rp)h (v) .
Como X es h-independiente, entonces
0 = (qp)h (u) = qh (u) = · · · = (rp)h (v) = rh (v)
y por lo tanto X es h-independiente. Luego, X es una h-base de F.
Ya estamos listos para probar el teorema de unicidad.
Prueba. (Del Teorema de Unicidad del Tipo) De la definici´on del tipo y de la
unicidad de la descomposici´on en componentes radicales queda claro que es suficiente
demostrar el teorema para OLs radicales h : E −→ E cuyo polinomio m´ınimo es una
potencia de un polinomio irreducible que denotaremos por p.
def
Para cualquier vector x denotaremos x = ph (x). Para cualquier conjunto de vecdef
tores X denotaremos X = {x | x ∈ X y x 6= 0}.
Sean E = ha1 ih ⊕ · · · ⊕ han ih = hb1 ih ⊕ · · · ⊕ hbm ih dos descomposiciones en
subespacios c´ıclicos. Como h es radical los per´ıodos de todos sus vectores son potencias del polinomio irreducible p. Sean pn i los per´ıodos de los ai y pm i los per´ıodos
de los bi . Los tipos de estas dos descomposiciones son pn1 , . . . , pn n y pm 1 , . . . , pm m
respectivamente. Reordenando los sumandos podemos suponer que n1 ≥ · · · ≥ nn y
que m1 ≥ · · · ≥ mm . Tambi´en podemos suponer que n ≥ m. Tenemos que probar que
n = m y que los ni son iguales a los mi .
Hagamos la prueba del teorema por inducci´on en dim h. Si dim h = 1 entonces,
necesariamente n = m = 1 y n1 = m1 .
Los conjuntos A = {a1 , . . . , an } y B = {b1 , . . . , bm } son dos h-bases de E. Por 6.40
tenemos que A y B son bases de F = ph (E). Sea k ∈ {0, . . . , n} el mayor ´ındice tal que
nk > 1. Sea ` ∈ {0, . . . , m} el mayor ´ındice tal que m` > 1.
Si i > k entonces, perh (ai ) = p y por
© lo tanto a
ªi = 0. Luego, A = {a1 , . . . , ak }.
Un argumento an´alogo nos dice que B = b1 , . . . , b` .
­ ®
­ ®
Luego, F = ha1 ih ⊕ · · · ⊕ hak ih = b1 h ⊕ · · · ⊕ b` h son dos descomposiciones
de F en subespacios ciclico-radicales. Por 6.38 los tipos de estas descomposiciones son
pn 1 −1 , . . . , pnk −1 y pm 1 −1 , . . . , pm ` −1 . Como por 6.39 dim F < dim E, podemos aplicar
hip´otesis de inducci´on y as´ı obtenemos que
k = `, n1 − 1 = m1 − 1, · · · , nk − 1 = mk − 1.
O sea, todos los ni son iguales a los mi desde i = 1 hasta k = `.
Sea ∇ el grado de p. De 6.26 obtenemos que
(n1 + · · · + nn ) ∇ = dim E = (m1 + · · · + mm ) ∇
y por lo tanto
nk+1 + · · · + nn = mk+1 + · · · + mm .
Secci´on 6.5 Descomposici´on en subespacios c´ıclicos radicales.
173
Todos los ni y los mi para i > k son iguales a 1 y por lo tanto n = m. Con esto,
para todo i el natural ni es igual a mi .
Ejercicio 122 Sean p = perh (a) y q = perh (b) los per´ıodos de dos vectores. Demuestre que si p y q son coprimos entonces, ha + bih = haih ⊕ hbih . [196]
Ejercicio 123 Use el ejercicio anterior y el Teorema de Descomposici´on en Componentes Radicales C´ıclicas (6.36) para probar que cualquier OL tiene una descomposici´on
en OL c´ıclicos f1 ⊕· · ·⊕ft en la cual el polinomio m´ınimo de cada fi divide al polinomio
m´ınimo del siguiente. [197]
Ejercicio 124 Usando el Teorema de Unicidad del Tipo (6.37) demuestre que el tipo
de las descomposiciones introducidas en el ejercicio anterior es u
´nico. [197]
Estructura de los operadores c´ıclico-radicales
6.41
Ahora queremos conocer todos los subespacios invariantes de los operadores c´ıclico radicales para poder demostrar que estos son irreducibles. En los tres siguientes
resultados h : E → E es un operador c´ıclico-radical con polinomio m´ınimo pn .
Si x es un vector de per´ıodo pk con k < n entonces, existe un vector y tal que x = ph (y) y perh (y) = pk+1 .
6.42
Prueba. Sea a un vector h-generador. Existe un polinomio q tal que x = qh (a). Si
q fuera coprimo con p entonces el per´ıodo de x fuera el mismo que el de a y eso no es
cierto por hip´otesis. Luego q = pr y si ponemos y = rh (a) obtenemos que x = ph (y).
Por 6.38 perh (y) = pk+1 .
Si perh (x) = pk entonces hxih = ker pkh .
6.43
Prueba. Sea x de per´ıodo pk . Aplicando repetidamente 6.41 existe un vector a tal que
(a) y perh (a) = pn y por lo tanto a es un h-generador de todo el espacio.
x = pn−k
h
Como x ∈ ker pkh por monoton´ıa de la h-cerradura tenemos que hxih ⊆ ker pkh .
Rec´ıprocamente, sea b ∈ ker pkh entonces, perh b a pk y por 6.41 existe y tal que
b = pn−k
(y). Sea q tal que y = qh (a) . Entonces b = pn−k
(qh (a)) = qh (x). Luego,
h
h
k
ker ph ⊆ hxih .
Los subespacios ker pkh , k ∈ {0, 1, . . . , n} son
los u
´nicos subespacios invariantes de h.
174
Cap´ıtulo 6. Descomposici´on de operadores lineales
Prueba. Sea F cualquier subespacio h-invariante de E. Sea k ≤ n tal que perh F = pk .
De aqu´ı, F ⊆ ker pkh . Por 6.19 existe un vector x ∈ F de per´ıodo pk . Por monoton´ıa de
la h-cerradura hxih ⊆ F. Por 6.42 hxih = ker pkh .
6.44
Teorema de Caracterizaci´
on de los OLs irreducibles
Un operador lineal es irreducible si y solo si es c´ıclico y radical.
Prueba. Sea h un OL. Si h no es c´ıclico radical entonces por el Teorema de Descomposici´on en Componentes Radicales C´ıclicas (6.36) este se descompone no trivialmente.
Si h es c´ıclico radical entonces, por 6.43 sus subespacios invariantes son del tipo ker pkh .
Por monoton´ıa de los n´
ucleos (6.14), dados dos de estos, siempre hay uno incluido dentro del otro. Luego, h no tiene una pareja de subespacios invariantes complementarios
no triviales.
6.6
Polinomio caracter´ıstico
Rectas invariantes
6.45
Los subespacios invariantes no triviales m´as sencillos que nos podemos imaginar
son los de dimensi´on 1 o sea, las rectas por el origen. Si h : E → E es un OL y F
es invariante de dimensi´on 1 entonces, la restricci´on de h a F es una homotecia. Sea
{a} una base de F. Entonces, existe un escalar λ (la raz´on de la homotecia) tal que
h (a) = λa.
Rec´ıprocamente, supongamos que existen un escalar λ y un vector no nulo a tales
que h (a) = λa entonces, al vector a se le llama vector propio del operador h y al
escalar λ se le llama valor propio de h. Tambi´en decimos que λ es el valor propio
correspondiente al vector propio a. Observese que el valor propio correspondiente
a un vector es u
´nico pues de λa = λ0 a obtenemos (λ − λ0 ) a = 0 y como a 6= 0 esto
implica que λ = λ0 .
La recta hai es h-invariante si y solo si a es un vector propio de h.
Prueba. Ya vimos la parte “solo si”. Supongamos que a es un vector propio. Sea λ su
correspondiente valor propio. Por linearidad de h, para cualquier escalar α se cumple
que h (αa) = αh (a) = α (λa) = (αλ) a y esto significa que hai es h-invariante.
Secci´on 6.6
Polinomio caracter´ıstico
175
El polinomio caracter´ıstico de un operador lineal
6.46
Recordemos que el determinante de un OL est´a bien definido como el determinante
de su matriz en una base arbitraria.
El hecho de que h (a) = λa lo podemos expresar como que el operador λI − h
evaluado en el vector a es cero. O sea el vector est´a en el n´
ucleo de λI − h. Esto quiere
decir que ker (λI − h) es el conjunto de todos los vectores propios correspondientes a
λ. Sabemos que ker (λI − h) 6= {0} si y solo si det (λI − h) = 0 (v´ease 4.26, 4.27, 3.25
y 3.28). Luego, λ es un valor propio de h si y solo si det (λI − h) = 0.
As´ı, para calcular los valores propios de h podr´ıamos probar todos los elementos λ
del campo y comprobar si det (λI − h) = 0. Esta estrategia es imposible de realizar si el
campo K es infinito. Por esto es mejor considerar la funci´on K 3 x 7→ det (xI − h) ∈ K
y encontrar sus raices.
det (xI − h) es un polinomio m´
onico de grado dim h en la variable x.
Prueba. Sabemos que el determinante de un OL no depende de la base en el cual se
calcule. Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dim h.
Sea αNN la matriz de h en la base N. La matriz de xI − h en la base N es βNN =
xδNN − αNN donde δNN es el delta de Kronecker (la matriz identidad). Las entradas
de βNN son βii = x − αii y βij = −αij para cualquier j 6= i.
El determinante lo calculamos por laX
definici´on
Y
det βNN =
sgn σ
βiσi .
σ∈S N
i∈N
Como los βij son polinomios, el producto y la suma de polinomios son polinomios,
tenemos que det βNN es un polinomio. Observemos adem´as que βNN solo contiene la
variable x en la diagonal. Por esto, la potencia m´as grande de x en det βNN se obtiene
cuando la permutaci´on σ es la identidad,
o sea en el producto
Y
Y
βii =
(x − αii ) .
i∈N
i∈N
Por la ley distributiva vemos que es de grado |N| y tiene coeficiente principal 1.
Al polinomio det (xI − h) se le llama polinomio caracteristico de h. De esta manera, los valores propios de h son las raices del polinomio caracter´ıstico. Si αNN es la matriz de h en la base N entonces, los vectores propios correspondientes a un valor propio
λ se pueden hallar resolviendo el sistema de ecuaciones lineales (λδNN − αNN ) aN = 0N .
Este es un sistema de ecuaciones lineales y su conjunto de soluciones es ker (λI − h). El
conjunto ker (λI − h) es un subespacio invariante (porque es el nucleo de un polinomio
evaluado en h) que se conoce como el subespacio propio correspondiente al valor
propio λ. La restricci´on de h a un subespacio propio es una homotecia. De hecho, los
subespacios propios son los subespacios invariantes m´as grandes en los que h es una
homotecia.
176
Cap´ıtulo 6. Descomposici´on de operadores lineales
Ejercicio 125 A la suma de las entradas en la diagonal de una matriz se le llama
traza de la matriz. Demuestre que la traza es una propiedad de los operadores lineales,
o sea que la traza no cambia al hacer un cambio de base. [197]
El polinomio caracter´ıstico y el polinomio m´ınimo
6.47
Para ver como se relacionan el polinomio caracter´ıstico
y el polinomio m´ınimo daremos la siguiente definici´on. Sea
p = xn + αn−1 xn + ... + α1 x + α0 un polinomio m´onico.
A la matriz cuadrada de orden n que se muestra en el
recuadro a la derecha se le llama matr´ız acompa˜
nante
del polinomio p.
⎛
⎜
⎜
⎜
⎜
⎝
0 0 ... 0
−α0
1 0 ... 0
−α1
... ... ... ...
...
0 0 ... 0 −αn−2
0 0 ... 1 −αn−1
⎞
⎟
⎟
⎟
⎟
⎠
El polinomio caracter´ıstico de la matriz
acompa˜
nante del polinomio p es igual a p.
Prueba.
Por definici´on el polinomio caracter´ısti- ⎛
x
co de la matriz acompa˜
nante del polinomio p = xn +
⎜ −1
n
αn−1 x +...+α1 x+α0 es el determinante de la matriz ⎜
⎜ ...
que se muestra a la derecha. Calcul´emoslo. Triangu- ⎜
⎝ 0
lando con el m´etodo de eliminaci´on de Gauss obtene0
mos que este determinante es igual al de la siguiente
⎛
matriz:
x 0 ... 0
α0
0
x
...
0
α
+
α0 x−1
1
⎜
⎜ ... ... ... ...
...
⎝
−1
−n+3
0
0
0
0
...
...
x
0
0
x
...
0
0
... 0
α0
... 0
α1
... ...
...
... x
αn−2
... −1 x + αn−1
+ α0 x−n+2
αn−2 + αn−3 x + · · · + α1 x
−1
−n+2
x + αn−1 + αn−2 x + · · · + α1 x
+ α0 x−n+1
⎞
⎞
⎟
⎟
⎟
⎟
⎠
⎟
⎟.
⎠
6.48
Multiplicando las entradas en la diagonal obtenemos p. El lector debe observar el
uso de potencias negativas de la variable. Esto quiere decir que el c´alculo lo hicimos en
el campo de funciones racionales K (x).
Sea h un OL ©c´ıclico con polinomio m´
ªınimo p de grado n. La matriz de
nante de p.
h en la base a, h (a) , . . . , hn−1 (a) es la matriz acompa˜
ª
def ©
Prueba. Denotemos B = {v0 , . . . , vn−1 } = a, h (a) , . . . , hn−1 (a) . Sabemos por
6.23 que B es una base. Veamos como transforma h a los vectores de la base B. Tenemos
que para k ∈ {0, . . . , n − 2} se cumple que h (vk ) = vk+1 lo que justifica las n − 1
primeras columnas de la matriz acompa˜
nante. Por otro lado si p = xn + αn−1 xn−1 +
Secci´on 6.6
Polinomio caracter´ıstico
177
· · · + α1 x + α0 es el polinomio m´ınimo de h. entonces
n−1
n−1
X
X
n
i
h (vn−1 ) = h (a) = ph (a) −
αi h (a) = 0 −
αi vi
i=0
i=0
6.50
6.49
y esto justifica la u
´ltima columna de la matriz acompa˜
nante.
Una consecuencia inmediata de 6.48 y 6.47 es el siguiente:
Si h es c´ıclico entonces, los polinomios
m´ınimo y caracter´ıstico de h coinciden.
Si h = f ⊕ g entonces, el polinomio caracter´ıstico de h es
igual al producto de los polinomios caracter´ısticos de f y g.
¶
Prueba. Sean F y G los subespacios invariantes en los cuales estan µ
M 0
definidas f y g. Por 6.3, si A es una base de F y B es una base de G
0 M0
entonces, en la base de todo el espacio A ∪ B, la matriz de xI − h es
diagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igual
al producto de los determinantes de los bloques diagonales. El determinante del bloque
superior izquierdo es el de xI−f o sea, el polinomio caracter´ıstico de f. El determinante
del bloque inferior derecho es el de xI − g o sea, el polinomio caracter´ıstico de g. ¥
6.51
Teorema de Hamilton-Caley-Frobenius
El polinomio caracter´ıstico es un m´
ultiplo del polinomio m´ınimo.
Estos dos polinomios tienen los mismos factores irreducibles.
Prueba. Por el Teorema de Descomposici´on en Componentes Radicales C´ıclicas (6.36)
todo OL tiene una descomposici´on en componentes c´ıclicas. Por 6.49 los polinomios
m´ınimos y caracter´ısticos coinciden en cada una de las componentes. Por 6.50 el polinomio caracter´ıstico es el producto de los de las componentes. Por 6.11 el polinomio
m´ınimo es el m´ınimo com´
un m´
ultiplo de los de las componentes. El m´ınimo com´
un
m´
ultiplo es siempre un divisor del producto. El m´ınimo com´
un m´
ultiplo siempre tiene
los mismos factores irreducibles que el producto.
La primera afirmaci´on se conoce en la literatura como Teorema de Hamilton-Caley
y es equivalente por definici´on de polinomio m´ınimo a que el polinomio caracter´ıstico
de h, evaluado en h es el operador nulo. La segunda se conoce como Teorema de
Frobenius. Una curiosidad hist´orica es que fu´e Frobenius el que di´o la primera prueba
completa del Teorema de Hamilton-Caley.
Es posible dar muchas diferentes demostraciones del Teorema de Hamilton-Caley
que no pasan por la descomposici´on de un operador en componentes c´ıclicas (que es
178
Cap´ıtulo 6. Descomposici´on de operadores lineales
el resultado “duro” de esta teor´ıa). La idea de una de ellas es tomarse un vector a,
observar que en el subespacio invariante haih los polinomios caracter´ıstico y m´ınimo
coinciden y por lo tanto el polinomio caracter´ıstico est´a en el h-anulador de a. Como
el vector a es arbitrario entonces el polinomio caracter´ıstico est´a en el h-anulador de
todo el espacio y por lo tanto es un m´
ultiplo del polinomio m´ınimo.
El Teorema de Frobenius se prueba f´acilmente sobre los complejos ya que lo esencial
aqu´ı, es saber que si p es un factor irreducible del polinomio caracter´ıstico entonces,
ker (ph ) 6= ∅ o sea, existen vectores de per´ıodo p. Esto es inmediato en el caso complejo
porque todos los irreducibles son de grado 1 y todo valor propio tiene al menos un
vector propio correspondiente. En el caso general, para que esto funcione, es necesaria
la introducci´on del campo de descomposici´on de un polinomio y esto queda fuera de
los objetivos de este libro.
Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda en
mucho para la prueba de la existencia de h-bases, o lo que es lo mismo, la existencia
de una descomposici´on en componentes c´ıclicas.
Ejercicio 126 Un OL es diagonalizable si existe una base en la cual su matriz es
diagonal. Pruebe que un OL es diagonalizable si y solo si su polinomio m´ınimo es un
producto de diferentes polinomios de grado 1. [198]
Ejercicio 127 Pruebe que si un operador lineal en dimensi´on n tiene n diferentes
valores propios entonces es diagonalizable. [198]
Ejercicio 128 Un OL es triangulable si existe una base ordenada en la cual su
matriz es triangular. Pruebe que un OL es triangulable si y solo si existe una cadena
de subespacios invariantes {0} ⊆ E1 ⊆ · · · ⊆ En = E tales que dim Ek = k. [198]
Ejercicio 129 Pruebe que f ⊕ g es triangulable si y solo si f y g lo son. [198]
Ejercicio 130 Pruebe que un OL es triangulable si y solo si los factores irreducibles
de su polinomio caracter´ıstico (que son los mismos del m´ınimo) son polinomios de grado
1. En particular, todo OL complejo es triangulable. [199]
Los OL sobre C que no son diagonalizables tienen medida de Lebesgue cero. Estos estan contenidos en una hipersuperficie (definida por el discriminante del polinomio caracter´ıstico)
y por lo tanto, en cualquier vecindad de cualquier operador casi todos son diagonalizables.
Este hecho tiene importantes consecuencias para las aplicaciones en las ciencias naturales.
6.7
Formas normales
Un OL h siempre se descompone en suma directa de sus componentes radicales
c´ıclicas. Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h es
diagonal por bloques. Los bloques son las matrices de las componentes c´ıclico-radicales
de h. Nuestra tarea ahora es encontrar bases en las cuales la matriz de un operador
Secci´on 6.7
Formas normales
179
c´ıclico-radical es lo m´as “simple” posible. Estas matrices dependen mucho de cual es
el polinomio m´ınimo (que para operadores c´ıclicos son iguales al caracter´ıstico) del
operador lineal. Por esto, empezaremos con casos particulares. Esto significa que en lo
que sigue usaremos los mismos argumentos varias veces.
Forma normal de Jord´
an
Camille Jordan (Lyon 1838 - Par´ıs 1922) Matem´atico e ingeniero.
Conocido tanto por su trabajo en la teor´ıa de grupos como por su
influyente libro “Cours d’analyse”. Su libro “Trait´e des substitutions et des ´equations alg´ebriques” publicado en 1870 contiene su
descubrimiento de las ahora conocidas como formas normales de
Jord´an. Fu´e el primero que realmente entendi´o a Galois despues
de la publicaci´on p´ostuma de los trabajos de Galois en 1846 y contribuy´o mucho a que la Teor´ıa de Grupos y la Teor´ıa de Galois
fueran parte de la corriente principal de las matem´aticas.
Una matriz del tipo que se muestra en el recuadro de la de- ⎛
⎞
λ 1 ··· 0
recha se le llama celda de Jord´
an. Observese que el polino⎜ 0 λ ··· 0 ⎟
⎟
mio caracter´ıstico de una celda de Jordan es igual a (x − λ)n ⎜
⎜ .. .. . .
.. ⎟
⎜
.
. ⎟
y su polinomio m´ınimo es el mismo. Esto u
´ltimo se puede pro- ⎜ . .
⎟
⎝ 0 0 ··· 1 ⎠
bar directamente de Hamilton-Caley y haciendo algunos c´alculos
0 0 ··· λ
rutinarios.
Como no necesitaremos esto, no haremos los c´alculos. Sin embargo, el lector puede
hacerse una idea de la prueba general con lo siguiente:
⎛
⎛
⎛
⎞
⎞
⎞
0
1
0
0
0
0
1
0
0
0
0
1
⎜ 0 0 1 0 ⎟
⎜ 0 0 0 1 ⎟
⎜ 0 0 0 0 ⎟
A = ⎝ 0 0 0 1 ⎠ , A2 = ⎝ 0 0 0 0 ⎠ , A3 = ⎝ 0 0 0 0 ⎠ , A4 = 0.
6.52
0
0
0
0
0
0
0
0
0
0
0
0
Si h es un operador c´ıclico-radical con polinomio m´ınimo (x − λ)n
entonces, en cierta base, la matriz de h es una celda de Jordan.
Prueba. Denotemos por p al polinomio (x − λ). Sea h : E −→ E c´ıclico-radical con
polinomio m´ınimo pn . Sabemos que dim E = n. Sea a tal que haih = En . Tal vector
existe ya que h es c´ıclico. Sabemos que perh (a) = pn .
def
(a). Sea A = {a1 , . . . , an } y demostremos
Para k ∈ {1, . . . , n} denotemos ak = pn−k
h
que A es linealmente independiente y por lo
Ptanto una base del espacio.
Supongamos que para ciertos escalares
β a = 0. Entonces
!
Ãkn−1k
n
n
X
X
X
def
βk ak =
βk pn−k
(a) =
βn−j pj (a) = qh (a)
0=
h
k=1
k=1
j=0
h
El polinomio q es de grado estrictamente menor que el grado del per´ıodo de an y por
180
Cap´ıtulo 6. Descomposici´on de operadores lineales
lo tanto q = 0. Adem´as, en la familia de polinomios pj hay exactamente un polinomio
de grado t para cualquier t ∈ {0, . . . , n − 1} . Luego, estos polinomios son linealmente
independientes y de q = 0 concluimos que todos los βkj son cero.
Veamos como es la matriz de h en esta base. Para k ∈ {1, . . . , n − 1} tenemos
ak = ph (ak+1 ) = h (ak+1 ) − λak+1 y despejando obtenemos h (ak+1 ) = ak + λak+1 .
En otras palabras, en la base A el vector h (ak+1 ) tiene coordenadas (0, . . . , 1, λ, . . . , 0)
donde el 1 aparece en el ´ındice k y λ aparece en el ´ındice k + 1. Estas son las columnas
2, . . . , n de una celda de Jord´an.
Para ver como es la primera columna, observemos que a1 ∈ E1 = ker ph y por
lo tanto h (a1 ) − λa1 = 0. En otras palabras, en la base A el vector h (a1 ) tiene
coordenadas (λ, . . . , 0) y esa es la primera columna de una celda de Jord´an.
El resultado anterior se aplica para operadores c´ıclico-radicales cuyo polinomio m´ınimo es potencia de un polinomio de grado 1. Como por el Teorema de Gauss, los polinomios irreducibles en C [x] siempre son de grado 1, entonces este siempre es el caso
para los OL c´ıclico-radicales definidos en un espacio vectorial sobre los complejos.
Conjugando esto con la descomposici´on de un operador lineal en sus componentes
c´ıclico-radicales obtenemos el siguiente:
6.53
Forma normal de Jord´
an
Si h es un operador lineal en un espacio vectorial finito dimensional sobre
el campo de los n´
umeros complejos entonces, existe una base del espacio
vectorial en la cual la matriz del operador es diagonal por bloques y los
bloques son celdas de Jord´an.
Forma normal real
En el caso de los operadores lineales en un espacio vectorial sobre el campo R de los
n´
umeros reales el problema es un poco m´as complicado ya que tenemos m´as polinomios
de grado 2 que son irreducibles. M´as precisamente, un polinomios del tipo (x − α)2 +β2
es irreducible si β 6= 0. Denotemos
¶
¶
µ
¶
µ
µ
0 0
0 1
α −β
.
,O=
,I=
Λ=
0 0
0 0
β α
La matriz Λ tiene polinomio caracter´ıstico (x − α)2 + β2 y como este polinomio es
irreducible entonces por Hamilton-Caley su polinomio m´ınimo es el mismo. La matriz
Λ es muy parecida a la de una rotaci´on en el plano R2 . De hecho, si α2 + β2 = 1
entonces, es la matriz de una rotaci´on de un a´ngulo igual a arc cos α.
Secci´on 6.7
Formas normales
181
6.54
Una matriz del tipo que se muestra en el recuadro de la derecha se le llama celda
cuadr´
que el polinomio caracter´ıstico de una celda cuadr´atica es igual
³ atica. Observese
´n
2
2
a (x − α) + β
. El lector debe notar el parecido con las ⎛
⎞
Λ I ··· O
celdas de Jord´an. El parecido est´a dado por la correspondencia ⎜ O Λ · · · O ⎟
⎟
⎜
.
..
.. ⎟
de s´ımbolos λ ↔ Λ , 1 ↔ I y 0 ↔ O. La diferencia fundamental ⎜
..
⎟
⎜ ..
.
.
.
⎟
est´a en que en el caso de las celdas de Jord´an las entradas son ⎜
⎝ O O ··· I ⎠
elementos del campo y aqu´ı son matrices de orden 2.
O O ··· Λ
´n
³
Si (x − α)2 + β2 con β 6= 0 es el polinomio m´ınimo de un operador c´ıclicoradical h entonces, en cierta base, la matriz de h es una celda cuadr´atica.
³
´
Prueba. Denotemos por p al polinomio (x − α)2 + β2 . Sea h : E −→ E c´ıclico
radical con polinomio m´ınimo pn . Sabemos que dim E = n. Sea a tal que haih = En .
Tal vector existe ya que h es c´ıclico. Sabemos que perh (a) = pn .
Denotemos por r al polinomio (x − α) /β. El lector puede comprobar f´acilmente
que se cumple la siguiente iqualdad polinomial
p
†
xr = − β + αr
β
def
Para k ∈ {1, . . . , n} denotemos ak = (p/β)n−k
(a) y bk = rh (ak ). Sea A =
h
{a1 , b1 , . . . , an , bn } y demostremos que A es linealmente independiente y por lo tanto
una base del espacio.
P
P
Supongamos que para ciertos escalares
ωk ak + ρk bk = 0. Entonces
Ã
¶ !
n
n−1 µ
X
X
ωn−j + ρn−j r
def
pj (a) = qh (a) .
(ωk ak + ρk bk ) =
0=
β
k=1
j=0
h
El polinomio q es de grado estrictamente menor que el grado del per´ıodo de a y
por lo tanto q = 0. Adem´as, en la familia de polinomios pj , rpj hay exactamente un
polinomio de grado t para cualquier t ∈ {0, . . . , 2n − 1} . Luego, estos polinomios son
linealmente independientes y de q = 0 concluimos que todos los coeficientes son cero.
Veamos como es la matriz de h en la base ordenada A. Tenemos bk = rh (ak ) =
1
(h (ak ) − αak ) y despejando h (ak ) = αak + βbk . Esto justifica todas las columnas
β
con ´ındice impar de la celda cuadr´atica. Adem´as, usando la igualdad polinomial †
tenemos
µ ¶
p
h (bk ) = (xr)h (ak ) =
(ak ) − βak + αr (ak ) = ak−1 − βak + αbk
β h
Esta igualdad es v´alida incluso para k = 1 si definimos a0 = 0. Esto justifica todas las
columnas con ´ındice par de la celda cuadr´atica.
El resultado anterior es v´alido sobre cualquier campo (por ejemplo Q) en el cual
(x − α)2 + β2 sea un polinomio irreducible. Para R esto termina el an´alisis ya que todo
182
Cap´ıtulo 6. Descomposici´on de operadores lineales
polinomio real irreducible es de esta forma o es de grado 1.
Conjugando esto con la descomposici´on de un operador lineal en sus componentes
c´ıclico-radicales obtenemos el siguiente:
6.55
Forma normal real
Si h es un operador lineal en un espacio vectorial finito dimensional sobre el
campo de los n´
umeros reales entonces, existe una base del espacio vectorial
en la cual la matriz del operador es diagonal por bloques y los bloques son
celdas de Jord´
an o celdas cuadr´
aticas.
Forma normal can´
onica
Ahora analizaremos el caso general en el cual el polinomio irreducible es arbitrario.
Denotaremos por p al polinomio α0 + α1 x + · · · + αm−1 xm−1 + xm . As´ı, p es m´onico de
grado m y supondremos que p es irreducible en nuestro campo. En este caso, nuestros
bloques para construir las celdas son las matrices de orden m siguientes
⎛
⎞
⎛
⎞
0 0 · · · 0 -α0
⎛
⎞
0 ··· 0 1
0 ··· 0
⎜ 1 0 · · · 0 -α1
⎟
⎜
⎟
0 ··· 0 0
⎜
⎟
.
.
Λ = ⎜ ... ... . . . ... ...
⎟,I=⎜
. . ⎟ O = ⎝ .. . . . .. ⎠.
.. . .
⎝
. .. .. ⎠
⎝
⎠
.
0
0
0
0
···
···
-αm −2
-αm −1
0
1
0
···
0
0
0
···
0
El lector debe reconocer que Λ es la matriz acompa˜
nante del polinomio p.
Una matriz del tipo que se muestra en el recuadro de la
derecha donde los bloque son los definidos previamente se le
llama celda can´
onica. Usando 6.47 obtenemos que el polinomio caracter´ıstico de una celda can´onica es a igual a pn . La
diferencia con las celdas cuadr´aticas es que los bloques son diferentes aunque est´en denotados con las mismas letras.
⎛
Λ
O
..
.
⎜
⎜
⎜
⎜
⎜
⎝ O
O
I
Λ
..
.
···
···
..
.
O
O
..
.
O
O
···
···
I
Λ
⎞
⎟
⎟
⎟
⎟
⎟
⎠
Observese que las celdas can´onicas para p = (x − λ) son celdas de Jord´an. Sin
embargo, las celdas can´onicas y las celdas cuadr´aticas son diferentes. Efectivamente,
supongamos m = 2 y p = (x − α)2 + β2 = x2 − 2αx + γ donde γ = α2 + β2 entonces,
en la desigualdad
⎛
⎞ ⎛
⎞
0 −γ 0
1
α −β 0
1
α 0
0
0 α −β
0
0 β α
⎜ 1 2α 0 0 ⎟ ⎜ β
6 ⎝ 0
⎝ 0 0 0 −γ ⎠ =
0
0
1
2α
⎟
⎠
la celda can´onica es la de la izquierda y la celda cuadr´atica es la de la derecha. La
ventaja de las celdas cuadr´aticas es que son m´as f´aciles de intuir geom´etricamente
mediante rotaciones. La ventaja de las celdas can´onicas es que siempre funcionan.
6.56
Secci´on 6.7
Formas normales
183
Si h es un operador c´ıclico-radical con polinomio m´ınimo pn
entonces, en cierta base, la matriz de h es una celda can´onica.
Prueba.
Sea p m´onico de grado m. Sea h : E −→ E c´ıclico radical con polinomio m´ınimo pn . Tenemos que dim Ek = mk. Sea a tal que haih = En . Tal vector
existe ya que h es c´ıclico. Sabemos que perh (a) = pn . Para
¡
¢
k ∈ {1, . . . , n} y j ∈ {0, . . . , m − 1}, denotemos ajk como en el ajk = xj pn−k h (an )
recuadro a la derecha.
Tenemos nm vectores ajk y necesitamos convencernos que estos forman una base del
espacio, o lo que es lo mismo, que son linealmente independientes. Sean βkj escalares
P
tales que
βkj ajk = 0. Tenemos
!
Ã
X
X
X
¡
¢
def
0=
βkj ajk =
βkj xj pn−k h (a) =
βkj xj pn−k (a) = qh (a) .
k,j
k,j
k,j
h
El polinomio q es de grado estrictamente menor que el grado del per´ıodo de an y por lo
tanto q = 0. Adem´as, en la familia de polinomios xj pk hay exactamente un polinomio
de grado t para cualquier t ∈ {0, . . . , nm − 1} . Luego, estos polinomios son linealmente
independientes y de q = 0 concluimos que todos los βkj son cero.
Ordenemos nuestra base de la siguiente manera
, a02 , a12 , . . . , am−1
, . . . , a0n , a1n , . . . , am−1
a01 , a11 , . . . , am−1
n
1
2
y veamos como es la matriz de h en esta base ordenada.
Para j ∈ {0, .³. . , m
´ − 2}¡¡tenemos¢
¢
¡ ¡
¢¢
j
h ak = h xj pn−k h (an ) = h hj pn−k
(an ) = aj+1
h
k
y esto justifica las columnas de la celda can´onica cuyos ´ındices no son divisibles entre
m que son del tipo (0, . . . , 0, 1, 0, . . . , 0).
Denotemos los coeficientes de p por αi , o sea, p = α0 + α1 x + · · · + αm−1 xm−1 + xm
def
y definamos r = ¡p − xm¢ . Tenemos
¡
¡
¢
¢
h am−1
= xm pn−k h (an ) = (p − r) pn−k h (an ) =
k
¡
¢
n−(k−1)
= ph
(an ) − rpn−k h (an ) =
= a0k−1 − α0 a0k − α1 a1k − · · · αm−1 am−1
k
la cual es v´alida incluso para k = 1 si definimos a00 = 0. Esto justifica las columnas de la celda can´onica cuyos ´ındices son divisibles entre m que son del tipo
(0, . . . , 0, 1, 0, . . . 0, −α0 , . . . , αm−1 , 0, . . . , 0).
Conjugando esto con la descomposici´on de un operador lineal en sus componentes
c´ıclico-radicales obtenemos el siguiente:
184
Cap´ıtulo 6. Descomposici´on de operadores lineales
6.57
Forma normal can´
onica
Si h es un operador lineal en un espacio vectorial finito dimensional sobre
cualquier campo entonces, existe una base en la cual la matriz del operador
es diagonal por bloques y los bloques son celdas can´onicas.
Definamos el tipo de un OL como el tipo de una de sus descomposiciones
en componentes radicales c´ıclicas. Hay much´ısima libertad al construir
formas normales. Por esto, no hay que sobredimensionar la importancia de
las diferencias entre unas y otras. Lo importante y com´
un a todas las formas normales
es que ellas solo dependen del tipo del operador y no del operador en si mismo.
Ejercicio 131 Se dice que dos OL f y g son conjugados si existe un OL invertible h
tal que f = h ◦ g ◦ h−1 . Demuestre que dos OL tienen el mismo tipo si y solo si son
conjugados. [199]
Ejercicio 2 (Secci´
on 1.1 p´
agina 2) Una operaci´on unaria en el conjunto A es una
funci´on de A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera
la operaci´on x 7→ −x es una operaci´on unaria. Otros ejemplos comunes son el hallar el
complemento de un conjunto o el hallar el complejo conjugado de un n´
umero complejo.
Ejercicio 3 (Secci´
on 1.1 p´
agina 2) El area del tri´angulo con lados a, b y c no es
una operaci´on ternaria en R ya que no para cualesquiera a, b y c existe un tri´angulo
con lados de esas longitudes.
Ejercicio 4 (Secci´
on 1.1 p´
agina 2) La f´ormula (a + b) (x + y) se expresa en notaci´on sufija como ab + xy + ×.
Ejercicio 5 (Secci´
on 1.1 p´
agina 3) La suma, el producto, el m´aximo com´
un divisor
el m´ınimo com´
un m´
ultiplo y el m´aximo son operaciones conmutativas. Las dem´as no
lo son.
Ejercicio 6 (Secci´
on 1.1 p´
agina 3) Ya vimos en el texto que la exponenciaci´on no
es asociativa. Observemos que 4 = 4 − (2 − 2) 6= (4 − 2) − 2 = 0 por lo que la resta
no es asociativa. Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la divisi´on no es
asociativa. Tampoco es asociativo el logaritmo. El resto de las operaciones mancionadas
s´ı son asociativas.
Ejercicio 7 (Secci´
on 1.1 p´
agina 4) La resta no tiene elemento neutro ya que de
a − e = a se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Lo mismo
ocurre con la divisi´on. La operaci´on de exponenciaci´on no tiene elemento neutro ya
que e1 = 1 ⇒ e = 1 pero 12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de
la suma es el cero, el neutro del producto es el uno. El 1 tambi´en es el neutro para el
m´ınimo com´
un m´
ultiplo. La operaci´on de m´aximo com´
un divisor no tiene neutro.
Ejercicio 8 (Secci´
on 1.1 p´
agina 5) Es importante se˜
nalar que el inverso tiene sentido
solo si hay neutro. El inverso de a para la suma es −a, para el producto es a1 . Aunque
el m´ınimo com´
un m´
ultiplo tiene neutro 1, esta operaci´on no tiene inversos.
Ejercicio 9 (Secci´
on 1.1 p´
agina 5) Fij´emonos en un conjunto U y en el conjunto
de todos los subconjuntos de U que denotaremos por 2U . En 2U est´an bien definidas
las operaciones de uni´on e intersecci´on de conjuntos. Estas operaciones cumplen las
propiedades requeridas como se puede observar en los dos siguientes diagramas de
Venn.
186
Soluciones de ejercicios selectos
A
A
B
C
A ∩ (B ∪ C) =
= (A ∩ B) ∪ (A ∩ C)
B
C
A ∪ (B ∩ C) =
= (A ∪ B) ∩ (A ∪ C)
Ejercicio 11 (Secci´
on 1.2 p´
agina 8) No porque (1, 0)×(0, 1) = (0, 0) lo que muestra
2
que K no es dominio de integridad y por lo tanto no es un campo.
√
Ejercicio 12 (Secci´
on 1.2 p´
agina 9) Supongamos que n es un racional.
√ Decomponiendo su numerador y denominador en factores primos obtenemos que n =
pn1 1 pn2 2 . . . pnt t para ciertos naturales primos p1 p2 . . . pt y ciertos n´
umeros enteros n1 , n2 , . . . , nt .
2n 1 2n 2
2n t
Pero entonces, n = p1 p2 . . . pt y por lo √
tanto ∀i ∈ {1, ..., t} 2ni ≥ 0. Luego,
todos los ni son naturales lo que significa que n es natural.
√
√
Ejercicio 13 (Secci´
on 1.2 p´
agina 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es
natural. Por el ejercicio anterior, no es racional.
Ejercicio 14 (Secci´
on 1.2 p´
agina 9) Siempre podemos medir un segmento de recta
con cada vez m´as precisi´on (al menos te´oricamente). Cada medici´on nos da un n´
umero
racional. Luego, la longitud del segmento es un l´ımite de racionales por lo que es un
real.
Ejercicio 18 (Secci´
on 1.3 p´
agina 12) Por 1.1.4 sabemos que f (0) = 0 y ¡f (1) =
¢ 1.
−1
Si f (a)¡ = ¢0 y a no
fuera
=
¡ −1
¢ el cero de A entonces tendr´ıamos 1 = f (1) = f aa
−1
f (a) f a
= 0f a
= 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0.
Luego, si f (x) = f (y) entonces, f (x − y) = 0 y por lo tanto x = y.
Ejercicio 20 (Secci´
on 1.3 p´
agina 14) Si f no es inyectiva entonces existen x 6= y
tales que f (x) = f (y) y por lo tanto g (f (x)) = g (f (y)) . Luego, g ◦ f no puede ser la
identidad.
Si g no es sobreyectiva entonces existe x tal que ∀y se tiene que g (y) 6= x en particular
∀f (z) se tiene que g (f (z)) 6= x y por lo tanto g ◦ f no es sobreyectiva. Luego, g ◦ f no
puede ser la identidad.
Ejercicio 22 (Secci´
on 1.4 p´
agina 17)
Soluciones de ejercicios selectos
187
La tabla de multiplicar en Z5 es la derecha. Luego el elemento
inverso de 1 es 1, el elemento inverso de 2 es 3, el elemento • 0 1 2 3 4
inverso de 3 es 2 y el elemento inverso de 4 es 4. Observese que 0 0 0 0 0 0
1 0 1 2 3 4
en la tabla de multiplicar de Z5 \0 en cada columna y en cada 2 0 2 4 1 3
rengl´on nos encontramos con todos los elementos posibles. Esto 3 0 3 1 4 2
es una propiedad de las operaci´ones binarias de los grupos. De 4 0 4 3 2 1
hecho, un conjunto con una operaci´on binaria asociativa y con
elemento neutro es un grupo si y solo si su tabla de multiplicar cumple esta propiedad.
Ejercicio 23 (Secci´
on 1.4 p´
agina 17) La prueba de que es un anillo conmutativo es
directa de las definici´ones de suma y producto. Para ver que es un campo observamos
que el producto (a, b) (x, y) = (ax + 7by, ay + bx) tiene neutro (1, 0). Para hallar los
inversos multiplicativos resolvemos el sistema de ecuaciones lineales
¯
ax + 7by = 1
ay + bx = 0
que tiene como soluci´on u
´nica x = a/∆ , y = −b/∆ donde ∆ = a2 − 7b2 . Nos queda
comprobar que si ∆ = 0 entonces a = b = 0. Efectivamente, observando la siguiente
tabla calculada en Z11
x 1 2 3 4 5 6 7 8 9 10
x2 1 4 9 5 3 3 5 9 4 1
7x2 7 6 8 2 10 10 2 8 6 7
vemos que ning´
un a2 puede ser igual a un 7b2 .
Ejercicio 24 (Secci´
on 1.5 p´
agina 19) No, porque t no es un elemento del campo
al contrario, t es un n´
umero natural. Lo que quiere decir tx es x + · · · + x, t veces.
Ejercicio 26 (Secci´
on 1.5 p´
agina 19) De que a = −a obtenemos que
0 = a + a = 1a + 1a = (1 + 1) a
Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si la
caracter´ıstica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmaci´on
del ejercicio es cierta. Si la caracter´ıstica del campo es 2 entonces, 1 + 1 = 0 y por lo
tanto a = −a para cualquier elemento del campo.
Ejercicio 27 (Secci´
on 1.6 p´
agina 21) En cualquier campo (xy)p = xp yp . Por
p
X
p!
p
xk yn−k . El coeficiciente binomial
el binomio de Newton (x + y) =
k!
(p
−
k)
!
k=0
p!/k! (p − k) ! se divide entre p si k ∈ [1, ..., n − 1]. Esto quiere decir (ver 1.15) que
en un campo de caracter´ıstica p todos los sumandos del binomio de Newton excepto
el primero y el u
´ltimo son cero. Luego (x + y)p = xp + yp . Esto muestra que x 7→ xp
es un morfismo. Como todo morfismo de campos es inyectivo (ver ejercicio 18) y toda
funci´on inyectiva de un conjunto finito en si mismo es sobreyectiva obtenemos que este
morfismo es automorfismo para campos finitos.
188
Soluciones de ejercicios selectos
Ejercicio 28 (Secci´
on 1.7 p´
agina 23) Usando la distributividad por la derecha e
izquierda obtenemos que:
(a + 1) (b + 1) = (a + 1) b + a + 1 = ab + b + a + 1
(a + 1) (b + 1) = a (b + 1) + b + 1 = ab + a + b + 1
Igualando y cancelando ab por la izquierda y 1 por la derecha obtenemos que b + a =
a + b.
Ejercicio 29 (Secci´
on 1.7 p´
agina
obtener de la siguiente manera
(ijk = −1) ⇒ (ijkk = −k)
(ijk = −1) ⇒ (iijk = −i)
(ijk = −1) ⇒ (kijkkj = −kkj)
24) Las seis igualdades necesarias se pueden
⇒ (ij = k) ⇒ (ijj = kj) ⇒ (kj = −i)
⇒ (jk = i) ⇒ (jkk = ik) ⇒ (ik = −j)
⇒ (ki = j) ⇒ (kii = ji) ⇒ (ji = −k)
Ejercicio 30 (Secci´
on 1.7 p´
agina 24) Por definici´on de producto de quaterniones
¢
µ 2 ¡ 2
¶
³
´
a − b + c2 + d2 = −1
2
(a + bi + cj + dk) = −1 ⇔
.
ab = ac = ad = 0
Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier soluci´on de estas ecuaciones
requiere que a = 0.
Ejercicio 31 (Secci´
on 1.7 p´
agina 24) En los quaterniones (x − i) (x + i) = x2 −
ix + xi + 1 6= x2 + 1 lo que quiere decir que no es posible definir correctamente los
polinomios con coeficientes quaterni´onicos.
Ejercicio 32 (Secci´
on 2.2 p´
agina 29)
El tri´angulo abc es semejante al tri´angulo uvw de hecho son
congruentes porque ac = uw (lados opuestos de un paralelogramo tienen la misma longitud). Luego bc = wv y por lo tanto la
→ es igual a la de −
→ m´as bc. La
coordenada en x del vector −
au
aw
prueba para la otra coordenada es igual.
u
b
c
w
v
a
Ejercicio 34 (Secci´
on 2.2 p´
agina 29) En la expresi´on α (βa) se utiliza un solo tipo
de operaci´on (la de un escalar por un vector). En la expresi´on (αβ) a se utilizan dos
operaciones diferentes primero la del producto de escalares y despu´es la de un escalar
por un vector.
Ejercicio 35 (Secci´
on 2.2 p´
agina 29) Si α 6= 0 entonces tiene inverso y por lo tanto
αa = 0 ⇒ a = α−1 αa = α−1 0 = 0
Ejercicio 36 (Secci´
on 2.2 p´
agina 29) El m´ınimo n´
umero de elementos en un espacio
vectorial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y
efectivamente un conjunto formado por un solo elemento 0 es un espacio vectorial sobre
cualquier campo definiendo α0 = 0 para cualquier α en el campo.
Soluciones de ejercicios selectos
189
Ejercicio 38 (Secci´
on 2.3 p´
agina 37) Supongamos
que x ∈ hN ∪ yi\hNi. Entonces,
P
existe una combinaci´on lineal x = αy y + i∈N αi i. Tenemos que αy 6= 0 (ya que
x∈
/ hNi). Luego, despejando y obtenemos que y ∈ hN ∪ xi.
Ejercicio 39 (Secci´
on 2.4 p´
agina 39) Solo en la prueba de que 2⇒4 al despejar a.
Ejercicio 40 (Secci´
on 2.4 p´
agina 41) 1.- El conjunto vac´ıo es LI y todo el espacio
E es generador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2.- Si M es LI entonces
existe una base N tal que M ⊆ N ⊆ E. 3.- Si L es generador entonces existe una base
N tal que ∅ ⊆ N ⊆ L.
Ejercicio 41 (Secci´
on 2.4 p´
agina 42) Sea A una base de E. Como F es generador
y A ⊆ F es LI entonces por el Teorema de Existencia de Bases (2.14) existe una base
B de F que contiene a A. De aqu´ı tenemos dim E = |A| ≤ |B| = dim F. Esta prueba es
v´alida independientemente de si los cardinales de A y B son finitos o no.
P
Ejercicio 42 (Secci´
on 2.4 p´
agina 42) El conjunto de todos los polinomios
ai xi
tales que a0 = 0 es un subespacio de K [x] de la misma dimensi´on que K [x].
Ejercicio 43 (Secci´
on 2.4 p´
agina 44) La diferencia entre el espacio de las (N × M)adas y las NM-matrices es solo en las notaciones. Luego, el espacio de las NM-matrices
tiene dimensi´on |N × M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una
matriz eij en la base can´onica la cual tiene su entrada ij igual a 1 y todas las dem´as
igual a cero.
f
g
Ejercicio 44 (Secci´
on 2.5 p´
agina 44) Sean E → F → G transformaciones lineales.
Tenemos que f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) =
f (λg (x)) = λf (g (x)) y esto era todo lo que se quer´ıa probar.
Ejercicio 46 (Secci´
on 2.5 p´
agina 48) El conjunto E es contable y es un espacio
vectorial sobre Q. Si existe un racional α tal que y = αx entonces la dimensi´on de E
sobre Q es 1. Si por el contrario α no existe entonces la dimensi´on de E sobre Q es 2.
El conjunto E no es un espacio vectorial sobre R.
Ejercicio 48 (Secci´
on 2.6 p´
agina 52) 1.- Es f´acil probar que la aplicaci´on E ⊕ F 3
(a, b) 7→ (b, a) ∈ F ⊕ E es un isomorfismo can´onico. 2.- Conmutatividad. 3.- El
isomorfismo can´onico es ((a, b) , c) 7→ (a, (b, c)) 7→ (a, b, c). 4.- Si. La aplicaci´on
E ⊕ {0} 3 (a, 0) 7→ a ∈ E es un isomorfismo can´onico. Por esto podemos pensar que
E ⊕ {0} = E.
Ejercicio 49 (Secci´
on 2.6 p´
agina 53) Denotemos por S a todo el espacio. Como
cada vector se expresa como a + b con a ∈ E y b ∈ F tenemos S = E+F. Supongamos
que a 6= 0 ∈ E∩F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposici´on
Soluciones de ejercicios selectos
190
de 0 es u
´nica. Luego E ∩ F = {0} y por lo tanto S = E ⊕ F.
Ejercicio 55 (Secci´
on 2.7 p´
agina 56) Si E = E + x y F = F + y son dos subespacios
paralelos o no entonces E + F es igual a (E + F) + (x + y) o sea, es un espacio af´ın
paralelo a E + F. Si E es paralelo a F entonces, E = F y por lo tanto E + F = E.
Ejercicio 60 (Secci´
on 3.4 p´
agina 76) T´omese x = (1, 0) , y = (0, 1) y z = (1, 1) .
Tenemos (xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy) z 6=
x (yz) .
¶
µ
cos α − sin α
Ejercicio 64 (Secci´
on 3.4 p´
agina 78)
sin α cos α
Ejercicio 65 (Secci´
on 3.4 p´
agina 78) Para cualesquiera n ∈ N y k ∈ K tenemos
X
XX
(αnM βML ) γLk =
(αnM · βMl ) γlk =
αnm βml γlk =
l∈L
l∈L m∈M
X
X
X
αnm
βml γlk =
αnm (βmL · γLk ) = αnM (βML γLk )
m∈M
l∈L
m∈M
Ejercicio 66 (Secci´
on 3.4 p´
agina 79) Las matrices de f, g y f◦g tienen que cumplir:
¶
¶µ
¶ µ
µ
cos β − sin β
cos α − sin α
cos (α + β) − sin (α + β)
=
=
sin β cos β
sin α cos α
sin (α + β) cos (α + β)
µ
¶
cos α cos β − sin α sin β − cos α sin β − sin α cos β
=
cos α sin β + sin α cos β cos α cos β − sin α sin β
y por lo tanto
cos (α + β) = cos α cos β − sin α sin β
sin (α + β) = cos α sin β + sin α cos β
Ejercicio 69 (Secci´
on 3.7 p´
agina 86) Sea f semilineal y σ y ρ dos automorfismos del campo tales que para cualquier escalar λ y cualquier vector a se cumple que
f (λa) = σ (λ) f (a) = ρ (λ) f (a). Podemos escoger a tal que f (a) 6= 0 y por lo tanto
((σ (λ) − ρ (λ)) f (a) = 0) ⇒ (σ (λ) = ρ (λ)).
Ejercicio 70 (Secci´
on 3.7 p´
agina 87) Supongamos que sup A existe. Entonces, ∀b ∈
R tenemos (∀a ∈ A b ≥ a) ⇒ (b ≥ sup A) . Usando que f y f−1 son mon´otonas vemos
que ∀f (b) ∈ f (R) = R tenemos (∀f (a) ∈ f (A) f (b) ≥ f (a)) ⇔ (∀a ∈ A b ≥ a) ⇒
(b ≥ sup A) ⇒ (f (b) ≥ f (sup A)) y esto prueba que f (sup A) = sup f (A).
Ejercicio 71 (Secci´
on 3.7 p´
agina 87) (1 ⇒ 2) La conjugaci´on compleja es continua.
(2 ⇒ 3) Tenemos (v´ease la prueba de 3.31) que f es la identidad en Q. De que los reales
son los l´ımites de los racionales y f es continua obtenemos que f es la identidad en R.
(3¡ ⇒¢ 1) Si f es la identidad en R entonces, f (a + bi) = a + bf (i). Como f (i)2 =
f i2 = f (−1) = −1 y f (i) 6= i entonces, f (i) = −i.
Para ver que hay muchos automorfismos de C que no son la conjugaci´on compleja v´ease
por ejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics
Soluciones de ejercicios selectos
191
Magazine, May-June 1966, 135—141.
Ejercicio 72 (Secci´
on 3.7 p´
agina 88) La funci´on (x1 , . . . , xn ) 7→ (x1 , . . . , xn ) es
¯ es biyectiva. Adem´as, tenemos
biyectiva ya que λ 7→ λ
(x1 + y1 , . . . , x¡n + yn ) = (x1¢ + y¡1 , . . . , xn + y¢n ) = (x1 , . . . , xn ) + (y1 , . . . , yn )
¯ n =λ
¯ 1 , . . . , λx
¯ (x1 , . . . , xn )
λx1 , . . . , λxn = λx
y esto muestra que la funci´on es un automorfismo semilineal.
Si f es una transformaci´on semilineal arbitraria cuyo automorfismo del campo es σ
entonces, su composici´on con el automorfismo semilineal estandar correspondiente a
σ−1 es una transformaci´on lineal.
Ejercicio 74 (Secci´
on 3.7 p´
agina 91) Supongamos que 0 = αa + αc + βb −
βc = (α − β) c + (α + βρ) a. Como {a, c} es LI entonces, α = β y α (1 + ρ) = 0.
Como ρ 6= −1 entonces, 0 = α = β.
Ejercicio 82 (Secci´
on 4.3 p´
agina 108) Es saludable poner la matriz de Vandermonde en
⎞
forma gr´afica como se muestra en el recuadro a la dere- ⎛ 1
1
···
1
cha. Denotemos por v (x1 , x2 , . . . , xn ) al determinante ⎜ x
x2 · · · xn ⎟
⎜ 12
⎟
de esta matriz. Denotemos
2
2
⎜ x1
⎟
x
·
·
·
x
n ⎟
2
Y
⎜
⎝ ···
··· ··· ··· ⎠
f (x1 , x2 , . . . , xn ) =
(xj − xi )
n−1
1≤i<j≤n
x1
xn−1
· · · xn−1
n
2
Veamos que v (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn ).
Por inducci´on en n. Para n = 1 tenemos f (x1 ) = v (x1 ) = 1. Supongamos que est´a probado hasta n − 1. Pongamos y = xn . Tenemos que probar que v (x1 , . . . , xn−1 , y) =
f (x1 , . . . , xn−1 , y). Para esto veamos ambos lados de la igualdad como polinomios en
la variable y. Ambos polinomios tienen grado n − 1.
Haciendo la expansi´on de Laplace por la u
´ltima columna vemos que el coeficiente
principal de v (x1 , . . . , xn−1 , y) es igual a v (x1 , . . . , xn−1 ). Por otro lado
Y
Y
(xj − xi )
(y − xi )
f (x1 , . . . , xn−1 , y) =
1≤i<j≤n−1
1≤i≤n−1
que tiene coeficiente principal f (x1 , . . . , xn−1 ). Por hip´otesis de induccion v (x1 , . . . , xn−1 ) =
f (x1 , . . . , xn−1 ) y por lo tanto nuestros dos polinomios tienen el mismo coeficiente principal.
Adem´as, las raices de v (x1 , . . . , xn−1 , y) son x1 , . . . , xn−1 porque evaluando y en estos
valores obtenemos una matriz con dos columnas iguales. Es obvio que x1 , . . . , xn−1 son
tambi´en las raices de f (x1 , . . . , xn−1 , y).
Luego, v (x1 , . . . , xn−1 , y) y f (x1 , . . . , xn−1 , y) son dos polinomios del mismo grado, con
los mismos coeficientes principales y las mismas raices y por lo tanto son polinomios
iguales.
Ejercicio 83 (Secci´
on 4.4 p´
agina 114) Las tres. Para la matriz A los bloques son
Soluciones de ejercicios selectos
192
M1 = {1} , M2 = {2} y M3 = {3}. Para la matriz B los bloques son M1 = {3} , M2 = {2}
y M3 = {3}. Para la matriz C los bloques son M1 = {2} , M2 = {3} y M3 = {1} ya que
α23 = α21 = α31 = 0. Los determinantes de las tres matrices son iguales a abc.
Ejercicio 84 (Secci´
on 4.4 p´
agina 114)
El aspecto es el del recuadro a la derecha. Aqu´ı hemos denotado por ∗ las entradas que pueden ser diferentes de cero.
Las entradas con 0 son las que obligatoriamente tienen que
ser cero. Adem´as, hemos dividido con rectas los tres bloques
de la matriz. El determinante de una matriz de este tipo es
igual al producto de los determinantes de sus tres bloques
diagonales.
∗
∗
∗
∗
∗
∗
∗
∗
∗
∗
0
0
∗
∗
∗
0
0
0
∗
∗
0
0
0
∗
∗
Ejercicio 88 (Secci´
on 5.1 p´
agina 134) Como G es un subgrupo el elemento neutro
1 ∈ G y los inversos de los elementos en G est´an en G. Como los inversos son u
´nicos y
¡ −1 ¢−1
−1
a
= a entonces la funci´on f : G 3 a 7→ a ∈ G es una biyecci´on tal que f2 es la
identidad. Esto nos
© permite partir ªG en tres partes disjuntas G = A ∪ B ∪ C tales que
f (A) = B y C = a ∈ G | a−1 = a . Por esto
!−1 Ã
Ã
!−1
Y¡
Y
Y
Y
¢
−1
a=
=
a−1
=
a
a−1
a∈A
y por lo tanto
a∈A
def
ρ=
Y
a∈G
a∈B
a=
a∈B
Y Y Y
Y
a
a
a=
a
a∈A
a∈B
a∈C
a∈C
Por otro lado si a ∈ C entonces tiene que ser raiz del polinomio x2 − 1 y en cualquier
campo este polinomio tiene a lo m´as las raices 1 y −1 (v´ease 5.5). Luego si −1 ∈ G
entonces, ρ = −1 y si −1 ∈
/ G entonces ρ = 1.
Ejercicio 89 (Secci´
on 5.1 p´
agina 134) Sea K un campo y G un subgrupo finito de
(K \ 0, •). Si x ∈ G entonces al natural n m´as peque˜
n©
o tal que xn = 1ª lo llamaremos
orden de x. En este caso todos los elementos de hxi = 1, x, x2 . . . xn−1 son diferentes
y la funci´on f : (hxi , •) 3 xi 7→ i ∈ (Zn , +) es un isomorfismo de grupos. Luego, lo que
hay que probar es que en G existe un elemento de orden q = |G|.
1. Sea F un subgrupo de G. Para x ∈ G el conjunto xF = {xf | f ∈ F} se le llama
clase lateral de x. Tenemos que si f ∈ F entonces fF = F ya que F es un subgrupo.
De
¡
¢
¢
¡
(y ∈ xF) ⇒ (y = xf) ⇒ x = yf−1 ⇒ xF = yf−1 F ⇒ (xF = yF)
(y ∈ xF ∩ zF) ⇒ (xF = yF = zF)
obtenemos que las clases laterales forman una partici´on de G. La funci´on F 3
f 7→ xf ∈ xF es la inversa de xF 3 xf 7→ f ∈ F y por lo tanto cualquier clase
lateral tiene la misma cantidad de elementos que F. Luego |F| es un divisor de |G|
y el cociente |G| ÷ |F| es el n´
umero de clases laterales. Este hecho se conoce como
Teorema de Lagrange. En particular, el orden de cada x ∈ G es un divisor de
Soluciones de ejercicios selectos
2.
3.
4.
5.
193
q = |G|.
Sea x de orden n y denotemos ϕ(n) el n´
umero de elementos de orden n en hxi.
Como x tiene orden n entonces, ϕ(n) ≥ 1. La funci´on ϕ(n) no depende de x pues
cualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos.
Luego, ϕ(n) solo depende del natural n.
Como cualquier z ∈ hxi tiene cierto orden que por el Teorema P
de Lagrange es
un divisor de n y el n´
umero de elementos en hxi es n entonces, d|n ϕ (d) = n
donde la suma recorre todos los divisores de n. A ϕ se la conoce como Funci´
on
de Euler.
Denotemos por ρ (n) al n´
umero de elementos de orden n en nuestro grupo G.
Como cualquier z ∈ G tiene cierto
orden que por el Teorema de Lagrange es un
P
divisor de |G| = q entonces, d|q ρ (d) = q donde la suma recorre los divisores
de q.
Si en G no hay un elemento de orden n entonces ρ (n) = 0. Si ¡por¢ el contrario
n
x ∈ G tiene orden n entonces,∀y = xk ∈ hxi tenemos que yn = xk = (xn )k =
1. Luego, todos los n elementos de hxi son raices del polinomio zn − 1. Como
el polinomio zn − 1 no puede tener m´as de n raices en el campo K (v´ease 5.5)
entonces, todos los elementos de G de orden n est´an en hxi y por lo tanto ρ (n) =
ϕ (n). De aqu´ı, para cualquier n se tiene que ϕ (n) − ρ (n) ≥ 0.
De (2) y (3) tenemos que
0=
X
d|q
ϕ (d) −
X
d|q
ρ (d) =
X
(ϕ (d) − ρ (d))
d|q
y como por (4) ϕ (d) − ρ (d) ≥ 0 entonces, para cualquier d divisor de q = |G|
tenemos ϕ (d) = ρ (d). En particular, ρ (q) = ϕ (q) ≥ 1. Esto significa que en G
hay un elemento de orden q = |G|.
Ejercicio 90 (Secci´
on 5.1 p´
agina 135) Idea: todo lo demostrado para polinomios
se traduce tal cual para los enteros. La u
´nica diferencia es que en lugar de usar el
concepto de grado de un polinomio hay que usar el concepto de valor absoluto de un
entero.
Ejercicio 91 (Secci´
on 5.1 p´
agina 135) Si r es el m´aximo com´
un divisor de p y
0
0
q entonces los polinomios p = p/r y q = q/r no tienen factores comunes. Por el
Teorema de Bezout existen polinomios α y β tales que αp0 + βq0 = 1. La prueba
concluye multiplicando esta igualdad por r.
Ejercicio 95 (Secci´
on 5.1 p´
agina 138) Si i < k entonces la suma es vac´ıa y por
lo tanto es cero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este
sumando es uno. Supongamos i > k. Haciendo los cambios de variables t = j − k y
194
Soluciones de ejercicios selectos
n = i − k obtenemos
µ ¶µ ¶ X
µ ¶
µ
¶ n
i
n
X
(n + k) !
j
i
n+k X
j−k
t
t n
=
=
(−1)
(−1)
(−1)
k
j
t
k!t!
(t
−
n)
!
k
j=k
t=0
t=0
¡
¢
Pn
y esta u
´ltima expresi´on es cero ya que t=0 (−1)t nt es el binomio de Newton de
n
(x − 1) evaluado en x = 1.
Ejercicio 96 (Secci´
on 5.1 p´
agina 138) DeP
la prueba del Desarrollo¡de
¢ Taylorj−k(5.12)
n
j
sabemos que si k ∈ {0, . . . , n} entonces, ak = j=k bkj αj donde bkj = k (−x0 ) . Por
el ejercicio
Pnanterior tenemos
Pn Pi
P
j−k ¡ j ¢¡i¢
ai xi−k
b
β
=
(−1)
== ni=k δik ai xi−k
= ak
kj
j
0
0
j=k
i=k
j=k
k
j
Pn
P
n
Luego, j=k bkj βj = aj y como el sistema de ecuaciones lineales ak = j=k bkj αj tiene
soluci´on u
´nica obtenemos que αj = βj .
Ejercicio 97 (Secci´
oP
n 5.1 p´
agina 138) Formalmente
(¡y en cualquier campo!) la
Pn
n
i
(1)
i−1
derivada de p (x) =
a
x
es
p
(x)
=
ia
x
y por lo tanto p(j) (x) =
i
i
i=0
i=1
¡
¢
Pn
P
i!
i−j
= j! ni=j ij ai xi−j
0 . Del ejercicio anterior obtenemos la prueba.
i=j (i−j)! ai x
Ejercicio 98 (Secci´
on 5.2 p´
agina 140) Las raices del polinomio zn − 1 son xk =
cos k 2π
+ i sin k 2π
para k ∈ {0, . . . , n − 1}. Tenemos
n
n
¶
µ
¶
µ
2π
2π
2π
2π
xk xm = cos (k + m)
+ i sin (k + m)
= cos `
+ i sin `
= x`
n
n
n
n
donde ` = (k + m) mod n. Para el producto, estas raices forman un grupo isomorfo a
Zn .
Ejercicio 99 (Secci´
on 5.2 p´
agina 140) Sean a, b y c tres lados de un tri´angulo.
Por simetr´ıa solo tenemos que probar que |a − b| ≤ c. Podemos suponer que a ≥ b.
Por la desigualdad del tri´angulo b + c ≥ a y de aqu´ı c ≥ a − b.
°¡
° ¡
¢
¢
Ejercicio 100 (Secci´
on 5.2 p´
agina 143) Para usar ° 1 − tk p (z0 )° = 1 − tk kp (z0 )k.
Ejercicio 101 (Secci´
on 5.3 p´
agina 144) Para la propiedad 2 vemos que
(a + bi) + (c + di) = (a + c) + (b + d) i =
= (a + c) − (b + d) i = (a − bi) + (c − di) = (a + bi) + (c + di)
Finalmente, para probar la propiedad 3 vemos que
(a + bi) (c + di) = (ac − bd) + (ad + bc) i =
= (ac − bd) − (ad + bc) i = (a − bi) (c − di) = (a + bi) (c + di)
Ejercicio 102 (Secci´
on 5.4 p´
agina 146) Tenemos ab = ba por lo que (a, b) ∼ (a, b)
lo que significa que la relaci´on es reflexiva. De ad = bc obtenemos cb = da. Esto
significa que si (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relaci´on es sim´etrica.
Si ad = bc y cf = de entonces adcf = bcde por lo que af = be. Esto significa que
Soluciones de ejercicios selectos
195
si (a, b) ∼ (c, d) y (c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relaci´on es
transitiva.
Ejercicio 103 (Secci´
on 5.4 p´
agina 148) El campo de funciones racionales Z2 (x)
contiene a Z2 y por lo tanto es de caracter´ıstica 2. Este campo tiene evidentemente un
n´
umero infinito de elementos.
Ejercicio 104 (Secci´
on 5.4 p´
agina 148) El campo de fracciones de un campo es ´el
mismo.
Ejercicio 105 (Secci´
on 6.1 p´
agina 150) Sean (a, b), (a0 , b0 ) ∈ E ⊕ F. Tenemos
0
0
(f ⊕ g) ((a, b) + (a , b )) = (f ⊕ g) (a + a0 , b + b0 ) = (f (a + a0 ) , g (b + b0 )) =
= (f (a) + f (a0 ) , g (b) + g (b0 )) = (f (a) +, g (b)) + (f (a0 ) , g (b0 )) =
= (f ⊕ g) (a, b) + (f ⊕ g) (a0 , b0 )
con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que
(f ⊕ g) (λ (a, b)) = (f ⊕ g) (λa, λb) = λ (f (a) , g (b)) = λ ((f ⊕ g) (a, b)).
Ejercicio 106 (Secci´
on 6.1 p´
agina 150)
(f0 ◦ g0 ) (a, b) = f0 (g0 (a, b)) = f0 (a, g (b)) = (f (a) , g (b)) = (f ⊕ g) (a, b).
Ejercicio 107 (Secci´
on 6.1 p´
agina 151) Si E es un subespacio y f (E) ⊆ E entonces
αf (E) ⊆ αE = E. Rec´ıprocamente, si αf (E) ⊆ E entonces f (E) ⊆ α−1 E = E. Luego,
f y αf tienen los misimos subespacios invariantes.
Ejercicio 108 (Secci´
on 6.1 p´
agina 151) Reflexividad: f = Id ◦f ◦ Id−1 . Simetr´ıa:
¡ ¢−1
. Transitividad: Si f = ρ ◦ g ◦ ρ−1 y
Si f = ρ ◦ g ◦ ρ−1 entonces g = ρ−1 ◦ f ◦ ρ−1
g = ω ◦ h ◦ ω−1 entonces f = ρ ◦ ω ◦ h ◦ ω−1 ◦ ρ−1 = (ρ ◦ ω) ◦ h ◦ (ρ ◦ ω)−1 .
Ejercicio 109 (Secci´
on 6.1 p´
agina 151) Sea L la matriz de f en la base A y M la
matriz de cambio de base de A a B. En la base B la matriz del operador f es MLM−1
(v´ease la p´agina 82). Si ρ es el operador de la cuya matriz en la base B es M entonces,
f = ρ ◦ g ◦ ρ−1 .
Ejercicio 110 (Secci´
on 6.1 p´
agina 152) Si g es reducible entonces tiene un par de
subespacios g-invariantes no triviales complementarios F y G. Si ρ es un OL biyectivo
entonces ρ (F) y ρ (G) son no triviales y complementarios. Adem´as, si f = ρ ◦ g ◦ ρ−1
¡
¢
entonces
f (ρ (F)) = ρ ◦ g ◦ ρ−1 (ρ (F)) = (ρ ◦ g) (F) ⊆ ρ (F)
O sea, ρ (F) es f-invariante. Lo mismo ocurre con ρ (G) y concluimos que f es reducible.
Ejercicio 111 (Secci´
on 6.1 p´
agina 152) Falso, un 0-deslizamiento en R2 es irreducible pero no es biyectivo.
Ejercicio 113 (Secci´
on 6.2 p´
agina 157) Sea p el per´ıodo de a. Si p es de grado
cero entonces, p = 1 y por lo tanto 0 = ph (a) = h0 (a) = a.
196
Soluciones de ejercicios selectos
Ejercicio 114 (Secci´
on 6.2 p´
agina 157) Si p = x entonces ph (a) = h (a) por lo
que ph (a) = 0 si y solo si a ∈ ker h.
Ejercicio 118 (Secci´
on 6.5 p´
agina 167) Sea f un operador lineal en End (E/F) y
G un subespacio complementario a F. Definimos h como la funci´on nula en F, como
h (a) = G ∩ f (a + F) en G y en todo el espacio por extensi´on lineal. Para ver que
h es lineal solo hay que comprobar que es lineal en G. Esto es trivial porque en G la
nat
funci´on h cumple h = nat−1 ◦f ◦ nat donde a 7−→ a + F es el isomorfismo can´onico
e basta comprobarlo para los
entre el cociente y un complementario. Para ver que f = h
vectores a que estan en G. Pero f (a + F) = h (a) + F ya que f = nat ◦h ◦ nat−1 .
Para calcular el n´
que para cualquier vector a se cumple que
³ucleo comprobamos
´
e
h (a) = O (a) ⇔ (h (a) + F = F) ⇔ (h (a) ∈ F).
Ejercicio 119 (Secci´
on 6.5 p´
agina 168) Supongamos que hbih ∩ F = {0}. Sea p =
perh (b + F). Tenemos que ph (b + F) = ph (b) + F = F y por lo tanto ph (b) ∈ F. Por
hip´otesis, ph (b) = 0. Luego, p ` perh (b).
Supongamos perh (b) a perh (b + F) y sea qh (b) ∈ F. Tenemos, qh (b + F) = qh (b)+
F = F y por lo tanto q ` perh (b + F) ` perh (b). Luego, qh (b) = 0.
Ejercicio 120 (Secci´
on 6.5 p´
agina 170) Es f´acil ver que hA ∪ Bih ⊇ hAih + hBih =
F + G = E y por lo tanto A ∪ B es h-generador. Comprobemos que A ∪ B es hindependiente. Observese que A ∩ B = ∅ ya que 0 no est´a en ning´
un conjunto hindependiente y A ∩ B ⊆ F ∩ G = {0}. Luego una h-combinaci´on de A ∪ B es de la
forma
ph (a1 ) + · · · + qh (an ) + rh (b1 ) + · · · + sh (bn )
donde A = {a1 , . . . , an } y B = {b1 , . . . , bm }. Si esta h-combinaci´on es igual cero entonces
F = hAih 3 ph (a1 ) + · · · + qh (an ) = −rh (b1 ) − · · · − sh (bn ) ∈ hBih = G
y por lo tanto,
ph (a1 ) + · · · + qh (an ) = rh (b1 ) + · · · + sh (bn ) = 0
y como A y B son h-independientes deducimos que
ph (a1 ) = · · · = qh (an ) = rh (b1 ) = · · · = sh (bn ) = 0.
Ejercicio 122 (Secci´
on 6.5 p´
agina 173) Demostremos primero que haih ∩ hbih =
{0}. Tenemos para cualquier polinomio r que
(ph rh (a) = rh (ph (a)) = 0) ⇒ (rh (a) ∈ ker ph )
y por lo tanto haih ⊆ ker ph . An´alogamente hbih ⊆ ker qh . Por el Lema de Descomposici´on de N´
ucleos (6.15) sabemos que ker ph ∩ker qh = {0} y por lo tanto haih ∩hbih = {0}.
De rh (a + b) = rh (a)+rh (b) concluimos que ha + bih ⊆ haih +hbih . Demostraremos
que ambos subespacios tienen la misma dimensi´on (finita) y por lo tanto son iguales.
Como haih ∩ hbih = {0} el conjunto {a, b} es una h-base de haih + hbih y por 6.26
dim (haih + hbih ) es la suma de los grados de p y q. De la misma manera que en la
Soluciones de ejercicios selectos
197
prueba de 6.19 podemos demostrar que perh (a + b) = pq. Por 6.26 dim ha + bih es
igual al grado de pq o sea, igual a la suma de los grados de p y q.
Ejercicio 123 (Secci´
on 6.5 p´
agina 173)
Sean p, q, . . . , r los factores irreducibles del polinomio m´ınip`2
· · · p`t
mo del OL h. Organizaremos los polinomios en el tipo de p`1
una descomposici´on de h en componentes radicales c´ıclicas qm 1 qm 2 · · · qm t
..
.
en una tabla donde `i ≥ `i+1 , mi ≥ mi+1 y ni ≥ ni+1 . Pa- ...
.
· · · ..
ra hacer nuestra tabla cuadrada puede ser que necesitemos rn1 rn2 · · · rnt
hacer algunos de los exponentes iguales a cero. O sea, hacia
la derecha de la tabla pueden haber polinomios iguales a 1.
Cada entrada diferente de 1 de esta tabla se corresponde con una componente radical
c´ıclica de h. Los renglones de la tabla corresponden a las componentes radicales de h.
Para cada columna i ∈ {1, . . . , t} denotemos por gi a la suma directa de las componentes
irreducibles de h correspondientes a las entradas de la columna. Por el 6.11 el polinomio
m´ınimo de gi es igual a p`i qm i · · · rni y por lo tanto el polinomio m´ınimo de cada gi es
un m´
ultiplo del polinomio m´ınimo de gi+1 . Por el ejercicio anterior los gi son c´ıclicos.
Denotando fi = gt−i obtenemos la descomposici´on deseada.
Ejercicio 124 (Secci´
on 6.5 p´
agina 173) El tipo de tales descomposiciones est´a formado por los productos de los polinomios en las columnas de la tabla del ejercicio
anterior. De la unicidad del tipo de las descomposici´ones en componentes irreducibles
se desprende la unicidad de la tabla salvo reordenamiento de los renglones.
Ejercicio 125 (Secci´
on 6.6 p´
agina 175) Para probar esto, demostraremos que
la traza es uno de los coeficientes del polinomio caracter´ıstico. Como el polinomio
caracter´ıstico es invariante bajo cambios de base, entonces lo mismo es v´alido para sus
coeficientes.
Sea A = αNN una matriz. Su polinomio caracter´ıstico es
X
Y
Y
(x − αii )
(−αkσk )
det (xI − A) =
sgn σ
σ∈SN
i
k
donde el primer producto recorre todos los ´ındices i ∈ N tales que σi = i y el segundo
los ´ındices k ∈ N tales que σk 6= k.
Como cualquier permutaci´on σ que no sea la identidad tiene al menos dos k tales que
σk 6= k, entonces todos los sumandos correspondientes a permutaciones que no sean la
identidad son polinomios de grado menor o igual que |N| − 2. Luego, los coeficientes en
xn y xn−1 del polinomio caracter´ıstico coinciden con los correspondientes coeficientes
del polinomio
!
Ã
X
Y
(x − αii ) = xn −
αii xn−1 + · · ·
i∈N
i∈N
y as´ı vemos, que el coeficiente en xn−1 es igual a la traza multiplicada por −1.
198
Soluciones de ejercicios selectos
Ejercicio 126 (Secci´
on 6.6 p´
agina 178) Si el polinomio m´ınimo es un producto de
diferentes polinomios de grado 1 entonces las componentes radicales son homotecias
ya que para cualquier vector a en el subespacio radical de tipo x − λ se cumple que
h (a) − λa = 0. Las homotecias tienen matrices diagonales en cualquier base y la suma
directa de operadores diagonalizables es diagonalizable.
Si en cierta base N el OL h tiene matriz diagonal αNN entonces, podemos denotar
Nλ = {i ∈ N | αii = λ}. Tambi´en denotemos hλ a la restricci´on de h al subespacio
generado por Nλ . Los operadores hλ son homotecias porque en la base Nλ su matriz
es λI y por lo tanto el polinomio m´ınimo de hλ es x − λ. Tenemos que h es la suma
directa de los hλ y que su polinomio m´ınimo es el producto de los x − λ ya que todos
estos son diferentes.
Ejercicio 127 (Secci´
on 6.6 p´
agina 178) Si λ1 , . . . , λn son n diferentes valores
propios de un operador lineal en dimensi´on n entonces su polinomio caracter´ıstico es
(x − λ1 ) · · · (x − λk ) y por el Teorema de Hamilton-Caley-Frobenius este coincide con
su polinomio m´ınimo. Por el ejercicio anterior el operador es diagonalizable.
Ejercicio 128 (Secci´
on 6.6 p´
agina 178) Supongamos que h es triangulable entonces
existe una base B = {v1 , . . . , vn } en la cual la matriz de h es triangular. Denotemos
Ek = hv1 , . . . , vk i , evidentemente {0} ⊆ E1 ⊆ · · · ⊆ En = E y dim Ek = k. Ademas
{h (v1 ) , ...., h (vk )} ⊆ Ek debido a la forma triangular de la matriz de h. Luego, los Ek
son invariantes.
Rec´ıprocamente supongamos que una cadena de subespacios invariantes {0} ⊆ E1 ⊆
· · · ⊆ En = E cumple que dim Ek = k. Escojamos v1 ∈ E1 y para k ∈ {2, ..., n}
escojamos vk ∈ Ek \ Ek+1 . El conjunto B = {v1 , . . . , vn } es LI ya que ning´
un vk es
combinaci´on lineal de los anteriores. Luego {v1 , . . . , vk } es una base de Ek .
Como Ek es invariante entonces por 6.2, en la base B la matriz de h tiene las entradas
cuyas columnas est´an indexadas por {1, . . . .k} y cuyos renglones est´an indexados por
{k + 1, . . . .n}; iguales a cero. En particular, ∀k en la columna k solo pueden ser distintos
de cero las entradas correspondientes a los renglones {1, . . . .k}.
Ejercicio 129 (Secci´
on 6.6 p´
agina 178) Si f y g son triangulables entonces en
cierta base la matriz de f es diagonal con dos bloques y cada uno de ellos triangular.
Luego, f es triangulable.
Rec´ıprocamente, sea {0} ⊆ E1 ⊆ · · · ⊆ En = E la cadena de subespacios invariantes
def
que hace que h = f ⊕ g sea triangulable (v´ease el ejercicio anterior).
Sea E = F ⊕ G la descomposicion en subespacios invariantes de tal manera que f es
la restricci´on de h al subespacio F. Sea π la proyecci´on a F a lo largo de G, o sea, si
x = y + z con y ∈ F y z ∈ G entonces π (x) = y.
Para k ∈ {1, . . . , n} denotemos Fk = π (Ek ) . Los subespacios Fk cumplen que
{0} ⊆ F1 ⊆ · · · ⊆ Fn = F.
Soluciones de ejercicios selectos
199
Probemos que los espacios Fk son invariantes. Para esto sea x = y + z con y ∈ F y
z ∈ G. Por linearidad tenemos h (x) = h (y) + h (z) . Como F y G son invariantes
entonces h (y) ∈ F y h (z) ∈ G y por definici´on de π tenemos que
π (h (x)) = h (y) = h (π (x))
esto quiere decir que π conmuta con h. Luego
h (Fk ) = h (π (Ek )) = π (h (Ek )) ⊆ π (Ek ) = Fk
y por lo tanto los Fk son invariantes.
Por otro lado, como dim Ek = 1 + dim Ek−1 tenemos dos alternativas posibles
´o
dim Fk = 1 + dim Fk−1
Fk = Fk−1
y si en la cadena de subespacios invariantes
{0} ⊆ F1 ⊆ · · · ⊆ Fn = F
eliminamos las repeticiones obtendremos otra cadena de subespacios invariantes
{0} ⊆ F01 ⊆ · · · ⊆ F0m = F
en la cual se cumple que dim F0k = k. Por el ejercicio anterior esto quiere decir que f es
triangulable.
Ejercicio 130 (Secci´
on 6.6 p´
agina 178) Por Teorema de Descomposici´on en Componentes Radicales C´ıclicas (6.36) y el ejercicio anterior solo hay que probarlo para
operadores c´ıclicos radicales. Sea h c´ıclico radical con polinomio m´ınimo pn . La u
´nica
cadena de subespacios invariantes posible es por 6.43 la siguiente
{0} ⊆ ker ph ⊆ · · · ⊆ ker pkh ⊆ · · · ker pnh = E.
Por 6.42 y 6.23 tenemos que dim ker pkh es igual al grado de pk . Luego, esta cadena
cumple los requisitos del ejercicio 128 si y solo si el grado de p es 1.
En los complejos, todo polinomio irreducible es de grado 1.
Ejercicio 131 (Secci´
on 6.7 p´
agina 184) Sean f y g del mismo tipo. Entonces,
usando la Forma normal can´onica (6.57) vemos que existen bases del espacio en las
cuales f y g tienen la misma matriz. Esto quiere decir que en la misma base f y g
tienen matrices A y CAC−1 donde C es la matriz adecuada de cambio de bases. La
matriz C es la matriz de un OL invertible h por lo que f = h ◦ g ◦ h−1 .
Rec´ıprocamente, supongamos que f = h ◦ g ◦ h−1 . Si A, B y C son las matrices de f, g y
h respectivamente en cierta base entonces A = CBC−1 . Luego , en otra base (definida
por el cambio de base C), la matriz de g es A. Por lo tanto, existen bases en las cuales
las matrices de g y f son las mismas. Como el tipo de un operador se puede calcular
por su matriz sin usar la base en la que est´a definida entonces, los tipos de f y g son
el mismo.
200
´
Algebra.
Espacio vectorial con un producto de vectores asociativo, distributivo, con elemento neutro y
que conmuta con el producto por escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70, 79, 99
´
´
Algebra conmutativa.
Algebra en la cual el producto de vectores es
conmutativo . . . . . . . . . . . . . . . . . . . . 71, 155
Anillo.
Conjunto
con dos operaciones binarias denotadas
por + y • que es grupo abeliano para la
suma, que el producto es asociativo con
elemento neutro y distributivo respecto
a la suma . . . . . . . . . . . . . . . . . . . . . 7, 12, 70
Anillo conmutativo.
Anillo en el cual el producto es conmutativo . . . . . . . . . . . . . 7, 15, 22, 130, 146
Anulador de un conjunto de vectores.
La intersecci´
on de los anuladores de todos los vectores en el conjunto. . . . . . 157
Anulador de un OL.
El anulador de
todo el espacio. . . . . . . . . . . . . . . . . . . . . . . 157
Anulador de un vector. El conjunto de
polinomios p tales que ph (a) = 0 . . 157
Argumento de un complejo.
→
−
El a´ngulo que forma el vector 0z con el
eje real del plano complejo. . . . . . . . . . 139
Asociatividad.
Propiedad de algunas
operaciones binarias que consiste en que
a ◦ (b ◦ c) = (a ◦ b) ◦ c
para cualesquiera elementos a, b y c del
conjunto en el cual est´
a definida la operaci´
on . . . . . . . . . . 3, 14, 20, 69, 78, 130
Asociatividad del producto por escalares.
Axioma de espacio vectorial:
(βa) = (αβ) a . . . . . . . . . . . . . . . . . . . . . . . . 28
Automorfismo.
Endomorfismo
biyectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Automorfismo de Frobenius.
La funci´on K 3 x 7→ xp ∈ K donde
K es un campo finito de caracter´ıstica
p > 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Automorfismo semilineal.
Transformaci´on semilineal biyectiva de
un espacio en si mismo. . . . . . . . . . . . . . . 88
Base.
Conjunto de
vectores que es generador y LI. Conjunto generador minimal. Conjunto LI maximal . . . . . 40, 45, 49, 62, 72, 80, 117
Base can´
onica.
El conjunto de N-adas {ei | i ∈ N} donde
la j-´esima coordenada de ei es el delta
de Kronecker δij . . . . . . . . . . . . . 43, 77, 82
Base de las columnas.
Conjunto
de columnas diferentes que son una base
del espacio de columnas . . . . . . . . . . . . . 116
Base de los renglones.
Conjunto
de renglones diferentes que son una base
del espacio de renglones. . . . . . . . . . . . . 116
Base de una matriz.
Submatriz no singular maximal por contenci´
on. . . . . . . . . . . . . . . . . . . . . . . . . 118, 124
Binomio de Newton.
F´
ormula para expandir (x + y)n 21, 138
Cadena.
Subconjunto de un
conjunto ordenado que est´
a totalmente
ordenado . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61
Cambio de ´ındices.
Biyecci´
on
mediante la cual los ´ındices de una Nada (o columnas, o renglones) obtienen
nuevos nombres. Es la operaci´
on en que
una biyecci´
on ω : N → L se le aplica
a las columnas de una matriz αMN pa-
202
cam — com
ra obtener la matriz βML = αMω(N) que
alogamencumple que βij = αiω − 1 (j) . An´
te se definen los cambios de ´ındices de
los renglones . . . . . . . . . . . . . . . . . . . . . . . . . 104
Campo.
Anillo conmutativo en
el cual todo elemento diferente de cero
tiene inverso . . . . . . . . . . . . . . . . . . 8, 16, 17
Campo algebraicamente cerrado.
Campo en el cual todo polinomio de grado al menos uno tiene una ra´ız. Campo
el cual los polinomios irreducibles son todos de grado uno . . . . 10, 47, 138, 145
Campo de fracciones.
Entre las fracciones de un dominio de integridad se define la suma y el producto
exactamente de la misma manera que se
definen estas operaciones en Q. Para estas operaciones el conjunto de fracciones
es un campo . . . . . . . . . . . . . . . . . . . . . . . . . 147
Campo ordenado.
Campo con una relaci´on de orden en el
cual todo elemento es comparable con el
cero. Los elementos mayores que cero se
les llama positivos y los menores que cero
negativos. Los axiomas que debe cumplir
la relaci´on de orden son:
1. El opuesto de un positivo es negativo,
2. El opuesto de un negativo es positivo,
3. La suma de positivos es positiva,
4. El producto de positivos es positivo.
Los campos R y Q est´
an ordenados.
Cualquier campo ordenado tiene que ser
de caracter´ıstica cero. Adem´
as, C no se
puede ordenar . . . . . . . . . . . . . . . . *, 9, 106
Campo primo.
Campo cuyo u
´nico
subcampo es el mismo . . . . . . . . . . . . . . . 17
Caracter´ıstica de un campo.
Es cero si el campo contiene como subcampo a Q. Es igual al n´
umero primo p
si el campo contiene como subcampo a
Zp . . . . . . . . . . . . . . . . . . . . 19, 97, 105, 148
Cerradura lineal.
El conjunto de todas las combinaciones lineales de
un conjunto de vectores . . . . . 37, 45, 49
Ciclo.
Permutaci´
on σ del
grupo sim´etrico de N que cambia un conun la regla
junto {x0 , . . . , xn−1 } ⊆ N seg´
σ (xi ) = xi+1 mod n y deja todos los dem´as
elementos de N fijos . . . . . . 94, 107, 115
Ciclos disjuntos.
Ciclos tales
que los conjuntos de elementos que ellos
no dejan fijos no se intersectan . . . . . . 94
Clases de equivalencia. Si ≈ es una relaci´
on de equivalencia en A entonces, las
clases de equivalencia son los subconjuntos de A para los cuales a ≈ b si y solo si
a y b est´an en la misma clase *, 55, 62
Coalineaci´
on.
Funci´on biyectiva de un
espacio vectorial en si mismo que tal que
f y f−1 preservan subespacios afines. 89
Cociente.
Al efectuar la divisi´on con resto de un
elemento p de un anillo conmutativo (Z,
K [x]) entre otro q obtenemos la igualdad
p = cq + r. Al elemento c se le llama cociente de la divisi´
on de p entre q . . . 131
Codominio de una funci´
on.
Sea f : A → B una funci´on. Al conjunto B se le llama codominio de la funci´
on
f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11, 83
Coeficiente principal.
El coeficiente diferente de cero de un polinomio
que multiplica a la potencia m´
as grande
de la variable . . . . . . . . . . . . . . . . . . . . . . . . 129
Coeficientes de un polinomio.
(v´ease polinomio) . . . . . . . . . . . . . . . . . . . 129
Cofactor. De la entrada αij es el escalar
sgn ω det αN\i ω(N\j)
donde ω es cualquier permutaci´
on de N
tal que ω (j) = i . . . . . . . . . . . . . . . . . . . . . 106
Columna de una matriz.
Dada una matriz αNM y j ∈ M a la Nada αNj (j est´a fijo, los elementos de N
var´ıan) se le llama j-´esima columna de la
matriz αNM . . . . . . . . . . . . . . . . . . . . . . 33, 76
Combinaci´
on lineal.P
Los vectores de la forma i∈N αi i (donde solo
un n´
umero finito de los ai es diferente de
com — dia
cero) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35, 49
Complemento algebraico.
Cofactor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Componente radical.
Restricci´
on del OL a un subespacio radical maximal . . . . . . . . . . . . . . . . . . . . . . . . . 161
Composici´
on de funciones.
Operaci´
on entre dos funciones que consiste en aplicar primero una funci´
on y
despu´es la otra . . . . . 14, 44, 69, 78, 93
Conjunto acotado inferiormente.
Conjunto que tiene una cota inferior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 143
Conjunto acotado superiormente.
Conjunto que tiene una cota superior . *
Conjunto generador.
Conjunto de
vectores cuya cerradura lineal es todo el
espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38, 45
Conjunto h-independiente.
Conjunto
de vectores no nulos tales que los sumandos de cualquier h-combinaci´
on nula son
nulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Conjunto inductivamente ordenado.
Conjunto ordenado no vac´ıo dentro del
cual cada cadena tiene cota superior 61
Conjunto LD.
Acr´
onimo de conjunto
linealmente dependiente . . . . . . . . . . . . . 39
Conjunto LI.
Acr´
onimo de conjunto
linealmente independiente . . . . . . . . . . . 39
Conjunto linealmente dependiente.
Conjunto de vectores que no es LI . . 39
Conjunto linealmente independiente.
Conjunto de vectores A tal que ∀a ∈ A
se cumple que hA\ai 6= hAi . . . . 39, 116
Conjunto ordenado.
Conjunto
en el cual est´
a definida una relaci´on de
orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61
Conjunto totalmente ordenado.
Conjunto ordenado en el cual dos elementos cualesquiera son comparables . *
Conmutatividad. Propiedad de algunas
operaciones binarias que consiste en que
a◦b=b◦a
203
∀ elementos a y b del conjunto en el cual
est´
a definida la operaci´on . . . . . . . . . . . . . . 3
Contracci´
on. Homotecia cuyo escalar es
un real mayor que 0 y menor que 1 . 66
Coordenada.
De la n-ada (a1 , a2 , ..., an ) es alguno de
los ai . De la N-ada aN es alguno de los
ai para i ∈ N . . . . . . . . . . . . . . . . . . . . . . . . . 29
Coordinatizaci´
on.
DadaPuna base N de F, es el isomorfismo
F 3 i∈N αi i 7→ αN ∈ K{N} . . . . . . 46, 80
Cota inferior.
Una
cota inferior de un subconjunto A de un
conjunto ordenado B es un elemento b
de B tal que cualquier elemento de A es
mayor o igual que B . . . . . . . . . . . . . . *, 143
Cota superior.
Una cota superior
de un subconjunto A de un conjunto ordenado B es un elemento b de B tal que
cualquier elemento de A es menor o igual
que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 61
Defina la multiplicidad de una ra´ız.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Delta de Kronecker.
Funci´
on δij de dos variables que toma
valor 1 si i = j y toma valor 0 si i 6=
j . . . . . . . . . . . . . . . . . . . . . . . . . . . . .138, 79, 99
Desarrollo de Taylor.
Expresi´
on de una funci´
P on como iserie
de potencias f (x) =
ai (x − x0 ) . El
coeficiente de la serie ai es la i-´esima derivada de f evaluada en el punto
x0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137, 142
Determinante.
El determinante de
α
Q
PNN es
σ∈ SN sgn σ
i∈N αiσ i . . . .98, 21, 124
Determinante de un OL.
Determinante de su matriz en una base.
No depende de la base escogida . . . . 111
Diagrama.
Reperesentaci´
on gr´
afica
de una familia de conjuntos y de funciones entre ellos mediante la utilizaci´on de
flechas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Diagrama conmutativo.
204
dia — ext
Diagrama en el cual cualesquiera dos cainc´
ognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
minos dirigidos (que siguen el orden de
Ecuaci´
on matricial.
Ecuaci´
on AX = B
las flechas) de un conjunto a otro repredonde la matrices A y B son conocidas y
sentan dos descomposiciones de la misma
la matriz X es inc´
ognita . . . . . . . . . . . . . 126
funci´
on como composici´
on de las funcioElemento maximal.
Elemento
nes de las flechas de los caminos . . . . 82
tal que cualquier otro no es mayor que
Dilataci´
on.
Homotecia cuyo escalar es
el . . . . . . . . . . . . . . . . . . . . . . . . *, 40, 61, 118
un real mayor que 1 . . . . . . . . . . . . . . . . . . 66
Elemento minimal.
Elemento tal que
Dimensi´
on.
cualquier otro no es menor que el *, 40
El
cardinal
de
cualquier
baElementos comparables. Dos elementos
se . . . . . . . . . . . . . . . . . . . . . . . . 42, 50, 55, 84
a y b de un conjunto ordenado para los
Dimensi´
on de un OL.
Dimensi´on
cuales o a ¹ b o b ¹ a o los dos . *, 40
del espacio donde est´
a definido el operaEndomorfismo. Morfismo cuyo dominio
dor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
y codominio coinciden . . . . . . . . . . . . . . . 13
Dimensi´
on de un subespacio af´ın. Si
Entensi´
on lineal de una funci´
on.
E es una traslaci´
on del subespacio E enExtensi´on que es transformaci´
on lineal.
tonces la dimensi´
on de E es la dimensi´
on
Si la funci´on tiene como dominio una bade E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
se, entonces la extensi´
on lineal existe y es
Distributividad.
u
´nica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Relaci´
on de una operaci´
on binaria ¦ con
Entrada de una matriz.
respecto a otra ◦ que consiste en que las
Coordenada de una NM-ada . . . . . . . . 33
igualdades
Epimorfismo. Morfismo sobreyectivo 13
a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c)
Escalar.
Elemento del campo
(b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a)
(¡la escala!) sobre el cual est´
a definido el
se cumplen para cualesquiera elementos
espacio vectorial . . . . . . . . . . . . . . . . . . 28, 28
a, b y c del conjunto en el cual est´
a deEspacio cociente.
Si E
finida la operaci´on. . . . . . . . 5, 20, 69, 78
es un subespacio de F entonces, el espaDistributividad del producto por escalares. cio cociente F/E es el conjunto de todos
los subespacios afines paralelos a E doAxioma
de
espacio
vectorial:
tado con la suma de subespacios afines
α (a + b) = αa + αb y (α + β) a =αa+βa 28 y el producto de subespacios afines por
Divisor.
Para dos polinomios p y q
escalares . . . . . . . . . . . . . . . . . . . . . . . . . . 56, 85
se dice que q es un divisor de p si ∃c tal
Espacio de columnas.
que q = cp . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
El espacio generado por las columnas de
Dominio de integridad.
Anillo
una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
conmutativo en el cual el producto de
Espacio de renglones.
elementos diferentes de cero es diferente
El espacio generado por los renglones de
de cero . . . . . . . . . . . . . . . . . . . . . .15, 19, 147
una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
Dominio de una funci´
on.
Sea
Espacio vectorial.
Grupo
f : A → B una funci´on. Al conjunto A se
abeliano con un producto por escalale llama dominio de la funci´
on f . 11, 83
res distributivo, asociativo y con neuEcuaci´
on lineal.
tro. . . . . . . . . . . . . . . . . . . 28, 46, 54, 56, 69
Ecuaci´
on αN xN = βN donde las N-adas
Extensi´
on de una funci´
on.
αN y βN son conocidos y el vector xN es
Si f es una restricci´
on de g entonces g es
fac — gru
una extensi´on de f . . . . . . . . . . . . . . . . . . . 72
Factor de un polinomio.
Divisor
m´onico de grado al menos 1 . . . . . . . . 133
Factor propio.
Factor m´
onico diferente al polinomio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Forma polar de un complejo.
Es la expresi´
on r (cos ϕ + i sin ϕ) donde
r es el m´
odulo de z y ϕ es el argumento
de z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
F´
ormula multinomial.
F´
ormula
para expandir la n-sima potencia de una
suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Fracci´
on.
Pareja de elementos
de un dominio de integridad (por ejemplo K (x) o Z) que se denota por a/b.
Dos fracciones a/b y c/d se consideran
iguales si ad = bc . . . . . . . . . . . . . . . . 146, 8
Funci´
on.
Informalmente
es una regla o procedimiento mediante el cual para cada elemento
de un conjunto a podemos obtener
(calcular) otro u
´nico elemento f (a) de
otro conjunto y que llamamos la imagen
de a mediante la funci´
on f. Formalmente, una funci´on f : A → B es un subconjunto del producto cartesiano f ⊆ A × B
que cumple que para cualquier a ∈ A
existe una u
´nica pareja (a, b) ∈ f. . . . . . *
Funci´
on antipodal.
La funci´
on
x 7→ −x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Funci´
on biyectiva. Funci´on inyectiva. y
sobreyectiva . . . . . . . . . . . . . . . . . . . . . . . *, 93
Funci´
on continua. Funci´on continua en
todos los puntos de su dominio . . . . . 140
Funci´
on continua en un punto.
La
funci´
on f es continua en z0 si ∀ε > 0 ∃δ
tal que kz − z0 k < δ ⇒ kf (z) − f (z0 )k <
ε. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
Funci´
on de evaluaci´
on.
De un polinomio p (x) es la funci´on:
p : K 3 b 7→ p (b) ∈ K.
. . . . . 131
Funci´
on identidad.
La que a todo
elemento le corresponde el mismo . . . 66
205
Funci´
on inversa.
La inversa
de una funci´on f : A → B es una funci´on
g tal que f ◦ g = IB y g ◦ f = IA . Una
funci´on tiene inversa si y solo si esta es
biyectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 44
Funci´
on inyectiva.
Cada
elemento de la imagen tiene una u
´nica
preimagen . . . . . . . . . . . . . . . . . . . . . . . . . *, 83
Funci´
on nula. La que a todo elemento le
corresponde el cero . . . . . . . . . . . . . . . . . . . 66
Funci´
on racional.
Fracci´
on de dos polinomios . . . . . . . . . 148
Funci´
on sobreyectiva.
Funci´
on tal que su imagen coincide con
su codominio . . . . . . . . . . . . . . . . . . . . . . *, 84
Funcional.
Funci´
on de un espacio
vectorial en su campo . . . . . . . . . . . . . . . 109
Funcional bilineal.
Funcional lineal en sus dos variables 109
Funcional lineal.
Funcional que es una TL. . . . . . . . . . . . 109
Funcional lineal en una variable.
Funci´
on de muchas variables con imagenes en un campo que para cualesquiera
valores fijos de las dem´as variables determina un funcional lineal de la variable
que se trata . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Funcional multilineal.
Funcional lineal en todas sus variables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Grado de un polinomio.
La potencia mayor de la variable con coeficiente
diferente de cero. Si el grado es cero el
polinomio es un elemento del campo. No
est´
a definido el grado del polinomio cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Grupo. Conjunto con una operaci´on binaria asociativa que tiene elemento neutro
y en el cual todo elemento tiene inverso. . . . . . . . . . 7, 11, 14, 57, 71, 93, 134
Grupo abeliano.
Grupo en el cual la
operaci´on es conmutativa . . . . . . . . . . . . . . 7
Grupo alternante.
El subgrupo (del grupo sim´etrico) de to-
206
gru — mat
das las permutaciones pares . . . . . . . . . 97
Grupo general lineal.
El grupo
de automorfismos de un espacio vectorial. El grupo de operadores lineales no
singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Grupo sim´
etrico.
El grupo de todas las permutaciones con
la operaci´
on de composici´
on . . . . . . . . . 93
h-base.
Conjunto hindependiente y h-generador. Todo OL
h tiene h-bases . . . . . . . . . . . . . . . . . . . . . . 165
h-cerradura.
Conjunto de todas las
h-combinaciones . . . . . . . . . . . . . . . . . . . . . 163
h-combinaci´
on.
Vector de
la forma ph (v1 ) + qh (v2 ) + · · · + rh (vn )
donde p, q, ..., r son polinomios . . . . . 162
h-generador.
Conjunto de vectores que
h-genera a todo el espacio . . . . . . . . . . 163
Homotecia.
Transformaci´on lineal
que consiste en la multiplicaci´on por un
escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Ideal.
Subconjunto I de un anillo A tal
que
1. ∀p, q ∈ I p + q ∈ I,
2. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . 134
Ideal principal. Ideal formado por todos
los m´
ultiplos de un polinomio . . . . . . 134
Idempotencia. Propiedad de una funci´on
que consiste en que f ◦ f = f2 = f. . . . 37
Igualdad de Moivre.
F´
ormula
para calcular la n-esima potencia de un
n´
umero complejo en forma polar . . . 139
Imagen de un elemento.
(v´ease:
Funci´
on) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *
Imagen de una funci´
on.
El
conjunto de los elementos del codominio
que tienen alguna preimagen. Se denota
por Im f . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 82
Imagen de una matriz.
La imagen de su transformaci´on lineal.
Su espacio de columnas . . . . . . . . . . . . . 122
´
Infimo.
El m´aximo de las cotas superiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 143
´
Infimo de un conjunto de reales.
El n´
umero m´aximo x tal que x ≤ a para
cualquier a ∈ A. Para el ´ınfimo x de A
siempre existe una sucesi´
on {ak } de elementos de A cuyo l´ımite es x . . . . . . . 143
Inmersi´
on.
Restricci´
on de la funci´on
identidad a un subconjunto . . . . . . 67, 83
Inverso.
De un elemento a para la operaci´
on binaria ◦ es un elemento b que cumple que
a ◦ b = b◦ a = e para cualquier elemento
a del conjunto en el cual est´
a definida la
operaci´on. Si un elemento tiene inverso
entonces este es u
´nico. En los anillos y
campos es el inverso para el producto . 5
Isomorfismo.
Morfismo biyectivo. La inversa de cualquier isomorfismo
es tambi´en un isomorfismo. . . . . . . 12, 51
Isomorfismo can´
onico.
Isomorfismo
cuya construcci´
on no depende de escoger algo (una base, un complementario,
etc.) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51, 57
Isomorfismo de espacios vectoriales.
Transformaci´
on lineal biyectiva . . 44, 73
Isomorfismo lineal.
Isomorfismo de espacios vectoriales . 44
L´ımite de una sucesi´
on.
La sucesi´on {zk } tiene l´ımite z si ∀ε > 0
∃N tal que ∀k > N kzk − zk < ε. . . . 142
Matriz.
Es una NM-ada o sea un
conjunto indexado por dos conjuntos 33
Matriz acompa˜
nante de un polinomio.
Matriz cuadrada cuya u
´ltima columna
es el vector de coeficientes del polinomio
multiplicado por -1, la paralela inferior
a la diagonal contiene unos y todas las
dem´as entradas son cero. . . . . . . . . . . . 176
Matriz ampliada.
Del sistema Ax = b es la matriz
(A|b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
Matriz cuadrada.
Matriz con la misma cantidad de columnas y renglones . . . . . . . . . . . . . . . . . 105, 79
Matriz de cambio de base.
mat — mor
Escogidas dos bases V y N de un espacio
vectorial la matriz αNV cuyas columnas
son los coeficientes de las expresiones de
la base V como combinaci´on lineal de la
base N. O sea, para
P cualquier v ∈ V se
cumple que v =
i∈N αiv i. Si βV son
las coordenadas de un vector en la base
V entonces αNV βV son las coordenadas
del mismo vector en la base N. . . . . . . 80
Matriz de permutaci´
on.
La
matriz que se obtiene al permutar las columnas o los renglones de la matriz identidad. Matriz que tiene exactamente un
1 en cada rengl´
on y columna y todas las
dem´as entradas son cero . . . . . . . . . . . . 102
Matriz de una transformaci´
on lineal.
Escogidas una base N en el dominio
y otra M en el codominio de una TL
f la matriz αMN cuyas columnas son
los coeficientes de las expresiones de
las imagenes de la base N como combinaci´
on lineal de la base M. O sea,
para cualquier
j ∈ N se cumple que
P
f (j) = i∈M αij i . . . . . . . . . . . . 77, 74, 81
Matriz del sistema.
La matriz A del sistema de ecuaciones lineales
Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Matriz diagonal.
Matriz αMM en la
cual si i 6= j entonces, αij = 0 . . . . . . . 114
Matriz diagonal por bloques.
Matriz
αMM en la cual hay una partici´on del
conjunto de ´ındices M1 ∪ · · · ∪ Mt = M
y que αij = 0 si i y j pertenecen a bloques diferentes . . . . . . . . . . . . . . . . . . . . . . . 114
Matriz identidad.
La matriz INN cuyas entradas son el delta de Kronecker: unos en la diagonal y
ceros en el resto de las entradas. La matriz de la transformaci´on lineal identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79, 99
Matriz inversa.
La matriz
cuadrada αMN es la inversa de βNM si
βNM αMN = INN y αMN βNM = IMM .
207
Si ambos N y M son finitos entonces,
basta comprobar una de las dos igualdades. Una matriz cuadrada tiene inversa
si y solo si su determinante es diferente
de cero . . . . . . . . . . . . . . 79, 110, 116, 126
Matriz singular.
Matriz cuadrada con determinante igual
a cero . . . . . . . . . . . . . . . . . . . . 105, 116, 120
Matriz triangular.
Matriz triangular por bloques en la cual
cada bloque es de cardinalidad 1 . . . 114
Matriz triangular inferior.
Matriz αMM en la cual M = {1, . . . , m}
y tal que en su representaci´
on gr´
afica todas las entradas por encima de la diagonal son cero . . . . . . . . . . . . . . . . . . . . . . . . . . 114
Matriz triangular por bloques. Matriz
αMM en la cual hay una partici´on del
conjunto de ´ındices M1 ∪ · · · ∪ Mt = M
y que αij = 0 si i ∈ Mp , j ∈ Mq y
p < q . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
Matriz triangular superior.
Matriz αMM en la cual M = {1, . . . , m}
y tal que en su representaci´
on gr´
afica todas las entradas por debajo de la diagonal son cero . . . . . . . . . . . . . . . . . . . . . . . . . . 114
M´
aximo. El m´
aximo de un subconjunto
A de un conjunto ordenado B es una cota superior que pertenece a A. Si existe
entonces, el m´
aximo es u
´nico . . . . . . . . . . *
M´ınimo.
El m´ınimo de un subconjunto A de un
conjunto ordenado B es una cota inferior
que pertenece a A. Si existe entonces, el
m´ınimo es u
´nico . . . . . . . . . . . . . . . . . . *, 143
M´
odulo de un complejo.
La longitud
→
−
del vector 0z en el plano complejo . 139
Monomorfismo. Morfismo inyectivo. 13
Monoton´ıa.
Propiedad de una funci´on de un conjunto ordenado a otro que consiste en que
x ≤ y ⇒ f (x) ≤ f (y) . . . . . . . . . . . . . . . . . 37
Morfismo. Es una funci´on f : A → B que
cumple que f (x ◦ y) = f (x) • f (y) donde
208
mor — ord
◦ es una operaci´
on definida en A y • es
una operaci´on definida en B . . . . . 10, 44
Morfismo de ´
algebras.
TL
que conmuta con el producto y preserva
el 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
Morfismo de anillos.
Funci´
on entre dos anillos que es morfismo para la suma y para el producto 12
Morfismo de campos.
Funci´
on entre dos campos que es morfismo para la suma y para el producto 12
Morfismo de espacios vectoriales.
Funci´
on f de un espacio vectorial a otro
sobre el mismo campo que es un morfismo de los grupos abelianos de vectores
y que cumple f (αa) = αf (a) para cualquier vector a y cualquier escalar α . 44
Morfismo de grupos.
Morfismo cuyo dominio y codominios son
grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11, 93
Multiplicidad de una ra´ız.
El elemento del campo α es una ra´ız de
multiplicidad n del polinomio p si n es el
mayor natural tal que p ` (x − α)n . 133
M´
ultiplo.
Para dos polinomios p y q se
dice que p es un m´
ultiplo de q si ∃c tal
que p = cq . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
n-ada.
Elemento (a1 , a2 , ..., an ) del
producto cartesiano An . . . . . . . . . . . . . . 29
N-ada.
Funci´
on en una notaci´on
diferente, αN : N 3 i → αi ∈ A. A N se
le llama el conjunto de ´ındices y a las αi
se le llaman coordenadas. . . . . . . . . 31, 76
Neutro.
De una operaci´
on
binaria ◦ es un elemento e que cumple
que a ◦ e = e ◦ a = a para cualquier a
del conjunto en el cual est´
a definida la
operaci´
on. Si una operaci´
on tiene neutro
entonces este es u
´nico . . . . . . . . . . . . . . . . . . 4
N´
ucleo de un morfismo.
El
el caso de grupos la preimagen del neutro. Para anillos y espacios vectoriales la
preimagen del cero . . . . . . . . . . . . . . . . . . . 83
N´
ucleo de un polinomio.
La colecci´
on de sus raices. Cada ra´ız
aparece tantas veces como su multiplicidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
N´
ucleo de una matriz.
El n´
ucleo
de su transformaci´on lineal. El conjunto soluci´
on de un sistema de ecuaciones
con vector de coeficientes libres igual a
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
N´
ucleo de una TL.
La preimagen del
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
N´
ucleo trivial.
N´
ucleo igual a {0} . . 83
OL.
Acr´
onimo de operador lineal . . . 70
Operaci´
on binaria.
Funci´
on mediante la cual para cualesquiera dos elementos a y b de un conjunto A podemos encontrar otro elemento de A que es el resultado de la operaci´
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Operador c´ıclico. OL h tal que todo el
espacio es h-c´ıclico . . . . . . . . . . . . . . . . . . 163
Operador diagonalizable.
OL tal
que existe una base en la cual su matriz
es diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
Operador irreducible.
OL
que no se puede decomponer como suma
directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
Operador lineal. Transformaci´on lineal
de un espacio en si mismo . . . . . . . . . . . 70
Operador radical.
OL cuyo polinomio
m´ınimo (o caracter´ıstico) es potencia de
un polinomio irreducible . . . . . . . . . . . . 160
Operador singular. OL no biyectivo 71
Operador triangulable.
OL tal
que existe una base ordenada en la cual
su matriz es triangular . . . . . . . . . . . . . . 178
Opuesto.
El inverso de un elemento de
un anillo o campo respecto a la suma . 7
´
Orbita
de una permutaci´
on.
Clase
de equivalencia de la relaci´
on (a ∼ b) ⇔
(a = σn (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Orden de un ciclo.
El n´
umero de
elementos que un ciclo no deja fijos . 94
Orden de una matriz.
El n´
umero de renglones y columnas de
per — rec
una matriz cuadrada . . . . . . . . . . . . . . . . 105
Per´ıodo de un conjunto de vectores.
El generador del anulador del conjunto
de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
Per´ıodo de un vector.
El polinomio m´
onico p m´
as peque˜
no tal
que ph (a) = 0. El generador del anulador del vector. . . . . . . . . . . . . . . . . . . . . . . . 156
Permutaci´
on. Biyecci´
on de un conjunto
finito en si mismo . . . . . . . . . . . . . . . . . . . . 93
Permutaci´
on impar.
Permutaci´
on
que se descompone en la composici´
on de
un n´
umero impar de transposiciones 97
Permutaci´
on par.
Permutaci´
on
que se descompone en la composici´
on de
un n´
umero par de transposiciones . . . 97
Plano.
Subespacio
af´ın
de
dimensi´
on
dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55, 35
Polinomio.
Expresi´
on formal
Pn
i donde los coeficientes a son
a
x
i
i=0 i
elementos de un campo . . . . . . . . . . . . . 129
Polinomio caracter´ıstico.
El polinomio det (xI − h). Es un m´
ultiplo del
polinomio m´ınimo y tiene los mismos factores irreducibles que el polinomio m´ınimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
Polinomio irreducible.
Polinomio
m´onico de grado al menos 1 sin factores
propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Polinomio m´ınimo.
El
polinomio m´
onico m´
as peque˜
no que anula un OL. El generador del anulador del
operador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Polinomio m´
onico.
Polinomio cuyo
coeficiente principal es 1 . . . . . . . . . . . . 135
Preimagen de un elemento.
Sea b
un elemento del codominio de f. La preimagen de b es el conjunto de todos x en
dominio tales que f (x) = b . . . . . . . *, 83
Producto de matrices.
Si αMN y βNL son dos matrices entonces γML = αMN βN,L es la matriz
cuyas entradas son los productos esca-
209
lares can´
onicos γij = αiN βNj de los
renglones de αMN por las columnas de
βNL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76, 101
Producto de un escalar por una funci´
on.
Si en el codominio de f est´
a definido un
producto por escalares entonces λf es la
funci´on tal que (λf) (a) = f (λa) . . . . 68
Producto de un vector por una matriz.
Es la combinaci´
on lineal de los renglones
de la matriz cuyos coeficientes son las
coordenadas del vector . . . . . . . . . . . . . . . 76
Producto de una matriz por un vector.
Es la combinaci´
on lineal de las columnas
de la matriz cuyos coeficientes son las
coordenadas del vector . . . . . . . . . . . . . . . 76
Producto escalar.
Producto
bilineal de dos vectores cuyo resultado es
un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Producto escalar can´
onico.
ProductoP
escalar definido en K{N} como:
αN βN = i∈N αi βi . . . . . . . . . . . . . . . . . . 75
Proyecci´
on.
Si C = A × B entonces,
la funci´on f : c = (a, b) 7→ a se le llama proyecci´
on de C a A a lo largo de B.
En particular, nosotros la usamos en el
caso de que E = F ⊕ G (¡la suma directa
es un producto cartesiano!). En este caso
las proyecciones son TLs . . . . . . . . . 67, 83
Punto.
Subespacio af´ın de dimensi´
on
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Ra´ız de un polinomio.
Elemento del campo en el cual la funci´
on
de evaluaci´
on del polinomio toma valor
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Rango de una matriz. El orden de sus
bases.
La dimensi´on de su espacio de columnas.
La dimensi´on de su espacio de renglones.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Recta.
Subespacio
af´ın
de
dimensi´
on
uno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55, 35
Regla del tablero de ajedrez.
210
reg — suc
Regla mediante la cual se hallan los signos de los cofactores de una matriz en
forma gr´afica. El signo del cofactor de
αij es (−1)i+j . . . . . . . . . . . . . . . . . . . . . . . . 108
Relaci´
on antisim´
etrica.
Si a ≈ b y b ≈ a entonces, a = b . . . . . *
Relaci´
on de equivalencia.
Relaci´
on
sim´etrica, reflexiva y transitiva . . . *, 55
Relaci´
on de orden.
Relaci´
on antisim´etrica, reflexiva y transitiva . . . . . . . . . . . . . . . . . . . . . . . . . *, 61, 118
Relaci´
on en un conjunto. Subconjunto
del producto cartesiano A × A = A2 . . *
Relaci´
on reflexiva.
Para todo a se tiene a ≈ a . . . . . . . . . . . . *
Relaci´
on sim´
etrica.
(a ≈ b) ⇒ (b ≈ a) . . . . . . . . . . . . . . . . . . . . . *
Relaci´
on transitiva.
Si a ≈ b y b ≈ c entonces, b ≈ a. . . . . . *
Rengl´
on de una matriz.
Dada
una matriz αNM e i ∈ N a la M-ada αiM
(i est´
a fijo, los elementos de M var´ıan)
se le llama i-´esimo rengl´
on de la matriz
αNM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33, 76
Resto.
Al efectuar la divisi´
on con resto de un elemento p de un
anillo conmutativo (Z, K [x]) entre otro
q obtenemos la igualdad p = cq + r. Al
elemento r se le llama resto de la divisi´
on
de p entre q . . . . . . . . . . . . . . . . . . . . 131, 14
Restricci´
on de una funci´
on.
0
Una funci´on f : A → B se le llama restricci´
on de g : A → B si A0 ⊆ A y para cualquier a ∈ A0 se cumple f (a) =
g (a) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Serie.
Expresi´on formal del tipo
P∞
i
i=0 ai x . A los elementos del campo ai
se le llaman coeficientes de la serie . . 30
Signo de una permutaci´
on.
Funci´
on que a cada permutaci´
on le hace
corresponder 1 si esta es par y −1 si esta
es impar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Sistema de ecuaciones lineales.
Ecuaci´
on Ax = b donde la matriz A y
el vector b son conocidos y el vector x es
inc´
ognito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Sub´
algebra.
Subespacio vectorial que
contiene al 1 y en el cual el producto es
interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
Subanillo. Subconjunto de un anillo que
es un anillo para las mismas operaciones
del anillo m´
as grande . . . . . . . . . . . . . . . . 17
Subcampo.
Subconjunto de un campo
que es un campo para las mismas operaciones del campo m´
as grande . . . . 17, 32
Subespacio. Subconjunto de un espacio
vectorial que es a su vez espacio vectorial
para las mismas operaciones que las de
todo el espacio. . . . . . . . . . 34, 48, 52, 83
Subespacio af´ın.
Traslaci´
on de un subespacio 54, 68, 86
Subespacio generado.
Cerradura
lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Subespacio h-c´ıclico.
Subespacio
h-generado por un solo vector . . . . . . 163
Subespacio h-generado. La h-cerradura
de un conjunto de vectores . . . . . . . . . 163
Subespacio invariante.
Subespacio
donde est´
a bien definida la restricci´on de
un OL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
Subespacio radical.
Subespacio
invariante en el cual el operador es radical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
Subespacios afines paralelos.
Dos subespacios afines son paralelos si
uno es traslaci´
on del otro . . . . . . . . . . . . 55
Subespacios complementarios.
Dos subespacios cuya suma es todo el
espacio y cuya intersecci´
on es el origen . . . . . . . . . . . . . . . . . . 52, 54, 56, 67, 83
Subgrupo. Subconjunto de un grupo que
es un grupo para la misma operaci´
on del
grupo m´as grande . . . . . . . . . . . . . . . . . . . . 17
Submatriz.
Dada una matriz
αNM a cualquier matriz αN 0 M 0 tal que
N0 ⊆ N y M0 ⊆ M se le llama submatriz
de αNM . . . . . . . . . . . . . . . . . . . . . . . . . 33, 118
Sucesi´
on. Elemento (a0 , a1 , ..., an , ...) del
suc — vec
conjunto AN de funciones f : N → A 30
Sucesi´
on acotada.
La sucesi´on {zk } es acotada si existe un
real M tal que ∀k kzk k ≤ M. . . . . . . . 142
Sucesi´
on convergente.
Una sucesi´on que tiene l´ımite . . . . . . . 142
Suma de conjuntos.
Si A y B son conjuntos y entre sus elementos hay una operaci´on de suma entonces:
A + B = {a + b | a ∈ A y b ∈ B} . . . . . 49
Suma de funciones.
Si en el
codominio mutuo de f y g est´
a definida
una suma entonces f + g es la funci´on tal
que (λ + g) (a) = f (a) + g (a). . . . . . . 69
Suma directa de espacios. El producto
cartesiano de los subespacios con la suma definida por coordenadas y tambi´en
el producto por escalares. Si la intersecci´
on de dos subespacios tiene dimensi´
on
cero entonces, la suma directa de ellos es
can´
onicamente isomorfa a la suma . . 50
Suma directa de OL.
OL definido por coordenadas en la suma
directa de espacios . . . . . . . . . . . . . . . . . . 149
Supremo.
El m´ınimo de las cotas
inferiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *
Tensor de exponente n.
Un conjunto
indexado por n conjuntos de ´ındices 34
Tipo de una descomposici´
on.
Si h = f1 ⊕ · · · ⊕ fn es una descomposici´
on de h entonces, su tipo es la sucesi´
on
de los polinomios m´ınimos de f1 , . . . , fn .
Dos tipos son iguales si uno se puede obtener del otro reordenando la sucesi´on.
En el tipo pueden haber polinomios iguales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
TL.
Acr´
onimo de transformaci´
on
lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Transformaci´
on elemental. Una transformaci´on elemental de los renglones de
una matriz consiste en sumarle a un re-
211
gl´
on otro multiplicado por un escalar.
An´alogamente se definen las transformaciones elementales de las columnas . 124
Transformaci´
on lineal.
Morfismo de
espacios vectoriales . . . . . . . . . . 44, 65, 72
Transformaci´
on lineal de una matriz.
Dada la matriz αMN es la funci´on:
KN 3 βN → αMN βN ∈ KM . . . . . . . . . . 77
Transformaci´
on semilineal. Funci´
on de
un espacio vectorial a otro que es morfismo para la suma y que cumple que
¯ (x) para cierto automorfismo
f (λx) = λf
¯
λ 7→ λ del campo de escalares. . . . . . . . 86
Transposici´
on. Ciclo de orden dos. . 96
Transpuesta.
Matriz que se obtiene de otra intercambiando los sub´ındices de sus entradas, o
sea si A = αNM y AT = B = βMN entonces αij = βji . . . . . . . . . . . . . . . . . . . . . . 100
Traslaci´
on de un conjunto de vectores.
Si A es un conjunto de vectores y x otro
vector entonces A + x es la traslaci´
on de
A con el vector x . . . . . . . . . . . . . . . . . . . . . 54
Valor propio. Escalar tal que para cierto
vector propio a se tiene que h (a) = λa.
Ra´ız del polinomio caracter´ıstico . . . 174
Vector.
Elemento de un espacio vectorial. En Rn
son los segmentos dirigidos del origen a
un punto del espacio . . . . . . . . . . . . . 28, 28
Vector columna.
Matriz con una sola columna . . . . . . . . 76
Vector de coeficientes libres.
El vector b del sistema de ecuaciones lineales
Ax = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Vector propio. Vector a tal que la recta
hai es invariante . . . . . . . . . . . . . . . . . . . . . 174
Vector rengl´
on.
Matriz con un solo rengl´
on . . . . . . . . . . 76
212
∀
∃
∃!
P⇒Q
Para todo.
Existe.
Existe y es u
´nico.
Si P entonces Q.
P implica Q.
P es suficiente para Q.
P ⇐ Q P solo si Q.
P es necesario para Q.
P ⇔ Q P si y solo si Q.
P y Q son equivalentes.
P es necesario y suficiente para
Q.
b∈B
B3b
A⊆B
A⊇B
AÃB
b pertenece a B.
B contiene a b.
A es subconjunto de B.
A es sobreconjunto de B.
A es subconjunto propio de B.
O sea, A ⊆ B y A 6= B.
A ! B A es sobreconjunto propio de B.
O sea, A ⊇ B y A 6= B.
A∪B
La uni´on de A y B.
A∩B
La intersecci´on de A y B.
A\B
La resta de conjuntos. El conjunto de los elementos de A que no
pertenecen a B.
A×B El producto cartesiano de dos
conjuntos. El conjunto de todas
las parejas (a, b) con a ∈ A y
b ∈ B.
A
2
El conjunto de todos los subconjuntos del conjunto A. El conjunto de todas las funciones
f : A → {0, 1}.
An
El producto cartesiano de A consigo mismo n veces. El conjunto
AN
0
0
1
−1
INN
I
O
ℵ0
K
Kn
KN
K [x]
K [[x]]
K (x)
N
Z
Zn
de todos las n-adas (a1 , . . . , an )
donde todos los ai est´an en A.
El conjunto de todas las funciones f : N → A. El conjunto
de todos las N-adas aN donde
∀i ∈ N el elemento ai pertenece
a A. Si N = {1, . . . , n} entonces
AN = An .
El vector cero. El origen de coordenadas.
Cero es elemento neutro para la
suma de un anillo o campo.
Uno es el elemento neutro para
el producto de un anillo o campo.
Menos uno es el opuesto de 1 en
un anillo o campo.
Matriz identidad.
La funci´on identidad. La permutaci´on identidad
La funci´on nula. La matriz nula
El cardinal de N.
Un campo arbitrario.
El espacio de las n-adas.
El espacio de las N-adas.
El ´algebra de polinomios en la
variable x con coeficientes en K.
El ´algebra de series en la variable
x con coeficientes en K.
El campo de funciones racionales
en x con coeficientes en K.
El conjunto de los naturales.
El anillo de los enteros.
El anillo de restos m´odulo n.
Para n primo Zn es un campo.
214
Q
R
C
SN
AN
A−
N
Notaciones
El campo de los racionales.
El campo de los reales.
El campo de los complejos.
El grupo sim´etrico de N.
El grupo alternante de N.
Las permutaciones impares de
N.
f:A→B
Una funci´on que tiene dominio
A y codominio B.
f : A 3 a 7→ f (a) ∈ B
Usada para denotar funciones
concretas por ejemplo,
f : R 3 a 7→ a2 ∈ R+
es la funci´on con dominio R y
codominio R+ que a cada real le
hace corresponder su cuadrado.
p mod q El resto de la divisi´on de p entre q. Est´a bien definido en cualquier anillo con divisi´on. Por
ejemplo, en los n´
umeros enteros
y en los polinomios con coeficientes en un campo.
n!
El factorial del natural n. Se define como n! = 1 × 2 × · · · × n.
|A|
El cardinal del conjunto A. Puede ser finito o infinito.
kzk
El m´odulo del n´
umero complejo
z.
hNi
La cerradura lineal de N. El conjunto de todas las combinaciones
lineales de N.
l´ım zk
dim E
sgn π
det A
Im f
ker f
El l´ımite de la sucesi´on {zk }.
La dimensi´on de E.
El signo de la permutaci´on π.
El determinante de la matriz A.
La im´agen de la funci´on f.
El nucleo del morfismo f.
A+B
λA
A+x
E⊕F
αMN
αij
αiN
αMj
αMω(N)
αω(M)N
α∗ij
A∗
AT
(A|b)
La suma de dos conjuntos de
vectores.
El producto de un escalar por un
conjunto de vectores.
El conjunto de vectores A trasladado mediante el vector x. Si
A es un subespacio entonces, es
un subespacio af´ın.
La suma directa de dos espacios.
Si E y F son subespacios que se
intersectan solo en el origen entonces es can´onicamente isomorfa a la suma de E y F.
Una matriz cuyos renglones
est´an indexados por M y cuyas
columnas est´an indexadas por
N.
La entrada αij de una matriz
αMN .
El i-´esimo rengl´on de la matriz
αNM .
La j-´esima columna de la matriz
αNM .
Si ω es una permutaci´on de N,
es la matriz αMN cuyas columnas est´an permutadas mediante
ω. Si ω : N → L es una biyecci´on, es la matriz cuyas columnas est´an indexadas por L mediante el cambio de ´ındices ω.
Lo mismo que el anterior pero
para los renglones
El cofactor de la entrada αij de
una matriz cuadrada.
La matriz de cofactores de A.
La matriz transpuesta de A.
La matriz ampliada del sistema
Ax = b.
Notaciones
215
216
Notaciones
Alfabeto g´otico
A B C D E F G H I J K L M
A B C D E F G H I J K L M
N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z
a b c d e f g h i j k l m
a b c d e f g h i j k l m
n o p q r s t u v w x y z
n o p q r s t u v w x y z
Alfabeto caligr´afico
A B C D E F
A B C D E F
G H
G H
I J K L M
I J K L M
N O P Q R S T U V W X Y Z
N O P Q R S T U V W X Y Z
Alfabeto griego
A
B
Γ
∆
E
Z
H
Θ
I
α
β
γ
δ
²ε
ζ
η θϑ
ι
alfa beta gamma delta ´epsilon zeta eta zita iota
K
Λ
M N Ξ
O
Π P
Σ
κκ
λ
μ
ν ξ
o
π ρ
σ
kappa lamda mu nu xi ´omicron pi ro sigma
T
Υ
Φ
X
Ψ
Ω
τ
υ
φϕ χ
ψ
ω
tau u
´psilon
fi
chi psi omega
Cap´ıtulo 1
1. Defina los siguientes conceptos:
• Operaci´
on binaria.
• Propiedad conmutativa.
• Propiedad asociativa.
• Propiedad distributiva.
• Elemento neutro.
• Elemento inverso.
2. En cualquier campo 0x = 0.
3. Defina los siguientes conceptos:
• Grupo y grupo abeliano.
• Anillo y anillo conmutativo.
• Campo.
4. Defina los morfismos.
5. Los morfismos preservan las operaciones
binarias.
6. Los morfismos preservan la conmutatividad.
7. Los morfismos preservan la asociatividad.
8. Los morfismos preservan el neutro.
9. Los morfismos preservan el inverso.
10. Los morfismos preservan la distributividad.
11. La inversa de un isomorfismo es un isomorfismo.
12. Defina la suma y el producto en Zn .
13. (Zn , +, •) es un anillo conmutativo.
14. Todo campo es un dominio de integridad.
15. Zn es un dominio de integridad si y solo
si n es primo.
16. Todo dominio de integridad finito es un
campo.
17. Definici´on de subcampo.
18. Definici´on de campo primo
19. Todo campo K contiene un u
´nico subcampo primo que est´a contenido en cualquier subcampo de K.
20. Q es un campo primo.
21. Los campos Zp son primos.
22. Teorema de Clasificaci´
on de Campos Primos.
23. Defina la caracter´ıstica de un campo.
24. En un campo de caracter´ıstica t para
cualquier elemento x se cumple que tx =
0.
25. Demuestre la f´
ormula del binomio de
Newton en base a la f´ormula multinomial.
Cap´ıtulo 2
1. Definici´
on de espacio vectorial.
2. ¿Que es una n-ada? ¿Que es una N-ada?
¿Cual es su conjunto de ´ındices? ¿ Que
son sus coordenadas?
3. ¿Que es una NM-matriz? ¿Que es una
entrada, rengl´
on, columna?
4. Definici´
on de subespacio.
5. Los subespacios son los conjuntos cerrados para la suma y el producto por escalares.
6. La uni´
on de subespacios no es un subespacio.
7. La intersecci´
on de subespacios es un subespacio.
8. Definici´
on de combinaci´on lineal y sus
coeficientes.
9. El conjunto de todas las combinaciones
lineales de un conjunto de vectores es un
subespacio.
10. Los siguientes tres conjuntos de vectores
coinciden:
218
Gu´ıa de estudio
• El conjunto de todas las combinaciones lineales de N.
• La intersecci´
on de todos los subespacios que contienen a N.
• El subespacio m´as peque˜
no que contiene a N.
11. Propiedades b´
asicas de la cerradura lineal:
• incremento,
• monoton´ıa,
• idempotencia.
12. Todo sobreconjunto de un conjunto generador es generador.
13. Teorema de caracterizaci´
on de conjuntos
LI.
14. Todo subconjunto de un conjunto LI es
LI.
15. Lema de aumento de un conjunto LI.
16. Teorema de caracterizaci´
on de bases.
17. Teorema de existencia de bases.
18. Propiedad del cambio de las bases.
19. Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.
20. Si E es un subespacio de F y dim E =
dim F < ∞ entonces, E = F.
21. Describa las bases can´
onicas de los espa{N}
y K [x].
cios vectoriales K
22. La inversa de un isomorfismo lineal es un
isomorfismo lineal.
23. Un isomorfismo transforma conjuntos LI
en conjuntos LI, conjuntos generadores
en conjuntos generadores y bases en bases.
24. Describa el isomorfismo de coordinatizaci´
on en una base.
25. Dos espacios vectoriales sobre un mismo
campo son isomorfos si y solo si tienen
la misma dimensi´
on.
26. Todo espacio vectorial finito dimensional
es isomorfo a Kn .
27. El n´
umero de elementos en un campo finito es potencia de un n´
umero primo.
28. hE ∪ Fi = {a + b | a ∈ E, b ∈ F}
29. La igualdad modular (incluye la demos-
traci´
on del lema).
30. Si E y F son subespacios tales que E∩F =
{0} entonces la funci´
on
E ⊕ F 3 (a, b) 7→ a + b ∈ E + F
es un isomorfismo de espacios vectoriales.
31. Que es un isomorfismo can´
onico. Demuestre que E ⊕ F y F ⊕ E son can´onicamente isomorfos.
32. Todo subespacio tiene complementario.
33. Si E y F son dos subespacios complementarios entonces cada vector x se expresa
de forma u
´nica como x = a + b donde
a ∈ E y b ∈ F.
34. Defina los subespacios afines.
35. ¿Que es el paralelismo de subespacios afines?
36. Todo subespacio af´ın es paralelo a un solo subespacio vectorial.
37. Dos diferentes subespacios afines paralelos no se intersectan
38. ¿Que es el espacio cociente? ¿Cuales son
sus operaciones?
39. Cualquier subespacio complementario a
E intersecta al subespacio af´ın (E + x) en
un solo punto.
40. D/E es can´onicamente isomorfo a cualquier complementario de E.
Cap´ıtulo 3
1. Definici´
on de transformaci´on lineal.
2. Toda TL transforma subespacios en subespacios.
3. Toda TL de un espacio de dimensi´on 1
es una homotecia.
4. Definici´
on de proyecci´
on. Toda proyecci´
on es una TL.
5. El producto de un escalar por una TL es
una TL.
6. La suma de dos TLs es una TL.
7. La composici´on de TLs es una TL.
8. Propiedades de la composici´
on de TLs:
asociatividad, distributividad y conmutatividad con el producto por escalares.
Gu´ıa de estudio
´
9. Definici´on de Algebra.
De tres ejemplos
de a´lgebras. ¿Que es el grupo general lineal?
10. Las extensiones lineales son TLs.
11. Las TLs est´an predeterminadas por sus
valores en una base.
12. Si N es una base de E entonces, la funci´
on que a cada TL h ∈ Hom (E, F) le hace corresponder su restricci´
on hN ∈ FN
es un isomorfismo de espacios vectoriales.
13. Una TL es un isomorfismo si y solo si su
restricci´
on a una base es inyectiva y la
imagen de esta restricci´
on es una base.
14. Propiedades del producto escalar can´onico de N-adas conmutatividad, distributividad y conmutatividad con el producto
por escalares.
15. Definici´on del producto de matrices.
16. ¿Cual es la TL definida por una matriz?.
¿Cual es la matriz de una TL?
17. La matriz de la composici´on de dos TLs
es igual al producto de las matrices de
las TLs.
18. Defina las matrices de cambio de base.
19. La N-ada de las coordenadas de un vector en la base nueva se obtiene multiplicando la matriz de cambio de base por la
V-ada de las coordenadas del vector en
la base vieja.
20. Sea f : E → F una TL. Sean B y C matrices de cambio de base en E y F respectivamente. Si A es la matriz de f en las
bases viejas entonces CAB−1 es la matriz
de f en las bases nuevas.
21. Definici´on de n´
ucleo e im´
agen de una TL.
22. La im´agen y el n´
ucleo son subespacios.
23. Una TL es injectiva si y solo si su n´
ucleo
es trivial.
24. Si K es un subespacio complementario a
ker f entonces, la restricci´
on de f a K es
inyectiva.
25. Sean E y F dos espacios tales que
dim E = dim F < ∞. Una TL de E a
219
F es inyectiva si y solo si es sobreyectiva.
26. Los subespacios afines paralelos a ker f
son precisamente los conjuntos de vectores en que la TL f es constante.
Cap´ıtulo 4
1. Si |M| = |N| entonces, los grupos sim´etricos SM y SN son isomorfos.
2. El n´
umero de permutaciones de un conjunto con n elementos es n!.
3. Que son las o´rbitas de una permutaci´on.
4. La restricci´on de una permutaci´on a una
orbita es un ciclo.
´
5. Definici´
on de permutaciones pares e impares. Definici´on del signo.
6. La composici´on de una permutaci´on con
una transposici´
on cambia la paridad de
la permutaci´on.
7. Toda permutaci´on es composici´
on de
transposiciones.
8. Pruebe que sgn (π ◦ ρ) = sgn π sgn ρ y
que sgn π−1 = sgn π.
9. Definici´
on de determinante de una matriz. Regla del tri´
angulo para los determinantes de orden 3.
10. El determinante de la matriz identidad
es 1.
11. Si una matriz tiene una columna o un
rengl´on nulo entonces, su determinante
es cero.
12. El determinante no se altera al transponer una matriz.
13. Si una matriz tiene dos renglones iguales
entonces, su determinante es cero.
14. Si φ y ϕ son dos cambios de ´ındices de
N en M entonces, se cumple la igualdad:
det αMφ(N) =
¢
¡
−1
det αMϕ(N) .
sgn φ ◦ ϕ
15. Definici´
on de matriz no singular.
16. Definici´
on de cofactores de una entrada
de una matriz. Pruebe que los cofactores
no dependen del cambio de ´ındices usado
para calcular el determinante.
17. Teorema de expansi´
on de Laplace.
Gu´ıa de estudio
220
18. Definici´on de funcional multilineal
19. El determinante es un funcional multilineal de los renglones.
20. det A−1 = (det A)−1 .
21. A−1 = A∗T / det A.
22. El determinante de un OL no depende
de la base que se use para calcularlo.
23. Enuncie la expansi´on generalizada de Laplace
24. El determinante de una matriz triangular por bloques es igual al producto de
los determinantes de sus bloques.
25. Enuncie la caracterizaci´
on de matrices
no singulares.
26. Lema de aumento de submatrices no singulares.
27. Si αIJ es una base de una matriz αMN
entonces el conjunto de renglones indexado por I es una base del espacio de
renglones de αMN .
28. Enuncie el Teorema del rango.
29. Regla de Cramer.
30. Teorema de existencia de soluciones.
31. Lema de eliminaci´
on de ecuaciones dependientes.
32. Describa el procedimiento general de soluci´
on de los sistemas de ecuaciones lineales.
33. Las transformaciones elementales no
cambian los determinantes.
34. Las transformaciones elementales de los
renglones de la matriz ampliada no cambian el subespacio af´ın soluci´
on de un sistema de ecuaciones lineales.
35. Resuelva un sistema de ecuaciones lineales por el m´etodo de Gauss.
36. Encuentre la inversa de una matriz por
el m´etodo de eliminaci´on de Gauss
Cap´ıtulo 5
1. Defina los polinomios sobre un campo,
sus coeficientes, el grado y el coeficiente
principal.
2. Defina la suma y el producto de polino-
mios.
3. Defina la funci´on de evaluaci´on de un polinomio.
4. Un polinomio de grado n est´a predeterminado por su evaluaci´on en n + 1 diferentes elementos del campo.
5. Divisi´
on con resto de polinomios.
6. Defina los divisores, los m´
ultiplos y los
factores de un polinomio.
7. Si p a q y q a p entonces existe un elemento del campo α tal que p = αq.
8. Defina los divisores, los m´
ultiplos y los
factores de un polinomio.
9. Defina las raices de un polinomio.
10. Para que b sea una ra´ız de p es necesario
y suficiente que (x − b) sea un factor de
p.
11. Un polinomio de grado n tiene a lo m´as
n raices.
12. Defina los ideales de un anillo y los ideales principales.
13. Todo ideal de polinomios es principal.
14. Teorema de Bezout.
15. Defina factores propios, polinomios
m´
onicos, factores irreducibles.
16. Si p y q son dos polinomios y r es un
factor irreducible de pq entonces r es un
factor de p o de q.
17. Sea p = αp1 · · · pn una descomposici´on
en factores irreducibles de p. Si q es cualquier factor irreducible de p entonces, q
es igual a alguno de los pi .
18. Teorema de Factorizaci´
on de Polinomios.
19. Desarrollo de Taylor.
20. Enuncie el Teorema de Gauss.
21. Usando el Teorema de Gauss demuestre
la clasificaci´
on de los polinomios complejos irreducibles.
22. Demuestre la clasificaci´
on de los polinomios reales irreducibles.
Cap´ıtulo 6
1. Defina la suma directa de operadores lineales.
Gu´ıa de estudio
2. Defina los subespacios inveriantes de un
operador lineal.
3. Un OL se descompone como suma directa de dos OLs si y solo si ´el tiene dos subespacios invariantes complementarios.
4. Defina los operadores lineales irreducibles.
5. Demuestre que todo operador lineal se
descompone en suma de irreducibles.
6. Demuestre que si un operador lineal se
descompone en suma directa de otros dos
entonces, en cierta base su matriz es diagonal por bloques.
7. Defina la funci´on de evaluaci´
on de un polinomio en un operador lineal.
8. La funci´on de evaluaci´
on de polinomios
en un operador lineal es un morfismo de
´algebras.
9. La imagen de la funci´on de evaluaci´on de
polinomios es una sub´algebra conmutativa del a´lgebra de operadores lineales.
10. El n´
ucleo del morfismo de evaluaci´on en
h es un ideal de K [x].
11. Defina el polinomio m´ınimo de un operador lineal.
12. Defina el anulador de un conjunto de vectores.
13. Defina el h-per´ıodo de un conjunto de
vectores.
14. El h-anulador de A es el conjunto de los
m´
ultiplos comunes a los per´ıodos de los
vectores en A.
15. Si h = f ⊕ g entonces el polinomio m´ınimo de h es igual al m´ınimo com´
un m´
ultiplo de los polinomios m´ınimos de f y g.
16. Monoton´ıa del per´ıodo.
17. Invariancia de los n´
ucleos.
18. Monoton´ıa de los n´
ucleos.
19. Lema de Descomposici´
on de N´
ucleos.
20. Si h es irreducible entonces, es radical.
21. Enuncie el Teorema de Descomposici´
on
en Componentes Radicales (sin demostraci´on).
22. Para cualquier operador lineal h existe
221
un vector tal que su per´ıodo es igual al
polinomio m´ınimo de h.
23. Definici´
on de h-combinaci´
on y sus coeficientes.
24. El conjunto de todas las hcombinaciones de V es un subespacio
invariante.
25. Definici´
on de subespacio h-generado y
conjunto de vectores h-generador.
26. perh hVih = perh V.
27. Definici´
on de subespacio h-c´ıclico y de
operador c´ıclico.
28. Si q es un polinomio coprimo con perh a
entonces haih = hqh (a)ih .
29. Si el per´ıodo de a es de grado
n,
conjunto
de vectores
© entonces eln−1
ª
a, h (a) , . . . , h
(a) es una base de
haih .
30. Definici´
on de conjunto h-independiente.
31. Si V = {v1 , . . . , vn } es h-independiente
entonces hVih = hv1 ih ⊕ · · · ⊕ hvn ih .
32. Definici´
on de h-base.
33. El conjunto EndF (E) de todos los operadores lineales que dejan invariante F es
una sub´algebra de End (E).
e ∈
34. La funci´
on EndF (E) 3 h 7→ h
End (E/F) es un morfismo de ´algebras.
fh = ph .
35. Pruebe que p
36. Si b ∈ v + F entonces perh (b) `
perh (v + F).
37. Lema del per´ıodo (sin demostraci´
on)
38. Lema del cociente.
39. Teorema de Existencia de h-bases.
40. Teorema de Descomposici´
on en Componentes Radicales C´ıclicas
41. Defina el tipo de una descomposici´
on.
42. Teorema de Unicidad del Tipo (sin demostraci´
on).
43. Teorema de Caracterizaci´
on de los OLs
irreducibles.
44. Definici´
on de vector propio y de valor
propio.
45. La recta hai es h-invariante si y solo si
a es un vector propio de h.
222
Gu´ıa de estudio
46. Definici´on de polinomio caracter´ıstico.
Cual es el grado del polinomio caracter´ıstico (sin demostraci´
on).
47. Demuestre que las raices del polinomio
caracter´ıstico son los valores propios.
48. Definici´on de matriz acompa˜
nante de un
polinomio.
49. Sea h un OL c´ıclico con polinomio m´ınimo p©de grado n. La matrizªde h en la
base a, h (a) , . . . , hn−1 (a) es la matriz acompa˜
nante de p.
50. Si h = f ⊕ g entonces, el polinomio caracter´ıstico de h es igual al producto de
los polinomios caracter´ısticos de f y g.
51. Teorema de Hamilton-Caley-Frobenius.
52. Definici´
on de celda de Jord´an.
53. Si h es un operador c´ıclico-radical con
polinomio m´ınimo (x − λ)n entonces, en
cierta base, la matriz de h es una celda
de Jordan.
54. Forma normal de Jord´an