Matriz cadrada
En matemáticas, unha matriz cadrada é unha matriz co mesmo número de filas e columnas. Chamamos matriz n-por-n a unha matriz cadrada de orde . Pódense sumar e multiplicar dúas matrices cadradas calquera da mesma orde.
As matrices cadradas utilízanse a miúdo para representar transformacións lineares simples, como a rotación. Por exemplo, se é unha matriz cadrada que representa unha rotación (matriz de rotación) e é un vector columna que describe a posición dun punto no espazo, o produto produce outro vector columna que describe a posición dese punto despois desa rotación. Se é un vector fila, a mesma transformación pódese obter usando , onde é a transposta de .
Diagonal principal
editarAs entradas ( i = 1, ..., n ) forman a diagonal principal dunha matriz cadrada. Por exemplo, a diagonal principal da matriz 4×4 da imaxe contén os elementos a11 = 9, a22 = 11, a33 = 4, a44 = 10.
A diagonal dunha matriz cadrada desde a esquina superior dereita ata a esquina inferior esquerda chámase antidiagonal ou contradiagonal.
Tipos especiais
editarMatriz diagonal, triangular e identidade
editarNome | Exemplo con n = 3 |
---|---|
Matriz diagonal | |
Matriz triangular inferior | |
Matriz triangular superior | |
Matriz identidade |
O termo matriz identidade refírese á propiedade da multiplicación matricial que para calquera matriz de dimensións .
Matriz invertible e a súa inversa
editarUnha matriz cadrada chámase invertible ou non singular se[1].[2] existe unha matriz tal que Se existe, é única e chámase matriz inversa de , denotado .
Matriz simétrica ou antisimétrica
editarUnha matriz cadrada que é igual á súa transposición, é dicir, , é unha matriz simétrica. Se en cambio , entón chámase matriz antisimétrica.
Para unha matriz cadrada complexa , moitas veces o análogo axeitado da transposición é a transposta conxugada , definido como a transposición do conxugado complexo de . Unha matriz cadrada complexa que satisfai chámase matriz hermitiana. Se temos , entón chámase matriz antisimétrica hermitiana.
Segundo o teorema espectral, as matrices reais simétricas (ou complexas hermitianas) teñen unha base propia ortogonal (ou unitaria); é dicir, cada vector é expresable como unha combinación linear de vectores propios (eigenvectores). En ambos os casos, todos os valores propios (eigenvalores) son reais.
Matriz ortogonal
editarUnha matriz ortogonal é unha matriz cadrada onde a súa transposta é igual á súa inversa: que implica onde I é a matriz identidade.
Unha matriz ortogonal A é necesariamente invertible (con inverso A−1 = AT), unitaria (A−1 = A*) e normal (A*A = AA*). O determinante de calquera matriz ortogonal é +1 ou -1. O grupo ortogonal especial consta das matrices n × n ortogonais co determinante +1.
O análogo complexo dunha matriz ortogonal é unha matriz unitaria.
Matriz normal
editarUnha matriz cadrada real ou complexa chámase normal se . Se unha matriz cadrada real é simétrica, antisimétrica ou ortogonal, entón é normal. Se unha matriz cadrada complexa é hermitiana, hermitiana antisimétrica ou unitaria, entón é normal.
Operacións
editarTraza
editarA traza, tr( A ) dunha matriz cadrada A é a suma das súas entradas diagonais. Aínda que a multiplicación de matrices non é conmutativa, a traza do produto de dúas matrices si é conmutativa: Ademais, a traza dunha matriz é igual ao da súa transposición, é dicir,
Determinante
editarO determinante ou dunha matriz cadrada é un número que contén certas propiedades da matriz. Unha matriz é invertible se e só se o seu determinante é distinto de cero. O seu valor absoluto é igual á área (en ) ou volume (en ) da imaxe do cadrado (ou cubo) da unidade, mentres que o seu signo corresponde á orientación do mapa linear correspondente: o determinante é positivo se e só se se conserva a orientación.
O determinante das matrices 2×2 vén dado por O determinante das matrices 3×3 implica 6 termos (regra de Sarrus). A fórmula de Leibniz xeneraliza estas dúas fórmulas a todas as dimensións.[3]
O determinante dun produto de matrices cadradas é igual ao produto dos seus determinantes, temos: Finalmente, a expansión de Laplace expresa o determinante en termos de menores, é dicir, determinantes de matrices máis pequenas. Os determinantes pódense usar para resolver sistemas lineares usando a regra de Cramer, onde a división dos determinantes de dúas matrices cadradas relacionadas equivale ao valor de cada unha das variables do sistema.
Eigenvalores e eigenvectores
editar- Artigo principal: Valor propio, vector propio e espazo propio.
Un número λ e un vector distinto de cero que satisfai chámanse eigenvalores e eigenvectores de , respectivamente. [4] O número λ é un eigenvalor dunha matriz n×n A se e só se A − λIn non é invertible, o que é equivalente a
Notas
editar- ↑ Brown 1991, Definition I.2.28.
- ↑ Brown 1991, Definition I.5.13.
- ↑ Brown 1991, Definition III.2.1.
- ↑ Eigen significa "propio" en alemán e en holandés.
Véxase tamén
editarBibliografía
editar- Brown, William C. (1991). Matrices and vector spaces. New York, NY: Marcel Dekker. ISBN 978-0-8247-8419-5.
- Horn, Roger A.; Johnson, Charles R. (1985). Matrix Analysis. Cambridge University Press. ISBN 978-0-521-38632-6.
- Mirsky, Leonid (1990). An Introduction to Linear Algebra. Courier Dover Publications. ISBN 978-0-486-66434-7.