Matriz invertible

Una interpretación espacial de una matriz invisible 3x3 es la de 3 planos secantes sólo en el origen. Las coordenadas de la matriz serían los coeficientes de las tres variables espaciales en una base dada.

En matemáticas, en particular en álgebra lineal, una matriz cuadrada de orden se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden , llamada matriz inversa de y denotada por si , donde es la matriz identidad de orden y el producto utilizado es el producto de matrices usual.

Una matriz cuadrada no invertible se dice que es singular o degenerada. Una matriz es singular si y sólo si su determinante es nulo. La matriz singular se caracteriza porque su multiplicación por la matriz columna es igual a cero para algún no nulo. El conjunto de estos vectores (y al subespacio vectorial formado por ellos) se llamará ker (de kernel, núcleo en alemán), para una matriz invertible ker es el vector nulo.

La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Ejemplos

[editar]

Matriz de dos filas (matriz adjunta)

[editar]

Dada una matriz de tamaño con determinante no nulo entonces

y esta está definida siempre y cuando con . Así por ejemplo la inversa de la matriz

ya que

Matriz de tres filas

[editar]

Dada una matriz de tamaño con determinante no nulo:


donde se definen

Propiedades de la Matriz Inversa

[editar]

Sea una matriz de rango máximo

  • La matriz inversa de es única.
  • Si y entonces la matriz inversa del producto es
  • Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir
  • Y, evidentemente:
  • Una matriz con coeficientes en los reales es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:

donde es el determinante de y es la matriz de adjuntos de , entendida como a la matriz de cofactores traspuesta. (Ver la explicación de la diferente manera de entender el término adjunto[1][2][3][4][5]​ en el artículo matriz de adjuntos).

  • El conjunto de matrices de con componentes sobre el cuerpo que admiten inversa, con el producto de matrices, tiene una estructura isomorfa al grupo lineal de orden . En este grupo la operación de inversa es un automorfismo .

Demostración de la unicidad de la inversa

[editar]

Supongamos que y son inversas de

Multiplicando ambas relaciones por

De modo que y se prueba que la inversa es única.

Demostración del criterio de invertibilidad de las matrices cuadradas

[editar]

Se probará la doble implicación.

Suficiencia

[editar]

Supongamos que existe tal que . Entonces al aplicar la función determinante se obtiene

Utilizando la propiedad multiplicativa del determinante y sabiendo que tenemos que

por lo que deducimos que es distinto de cero.

Necesidad

[editar]

Supongamos que el determinante de es distinto de cero. Sea el elemento ij de la matriz y sea la matriz sin la fila y la columna (comúnmente conocida como -ésimo menor de A). Entonces tenemos que

Además, si , entonces podemos deducir que

pues la parte izquierda de la relación es el determinante de con la columna sustituida por la columna y, de nuevo por propiedades del determinante, sabemos que una matriz con dos filas iguales tiene determinante cero.

De las dos ecuaciones anteriores podemos obtener

donde es la delta de Kronecker.

Por tanto, sabiendo que tenemos que

es decir, que tiene inversa por la izquierda

Como , entonces también tiene inversa por la izquierda que es

Entonces

luego, aplicando la transpuesta

que es lo que se quería demostrar.

Métodos de inversión de matrices

[editar]

Solución analítica

[editar]

Inversión de matrices 2×2

[editar]

Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:[6]

Esto es posible siempre y cuando , es decir, el determinante de la matriz no es cero.


Ejemplo numérico:

Inversión de matrices de órdenes superiores

[editar]

Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

Donde es el determinante de y es la matriz de adjuntos de .

Cuando la matriz tiene más de tres filas, esta fórmula es muy ineficiente y conduce a largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante más eficientes.

Métodos numéricos

[editar]

El método de eliminación de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposición LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho más fáciles de invertir. Utilizando el método de Gauss-Jordan se coloca a la izquierda la matriz dada y a la derecha la matriz identidad. Luego por medio del uso de pivotes se intenta formar en la izquierda la matriz identidad y la matriz que quede a la derecha será la matriz inversa a la dada.

Grupo lineal

[editar]

El conjunto de todas las matrices que admiten inversa es una representación lineal del grupo lineal de orden n, denotado como . Este grupo tiene importantes aplicaciones en álgebra y física. Además es un conjunto abierto (con la topología inducida de ).

Véase también

[editar]

Referencias

[editar]
  1. Apostol, Tom M. (2002). «3. Determinantes, 5. Autovalores de operadores en espacios euclídeos». Calculus vol. 2 (2ª edición). Barcelona: Reverté S.A. pp. 113,151. ISBN 84-291-5003-X. 
  2. Clapham, Christopher (2004). Diccionario de Matemáticas (1ª edición). Madrid: Editorial Complutense. pp. 3-4. ISBN 84-89784-56-6. 
  3. Castañeda Hernandez, Sebastián; Barrios Sarmiento, Agustín (2004). «3.6 Cofactores y Regla de Cramer». Notas de álgebra lineal (2ª edición). Barranquilla (colombia): Ediciones Uninorte. p. 193. ISBN 958-8133-89-0. 
  4. Díaz Martín, Jose Fernando (2005). «6. Determinantes». Introduccion Al Algebra (1ª edición). La coruña (España): NetBiblo. pp. 229-230,237-238. ISBN 84-9745-128-7. 
  5. Perelló, Miquel A. (2002). «4.3.3. Cálculo por determinantes de la matriz inversa». Álgebra lineal. Teoría y práctica. Barcelona: Edicions UPC. pp. 129,136. ISBN 8483016621. 
  6. Strang, Gilbert (2006). Linear Algebra and Its Applications. Thomson Brooks/Cole. pp. 46. ISBN 0-03-010567-6. 

Enlaces externos

[editar]