Encuentra la matriz inversa de orden 4. Algoritmo para calcular la matriz inversa mediante sumas algebraicas: el método de la matriz adjunta

💖 ¿Te gusta? Comparte el enlace con tus amigos.

Definición 1: una matriz se llama singular si su determinante es cero.

Definición 2: una matriz se llama no singular si su determinante no es igual a cero.

La matriz "A" se llama matriz inversa, si se cumple la condición A*A-1 = A-1 *A = E (matriz unitaria).

Una matriz cuadrada es invertible sólo si no es singular.

Esquema para calcular la matriz inversa:

1) Calcular el determinante de la matriz "A" si A = 0, entonces la matriz inversa no existe.

2) Encuentre todos los complementos algebraicos de la matriz "A".

3) Crear una matriz de sumas algebraicas (Aij)

4) Transponer la matriz de complementos algebraicos (Aij )T

5) Multiplica la matriz transpuesta por la inversa del determinante de esta matriz.

6) Realizar verificación:

A primera vista puede parecer complicado, pero en realidad todo es muy sencillo. Todas las soluciones se basan en operaciones aritméticas simples; lo principal a la hora de resolver es no confundirse con los signos “-” y “+” y no perderlos.

Ahora resolvamos juntos una tarea práctica calculando la matriz inversa.

Tarea: encuentre la matriz inversa "A" que se muestra en la siguiente imagen:

Resolvemos todo exactamente como se indica en el plan de cálculo de la matriz inversa.

1. Lo primero que hay que hacer es encontrar el determinante de la matriz "A":

Explicación:

Hemos simplificado nuestro determinante usando sus funciones básicas. Primero, sumamos a las líneas 2 y 3 los elementos de la primera línea, multiplicados por un número.

En segundo lugar, cambiamos la segunda y tercera columnas del determinante y, según sus propiedades, cambiamos el signo delante de él.

En tercer lugar, eliminamos el factor común (-1) de la segunda línea, cambiando así nuevamente el signo y se volvió positivo. También simplificamos la línea 3 de la misma manera que al principio del ejemplo.

Tenemos un determinante triangular cuyos elementos debajo de la diagonal son iguales a cero, y por la propiedad 7 es igual al producto de los elementos de la diagonal. Al final conseguimos A = 26, por lo tanto existe la matriz inversa.

A11 = 1*(3+1) = 4

A12 = -1*(9+2) = -11

A13 = 1*1 = 1

A21 = -1*(-6) = 6

A22 = 1*(3-0) = 3

A23 = -1*(1+4) = -5

A31 = 1*2 = 2

A32 = -1*(-1) = -1

A33 = 1+(1+6) = 7

3. El siguiente paso es compilar una matriz a partir de las adiciones resultantes:

5. Multiplica esta matriz por la inversa del determinante, es decir, por 1/26:

6. Ahora sólo nos falta comprobar:

Durante la prueba recibimos una matriz de identidad, por lo que la solución se realizó de forma absolutamente correcta.

2 formas de calcular la matriz inversa.

1. Transformación de matriz elemental

2. Matriz inversa a través de un convertidor elemental.

La transformación matricial elemental incluye:

1. Multiplicar una cadena por un número distinto de cero.

2. Sumar a cualquier línea otra línea multiplicada por un número.

3. Intercambia las filas de la matriz.

4. Aplicando una cadena de transformaciones elementales, obtenemos otra matriz.

A -1 = ?

1. (A|E) ~ (E|A -1 )

2.A -1 * A = mi

Veamos esto usando un ejemplo práctico con números reales.

Ejercicio: Encuentra la matriz inversa.

Solución:

Vamos a revisar:

Una pequeña aclaración sobre la solución:

Primero, reorganizamos las filas 1 y 2 de la matriz, luego multiplicamos la primera fila por (-1).

Después de eso, multiplicamos la primera fila por (-2) y la sumamos con la segunda fila de la matriz. Luego multiplicamos la línea 2 por 1/4.

La etapa final de la transformación fue multiplicar la segunda línea por 2 y sumarla con la primera. Como resultado, tenemos la matriz identidad a la izquierda, por lo tanto, la matriz inversa es la matriz de la derecha.

Después de comprobarlo, nos convencimos de que la decisión fue correcta.

Como puedes ver, calcular la matriz inversa es muy sencillo.

Al final de esta conferencia, también me gustaría dedicar un poco de tiempo a las propiedades de dicha matriz.

La matriz $A^(-1)$ se llama inversa de la matriz cuadrada $A$ si se cumple la condición $A^(-1)\cdot A=A\cdot A^(-1)=E$, donde $E $ es la matriz identidad, cuyo orden es igual al orden de la matriz $A$.

Una matriz no singular es una matriz cuyo determinante no es igual a cero. En consecuencia, una matriz singular es aquella cuyo determinante es igual a cero.

La matriz inversa $A^(-1)$ existe si y solo si la matriz $A$ no es singular. Si la matriz inversa $A^(-1)$ existe, entonces es única.

Hay varias formas de encontrar la inversa de una matriz y veremos dos de ellas. Esta página analizará el método de matriz adjunta, que se considera estándar en la mayoría de los cursos superiores de matemáticas. En la segunda parte se analiza el segundo método para encontrar la matriz inversa (el método de transformaciones elementales), que implica el uso del método de Gauss o el método de Gauss-Jordan.

Método de matriz adjunta

Sea la matriz $A_(n\times n)$. Para encontrar la matriz inversa $A^(-1)$, se requieren tres pasos:

  1. Encuentre el determinante de la matriz $A$ y asegúrese de que $\Delta A\neq 0$, es decir esa matriz A es no singular.
  2. Componga complementos algebraicos $A_(ij)$ de cada elemento de la matriz $A$ y escriba la matriz $A_(n\times n)^(*)=\left(A_(ij) \right)$ a partir del algebraico encontrado. complementos.
  3. Escribe la matriz inversa teniendo en cuenta la fórmula $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$.

La matriz $(A^(*))^T$ a menudo se denomina adjunta (recíproca, aliada) a la matriz $A$.

Si la solución se realiza manualmente, entonces el primer método es bueno solo para matrices de órdenes relativamente pequeños: segundo (), tercero (), cuarto (). Para encontrar la inversa de una matriz de orden superior, se utilizan otros métodos. Por ejemplo, el método gaussiano, que se analiza en la segunda parte.

Ejemplo No. 1

Encuentre la inversa de la matriz $A=\left(\begin(array) (cccc) 5 & -4 &1 & 0 \\ 12 &-11 &4 & 0 \\ -5 & 58 &4 & 0 \\ 3 & - 1 & -9 & 0 \end(array) \right)$.

Dado que todos los elementos de la cuarta columna son iguales a cero, entonces $\Delta A=0$ (es decir, la matriz $A$ es singular). Dado que $\Delta A=0$, no existe una matriz inversa a la matriz $A$.

Ejemplo No. 2

Encuentre la inversa de la matriz $A=\left(\begin(array) (cc) -5 & 7 \\ 9 & 8 \end(array)\right)$.

Usamos el método de matriz adjunta. Primero, encontremos el determinante de la matriz $A$ dada:

$$ \Delta A=\izquierda| \begin(array) (cc) -5 y 7\\ 9 y 8 \end(array)\right|=-5\cdot 8-7\cdot 9=-103. $$

Dado que $\Delta A \neq 0$, entonces existe la matriz inversa, por lo tanto continuaremos con la solución. Encontrar complementos algebraicos

\begin(alineado) & A_(11)=(-1)^2\cdot 8=8; \; A_(12)=(-1)^3\cdot 9=-9;\\ & A_(21)=(-1)^3\cdot 7=-7; \; A_(22)=(-1)^4\cdot (-5)=-5.\\ \end(alineado)

Componemos una matriz de sumas algebraicas: $A^(*)=\left(\begin(array) (cc) 8 & -9\\ -7 & -5 \end(array)\right)$.

Transponemos la matriz resultante: $(A^(*))^T=\left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right)$ (la La matriz resultante a menudo se denomina matriz adjunta o aliada de la matriz $A$). Usando la fórmula $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$, tenemos:

$$ A^(-1)=\frac(1)(-103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(array)\right) =\left(\begin(array) (cc) -8/103 y 7/103\\ 9/103 y 5/103 \end(array)\right) $$

Entonces, se encuentra la matriz inversa: $A^(-1)=\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \end(array )\derecha) $. Para comprobar la verdad del resultado, basta comprobar la verdad de una de las igualdades: $A^(-1)\cdot A=E$ o $A\cdot A^(-1)=E$. Comprobemos la igualdad $A^(-1)\cdot A=E$. Para trabajar menos con fracciones, sustituiremos la matriz $A^(-1)$ que no esté en la forma $\left(\begin(array) (cc) -8/103 & 7/103\\ 9/103 & 5/103 \ end(array)\right)$, y en la forma $-\frac(1)(103)\cdot \left(\begin(array) (cc) 8 & -7\\ -9 & -5 \end(matriz )\right)$:

Respuesta: $A^(-1)=\left(\begin(array) (cc) -8/103 y 7/103\\ 9/103 y 5/103 \end(array)\right)$.

Ejemplo No. 3

Encuentre la matriz inversa para la matriz $A=\left(\begin(array) (ccc) 1 & 7 & 3 \\ -4 & 9 & 4 \\ 0 & 3 & 2\end(array) \right)$ .

Comencemos calculando el determinante de la matriz $A$. Entonces, el determinante de la matriz $A$ es:

$$ \Delta A=\izquierda| \begin(array) (ccc) 1 y 7 y 3 \\ -4 y 9 y 4 \\ 0 y 3 y 2\end(array) \right| = 18-36+56-12=26. $$

Como $\Delta A\neq 0$, entonces existe la matriz inversa, por lo tanto continuaremos con la solución. Encontramos los complementos algebraicos de cada elemento de una matriz dada:

Elaboramos una matriz de sumas algebraicas y la transponemos:

$$ A^*=\left(\begin(array) (ccc) 6 y 8 y -12 \\ -5 y 2 y -3 \\ 1 y -16 y 37\end(array) \right); \; (A^*)^T=\left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right) $$

Usando la fórmula $A^(-1)=\frac(1)(\Delta A)\cdot (A^(*))^T$, obtenemos:

$$ A^(-1)=\frac(1)(26)\cdot \left(\begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & - 3 y 37\end(array) \right)= \left(\begin(array) (ccc) 3/13 y -5/26 y 1/26 \\ 4/13 y 1/13 y -8/13 \ \ -6/13 y -3/26 y 37/26 \end(array) \right) $$

Entonces $A^(-1)=\left(\begin(array) (ccc) 3/13 y -5/26 y 1/26 \\ 4/13 y 1/13 y -8/13 \\ - 6 /13 y -3/26 y 37/26 \end(array) \right)$. Para comprobar la verdad del resultado, basta comprobar la verdad de una de las igualdades: $A^(-1)\cdot A=E$ o $A\cdot A^(-1)=E$. Comprobemos la igualdad $A\cdot A^(-1)=E$. Para trabajar menos con fracciones, sustituiremos la matriz $A^(-1)$ que no esté en la forma $\left(\begin(array) (ccc) 3/13 & -5/26 & 1/26 \ \ 4/13 & 1/13 & -8/13 \\ -6/13 & -3/26 & 37/26 \end(array) \right)$, y en la forma $\frac(1)(26 )\cdot \left( \begin(array) (ccc) 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end(array) \right)$:

La verificación fue exitosa, la matriz inversa $A^(-1)$ se encontró correctamente.

Respuesta: $A^(-1)=\left(\begin(array) (ccc) 3/13 y -5/26 y 1/26 \\ 4/13 y 1/13 y -8/13 \\ -6 /13 y -3/26 y 37/26 \end(array) \right)$.

Ejemplo No. 4

Encuentre la matriz inversa de la matriz $A=\left(\begin(array) (cccc) 6 & -5 & 8 & 4\\ 9 & 7 & 5 & 2 \\ 7 & 5 & 3 & 7\\ -4 & 8 & -8 & -3 \end(array) \right)$.

Para una matriz de cuarto orden, encontrar la matriz inversa mediante sumas algebraicas es algo difícil. Sin embargo, estos ejemplos ocurren en los exámenes.

Para encontrar la inversa de una matriz, primero debes calcular el determinante de la matriz $A$. La mejor manera de hacerlo en esta situación es descomponiendo el determinante en una fila (columna). Seleccionamos cualquier fila o columna y encontramos los complementos algebraicos de cada elemento de la fila o columna seleccionada.

Similar a lo inverso en muchas propiedades.

YouTube enciclopédico

    1 / 5

    ✪ Cómo encontrar la inversa de una matriz - bezbotvy

    ✪ Matriz inversa (2 formas de encontrar)

    ✪ Matriz inversa #1

    ✪ 28/01/2015. Matriz inversa 3x3

    ✪ 27/01/2015. Matriz inversa 2x2

    Subtítulos

Propiedades de una matriz inversa

  • det A − 1 = 1 det A (\displaystyle \det A^(-1)=(\frac (1)(\det A))), Dónde det (\displaystyle \\det) denota el determinante.
  • (A B) − 1 = B − 1 A − 1 (\displaystyle \ (AB)^(-1)=B^(-1)A^(-1)) para dos matrices cuadradas invertibles A (\displaystyle A) Y B (\displaystyle B).
  • (A T) − 1 = (A − 1) T (\displaystyle \ (A^(T))^(-1)=(A^(-1))^(T)), Dónde (. . .) T (\displaystyle (...)^(T)) denota una matriz transpuesta.
  • (k A) − 1 = k − 1 A − 1 (\displaystyle \ (kA)^(-1)=k^(-1)A^(-1)) para cualquier coeficiente k ≠ 0 (\displaystyle k\not =0).
  • mi − 1 = mi (\displaystyle \E^(-1)=E).
  • Si es necesario resolver un sistema de ecuaciones lineales, (b es un vector distinto de cero) donde x (\displaystyle x) es el vector deseado, y si A − 1 (\displaystyle A^(-1)) existe, entonces x = A − 1 segundo (\displaystyle x=A^(-1)b). De lo contrario, la dimensión del espacio de soluciones es mayor que cero o no hay ninguna solución.

Métodos para encontrar la matriz inversa.

Si la matriz es invertible, entonces para encontrar la matriz inversa puede utilizar uno de los siguientes métodos:

Métodos exactos (directos)

Método de Gauss-Jordan

Tomemos dos matrices: la A y soltero mi. Presentemos la matriz. A a la matriz identidad usando el método de Gauss-Jordan, aplicando transformaciones a lo largo de las filas (también se pueden aplicar transformaciones a lo largo de las columnas, pero no entremezcladas). Después de aplicar cada operación a la primera matriz, aplique la misma operación a la segunda. Cuando se complete la reducción de la primera matriz a forma unitaria, la segunda matriz será igual a A-1.

Cuando se utiliza el método gaussiano, la primera matriz de la izquierda se multiplicará por una de las matrices elementales. Λ yo (\displaystyle \Lambda _(i))(transvección o matriz diagonal con unos en la diagonal principal, excepto una posición):

Λ 1 ⋅ ⋯ ⋅ Λ n ⋅ A = Λ A = E ⇒ Λ = A − 1 (\displaystyle \Lambda _(1)\cdot \dots \cdot \Lambda _(n)\cdot A=\Lambda A=E \Flecha derecha \Lambda =A^(-1)). Λ m = [ 1 … 0 − a 1 m / a m m 0 … 0 … 0 … 1 − a m − 1 m / a m m 0 … 0 0 … 0 1 / a m m 0 … 0 0 … 0 − a m + 1 m / a m m 1 … 0 … 0 … 0 − a n m / a m m 0 … 1 ] (\displaystyle \Lambda _(m)=(\begin(bmatrix)1&\dots &0&-a_(1m)/a_(mm)&0&\dots &0\\ &&&\puntos &&&\\0&\puntos &1&-a_(m-1m)/a_(mm)&0&\puntos &0\\0&\puntos &0&1/a_(mm)&0&\puntos &0\\0&\puntos &0&-a_( m+1m)/a_(mm)&1&\dots &0\\&&&\dots &&&\\0&\dots &0&-a_(nm)/a_(mm)&0&\dots &1\end(bmatrix))).

La segunda matriz después de aplicar todas las operaciones será igual a Λ (\displaystyle \Lambda), es decir, será el deseado. Complejidad del algoritmo - O (n 3) (\displaystyle O(n^(3))).

Usando la matriz de complemento algebraico

Matriz inversa de matriz A (\displaystyle A), se puede representar en la forma

A − 1 = adj (A) det (A) (\displaystyle (A)^(-1)=(((\mbox(adj))(A)) \over (\det(A))))

Dónde adj (A) (\displaystyle (\mbox(adj))(A))- matriz adjunta;

La complejidad del algoritmo depende de la complejidad del algoritmo para calcular el determinante O det y es igual a O(n²)·O det.

Usando la descomposición LU/LUP

Ecuación matricial A X = I n (\displaystyle AX=I_(n)) para la matriz inversa X (\displaystyle X) puede considerarse como una colección norte (\ Displaystyle n) sistemas de la forma A x = b (\displaystyle Ax=b). denotemos yo (\displaystyle yo)ésima columna de la matriz X (\displaystyle X) a través de X yo (\displaystyle X_(i)); Entonces A X i = e i (\displaystyle AX_(i)=e_(i)), yo = 1 , … , norte (\displaystyle i=1,\ldots ,n),porque el yo (\displaystyle yo)ésima columna de la matriz En (\displaystyle I_(n)) es el vector unitario mi yo (\displaystyle e_(i)). en otras palabras, encontrar la matriz inversa se reduce a resolver n ecuaciones con la misma matriz y lados derechos diferentes. Después de realizar la descomposición LUP (tiempo O(n³)), resolver cada una de las n ecuaciones lleva tiempo O(n²), por lo que esta parte del trabajo también requiere tiempo O(n³).

Si la matriz A no es singular, entonces se puede calcular la descomposición LUP para ella. P A = L U (\displaystyle PA=LU). Dejar P A = B (\displaystyle PA=B), segundo − 1 = re (\displaystyle B^(-1)=D). Luego de las propiedades de la matriz inversa podemos escribir: D = U − 1 L − 1 (\displaystyle D=U^(-1)L^(-1)). Si multiplicas esta igualdad por U y L, puedes obtener dos igualdades de la forma UD = L − 1 (\displaystyle UD=L^(-1)) Y D L = U − 1 (\displaystyle DL=U^(-1)). La primera de estas igualdades es un sistema de n² ecuaciones lineales para norte (n + 1) 2 (\displaystyle (\frac (n(n+1))(2))) de donde se conocen los lados derechos (de las propiedades de las matrices triangulares). El segundo también representa un sistema de n² ecuaciones lineales para norte (n − 1) 2 (\displaystyle (\frac (n(n-1))(2))) de donde se conocen los lados derechos (también de las propiedades de las matrices triangulares). Juntos representan un sistema de n² igualdades. Usando estas igualdades, podemos determinar recursivamente todos los n² elementos de la matriz D. Luego de la igualdad (PA) −1 = A −1 P −1 = B −1 = D. obtenemos la igualdad A − 1 = D P (\displaystyle A^(-1)=DP).

En el caso de utilizar la descomposición LU, no se requiere ninguna permutación de las columnas de la matriz D, pero la solución puede divergir incluso si la matriz A no es singular.

La complejidad del algoritmo es O(n³).

Métodos iterativos

Métodos Schultz

( Ψ k = E − A U k , U k + 1 = U k ∑ i = 0 norte Ψ k i (\displaystyle (\begin(cases)\Psi _(k)=E-AU_(k),\\U_( k+1)=U_(k)\sum _(i=0)^(n)\Psi _(k)^(i)\end(casos)))

Estimación de errores

Seleccionar una aproximación inicial

El problema de elegir una aproximación inicial en los procesos iterativos de inversión de matrices considerados aquí no nos permite tratarlos como métodos universales independientes que compitan con los métodos de inversión directa basados, por ejemplo, en la descomposición LU de matrices. Hay algunas recomendaciones para elegir. U 0 (\displaystyle U_(0)), asegurando el cumplimiento de la condición ρ (Ψ 0) < 1 {\displaystyle \rho (\Psi _{0})<1} (el radio espectral de la matriz es menor que la unidad), lo cual es necesario y suficiente para la convergencia del proceso. Sin embargo, en este caso, en primer lugar, es necesario conocer desde arriba la estimación del espectro de la matriz invertible A o la matriz A A T (\ Displaystyle AA ^ (T))(es decir, si A es una matriz definida positiva simétrica y ρ (A) ≤ β (\displaystyle \rho (A)\leq \beta ), entonces puedes tomar U 0 = α mi (\displaystyle U_(0)=(\alpha )E), Dónde ; si A es una matriz arbitraria no singular y ρ (A A T) ≤ β (\displaystyle \rho (AA^(T))\leq \beta ), entonces creen U 0 = α A T (\displaystyle U_(0)=(\alpha )A^(T)), donde también α ∈ (0 , 2 β) (\displaystyle \alpha \in \left(0,(\frac (2)(\beta ))\right)); Por supuesto, puedes simplificar la situación y aprovechar el hecho de que ρ (A A T) ≤ k A A T k (\displaystyle \rho (AA^(T))\leq (\mathcal (k))AA^(T)(\mathcal (k))), poner U 0 = A T ‖ A A T ‖ (\displaystyle U_(0)=(\frac (A^(T))(\|AA^(T)\|)))). En segundo lugar, al especificar la matriz inicial de esta manera, no hay garantía de que ‖ Ψ 0 ‖ (\displaystyle \|\Psi _(0)\|) será pequeño (tal vez incluso resulte ser ‖ Ψ 0 ‖ > 1 (\displaystyle \|\Psi _(0)\|>1)), y no se revelará de inmediato una tasa de convergencia de alto orden.

Ejemplos

Matriz 2x2

A − 1 = [ a b c d ] − 1 = 1 det (A) [ d − b − c a ] = 1 a d − b c [ d − b − c a ] . (\displaystyle \mathbf (A) ^(-1)=(\begin(bmatrix)a&b\\c&d\\\end(bmatrix))^(-1)=(\frac (1)(\det(\mathbf (A))))(\begin(bmatrix)\,\,\,d&\!\!-b\\-c&\,a\\\end(bmatrix))=(\frac (1)(ad- bc))(\begin(bmatrix)\,\,\,d&\!\!-b\\-c&\,a\\\end(bmatrix)).)

La inversión de una matriz de 2x2 solo es posible bajo la condición de que a d − b c = det A ≠ 0 (\displaystyle ad-bc=\det A\neq 0).

Normalmente, las operaciones inversas se utilizan para simplificar expresiones algebraicas complejas. Por ejemplo, si el problema involucra la operación de dividir por una fracción, puedes reemplazarla con la operación de multiplicar por el recíproco de una fracción, que es la operación inversa. Además, las matrices no se pueden dividir, por lo que es necesario multiplicarlas por la matriz inversa. Calcular la inversa de una matriz de 3x3 es bastante tedioso, pero debes poder hacerlo manualmente. También puedes encontrar el recíproco usando una buena calculadora gráfica.

Pasos

Usando la matriz adjunta

Transponer la matriz original. La transposición es la sustitución de filas por columnas con respecto a la diagonal principal de la matriz, es decir, es necesario intercambiar los elementos (i,j) y (j,i). En este caso, los elementos de la diagonal principal (comienza en la esquina superior izquierda y termina en la esquina inferior derecha) no cambian.

  • Para cambiar filas a columnas, escriba los elementos de la primera fila en la primera columna, los elementos de la segunda fila en la segunda columna y los elementos de la tercera fila en la tercera columna. El orden de cambio de posición de los elementos se muestra en la figura, en la que los elementos correspondientes están rodeados con círculos de colores.
  • Encuentra la definición de cada matriz de 2x2. Cada elemento de cualquier matriz, incluida una transpuesta, está asociado con una matriz de 2x2 correspondiente. Para encontrar una matriz de 2x2 que corresponda a un elemento específico, tache la fila y la columna en las que se encuentra el elemento dado, es decir, debe tachar cinco elementos de la matriz de 3x3 original. Quedarán sin cruzar cuatro elementos, que son elementos de la matriz 2x2 correspondiente.

    • Por ejemplo, para encontrar una matriz de 2x2 para el elemento que se encuentra en la intersección de la segunda fila y la primera columna, tacha los cinco elementos que están en la segunda fila y la primera columna. Los cuatro elementos restantes son elementos de la matriz 2x2 correspondiente.
    • Encuentra el determinante de cada matriz de 2x2. Para ello, reste el producto de los elementos de la diagonal secundaria del producto de los elementos de la diagonal principal (ver figura).
    • En Internet se puede encontrar información detallada sobre matrices de 2x2 correspondientes a elementos específicos de una matriz de 3x3.
  • Crea una matriz de cofactores. Escriba los resultados obtenidos anteriormente en forma de una nueva matriz de cofactores. Para hacer esto, escribe el determinante encontrado de cada matriz de 2x2 donde se ubicó el elemento correspondiente de la matriz de 3x3. Por ejemplo, si estás considerando una matriz de 2x2 para el elemento (1,1), escribe su determinante en la posición (1,1). Luego cambie los signos de los elementos correspondientes de acuerdo con un esquema determinado, que se muestra en la figura.

    • Esquema de cambio de signo: el signo del primer elemento de la primera línea no cambia; se invierte el signo del segundo elemento de la primera línea; el signo del tercer elemento de la primera línea no cambia, y así línea por línea. Tenga en cuenta que los signos “+” y “-” que se muestran en el diagrama (ver figura) no indican que el elemento correspondiente será positivo o negativo. En este caso, el signo “+” indica que el signo del elemento no cambia y el signo “-” indica un cambio en el signo del elemento.
    • Se puede encontrar información detallada sobre las matrices de cofactores en Internet.
    • De esta manera encontrará la matriz adjunta de la matriz original. A veces se le llama matriz conjugada compleja. Dicha matriz se denota como adj(M).
  • Divida cada elemento de la matriz adjunta por su determinante. El determinante de la matriz M se calculó desde el principio para comprobar que existe la matriz inversa. Ahora divide cada elemento de la matriz adjunta por este determinante. Escribe el resultado de cada operación de división donde se ubica el elemento correspondiente. De esta forma encontrarás la matriz inversa a la original.

    • El determinante de la matriz que se muestra en la figura es 1. Así, aquí la matriz adjunta es la matriz inversa (porque cuando cualquier número se divide por 1, no cambia).
    • En algunas fuentes, la operación de división se reemplaza por la operación de multiplicación por 1/det(M). Sin embargo, el resultado final no cambia.
  • Escribe la matriz inversa. Escribe los elementos ubicados en la mitad derecha de la matriz grande como una matriz separada, que es la matriz inversa.

    Ingrese la matriz original en la memoria de la calculadora. Para hacer esto, haga clic en el botón Matriz, si está disponible. Para una calculadora de Texas Instruments, es posible que deba presionar los botones 2nd y Matrix.

    Seleccione el menú Editar. Haga esto usando los botones de flecha o el botón de función apropiado ubicado en la parte superior del teclado de la calculadora (la ubicación del botón varía según el modelo de calculadora).

    Ingrese la notación matricial. La mayoría de las calculadoras gráficas pueden trabajar con entre 3 y 10 matrices, que pueden designarse con las letras A-J. Normalmente, simplemente seleccione [A] para designar la matriz original. Luego presione el botón Entrar.

    Introduzca el tamaño de la matriz. Este artículo habla de matrices 3x3. Pero las calculadoras gráficas pueden funcionar con matrices grandes. Ingrese el número de filas, presione Enter, luego ingrese el número de columnas y presione Enter nuevamente.

    Introduzca cada elemento de la matriz. Se mostrará una matriz en la pantalla de la calculadora. Si previamente ingresó una matriz en la calculadora, aparecerá en la pantalla. El cursor resaltará el primer elemento de la matriz. Ingrese el valor para el primer elemento y presione Enter. El cursor se moverá automáticamente al siguiente elemento de la matriz.

    Sea una matriz cuadrada. Necesitas encontrar la matriz inversa.

    Primera manera. El teorema 4.1 de existencia y unicidad de una matriz inversa indica una de las formas de encontrarla.

    1. Calcula el determinante de esta matriz. Si, entonces la matriz inversa no existe (la matriz es singular).

    2. Construya una matriz a partir de complementos algebraicos de elementos matriciales.

    3. Transponer la matriz para obtener la matriz adjunta. .

    4. Encuentre la matriz inversa (4.1) dividiendo todos los elementos de la matriz adjunta por el determinante

    Segunda vía. Para encontrar la matriz inversa, puedes utilizar transformaciones elementales.

    1. Construya una matriz de bloques asignando a una matriz dada una matriz identidad del mismo orden.

    2. Utilizando transformaciones elementales realizadas en las filas de la matriz, lleve su bloque izquierdo a su forma más simple. En este caso, la matriz de bloques se reduce a la forma en la que se obtiene una matriz cuadrada como resultado de transformaciones de la matriz identidad.

    3. Si , entonces el bloque es igual a la inversa de la matriz, es decir, si, entonces la matriz no tiene inversa.

    De hecho, con la ayuda de transformaciones elementales de las filas de la matriz, es posible reducir su bloque izquierdo a una forma simplificada (ver Fig. 1.5). En este caso, la matriz de bloques se transforma a la forma donde hay una matriz elemental que satisface la igualdad. Si la matriz no es degenerada, entonces, según el párrafo 2 de las Observaciones 3.3, su forma simplificada coincide con la matriz identidad. Entonces de la igualdad se deduce que. Si la matriz es singular, entonces su forma simplificada difiere de la matriz identidad y la matriz no tiene inversa.

    11. Ecuaciones matriciales y su solución. Forma matricial de grabación SLAE. Método matricial (método de matriz inversa) para la resolución de SLAE y condiciones para su aplicabilidad.

    Las ecuaciones matriciales son ecuaciones de la forma: A*X=C; X*A=C; A*X*B=C donde las matrices A, B, C son conocidas, la matriz X es desconocida, si las matrices A y B no son degeneradas, entonces las soluciones de las matrices originales se escribirán en la forma apropiada: X = A -1 * C; X=C*A-1; X=A-1 *C*B-1 Forma matricial de sistemas de escritura de ecuaciones algebraicas lineales. A cada SLAE se pueden asociar varias matrices; Además, el propio SLAE se puede escribir en forma de ecuación matricial. Para SLAE (1), considere las siguientes matrices:

    La matriz A se llama matriz del sistema. Los elementos de esta matriz representan los coeficientes de un SLAE determinado.

    La matriz A˜ se llama sistema de matriz extendida. Se obtiene añadiendo a la matriz del sistema una columna que contiene los términos libres b1,b2,...,bm. Por lo general, esta columna está separada por una línea vertical para mayor claridad.

    La matriz columna B se llama matriz de miembros libres, y la matriz de columna X es matriz de incógnitas.

    Usando la notación presentada anteriormente, SLAE (1) se puede escribir en forma de ecuación matricial: A⋅X=B.

    Nota

    Las matrices asociadas al sistema se pueden escribir de varias formas: todo depende del orden de las variables y ecuaciones del SLAE considerado. Pero en cualquier caso, el orden de las incógnitas en cada ecuación de un SLAE determinado debe ser el mismo.

    El método matricial es adecuado para resolver SLAE en las que el número de ecuaciones coincide con el número de variables desconocidas y el determinante de la matriz principal del sistema es diferente de cero. Si el sistema contiene más de tres ecuaciones, entonces encontrar la matriz inversa requiere un esfuerzo computacional significativo, por lo que en este caso es recomendable utilizar método gaussiano.

    12. SLAE homogéneos, condiciones para la existencia de sus soluciones distintas de cero. Propiedades de soluciones parciales de SLAE homogéneas.

    Una ecuación lineal se dice homogénea si su término libre es igual a cero y no homogénea en caso contrario. Un sistema que consta de ecuaciones homogéneas se llama homogéneo y tiene la forma general:

    13 .El concepto de independencia lineal y dependencia de soluciones parciales de un SLAE homogéneo. Sistema fundamental de soluciones (FSD) y su determinación. Representación de la solución general de un SLAE homogéneo a través del FSR.

    Sistema de funciones y 1 (X ), y 2 (X ), …, y norte (X ) se llama linealmente dependiente en el intervalo ( a , b ), si hay un conjunto de coeficientes constantes distintos de cero al mismo tiempo, de modo que la combinación lineal de estas funciones sea idénticamente igual a cero en ( a , b ): Para . Si la igualdad para es posible sólo para , el sistema de funciones y 1 (X ), y 2 (X ), …, y norte (X ) se llama independiente linealmente en el intervalo ( a , b ). En otras palabras, las funciones y 1 (X ), y 2 (X ), …, y norte (X ) linealmente dependiente en el intervalo ( a , b ), si hay un igual a cero en ( a , b ) su combinación lineal no trivial. Funciones y 1 (X ),y 2 (X ), …, y norte (X ) independiente linealmente en el intervalo ( a , b ), si sólo su combinación lineal trivial es idénticamente igual a cero en ( a , b ).

    Sistema de decisión fundamental (FSR) Un SLAE homogéneo es la base de este sistema de columnas.

    El número de elementos en el FSR es igual al número de incógnitas del sistema menos el rango de la matriz del sistema. Cualquier solución del sistema original es una combinación lineal de soluciones del FSR.

    Teorema

    La solución general de un SLAE no homogéneo es igual a la suma de una solución particular de un SLAE no homogéneo y la solución general del SLAE homogéneo correspondiente.

    1 . Si las columnas son soluciones de un sistema homogéneo de ecuaciones, entonces cualquier combinación lineal de ellas también es una solución del sistema homogéneo.

    De hecho, de las igualdades se deduce que

    aquellos. una combinación lineal de soluciones es una solución de un sistema homogéneo.

    2. Si el rango de la matriz de un sistema homogéneo es igual a , entonces el sistema tiene soluciones linealmente independientes.

    De hecho, utilizando las fórmulas (5.13) para la solución general de un sistema homogéneo, encontramos soluciones particulares, dando a las variables libres la siguiente conjuntos de valores estándar (cada vez asumiendo que una de las variables libres es igual a uno y el resto son iguales a cero):

    que son linealmente independientes. De hecho, si crea una matriz a partir de estas columnas, sus últimas filas forman la matriz identidad. En consecuencia, el menor ubicado en las últimas líneas no es igual a cero (es igual a uno), es decir es básico. Por tanto, el rango de la matriz será igual. Esto significa que todas las columnas de esta matriz son linealmente independientes (ver Teorema 3.4).

    Cualquier conjunto de soluciones linealmente independientes de un sistema homogéneo se llama sistema fundamental (conjunto) de soluciones .

    14 Menor de décimo orden, menor básico, rango de la matriz. Calcular el rango de una matriz.

    El orden k menor de una matriz A es el determinante de alguna de sus submatriz cuadrada de orden k.

    En una matriz A de dimensiones m x n, un menor de orden r se llama básico si es distinto de cero, y todos los menores de orden superior, si existen, son iguales a cero.

    Las columnas y filas de la matriz A, en cuya intersección hay una base menor, se denominan columnas y filas de la base de A.

    Teorema 1. (Sobre el rango de la matriz). Para cualquier matriz, el rango menor es igual al rango de fila e igual al rango de columna.

    Teorema 2. (Sobre la base menor). Cada columna de la matriz se descompone en una combinación lineal de sus columnas base.

    El rango de una matriz (o rango menor) es el orden de la base menor o, en otras palabras, el orden más grande para el cual existen menores distintos de cero. El rango de una matriz cero se considera 0 por definición.

    Observemos dos propiedades obvias de rango menor.

    1) El rango de una matriz no cambia durante la transposición, ya que cuando se transpone una matriz, se transponen todas sus submatrices y las menores no cambian.

    2) Si A’ es una submatriz de la matriz A, entonces el rango de A’ no excede el rango de A, ya que un menor distinto de cero incluido en A’ también está incluido en A.

    15. El concepto de vector aritmético de dimensiones. Igualdad de vectores. Operaciones con vectores (suma, resta, multiplicación por un número, multiplicación por una matriz). Combinación lineal de vectores.

    recogida ordenada norte los numeros reales o complejos se llaman vector n-dimensional. los numeros se llaman coordenadas vectoriales.

    Dos vectores (distintos de cero) a Y b son iguales si están igualmente dirigidos y tienen el mismo módulo. Todos los vectores cero se consideran iguales. En todos los demás casos, los vectores no son iguales.

    Suma de vectores. Hay dos formas de sumar vectores: 1. Regla del paralelogramo. Para sumar los vectores y, colocamos los orígenes de ambos en el mismo punto. Construimos hasta formar un paralelogramo y desde el mismo punto trazamos una diagonal del paralelogramo. Esta será la suma de los vectores.

    2. El segundo método para sumar vectores es la regla del triángulo. Tomemos los mismos vectores y . Sumaremos el comienzo del segundo al final del primer vector. Ahora conectemos el comienzo del primero y el final del segundo. Esta es la suma de los vectores y . Usando la misma regla, puedes sumar varios vectores. Los organizamos uno tras otro y luego conectamos el principio del primero con el final del último.

    Resta de vectores. El vector está dirigido en dirección opuesta al vector. Las longitudes de los vectores son iguales. Ahora está claro qué es la resta de vectores. La diferencia de vectores y es la suma del vector y el vector.

    Multiplicar un vector por un número

    Multiplicar un vector por un número k produce un vector cuya longitud es k veces la longitud. Es codireccional con el vector si k es mayor que cero y de dirección opuesta si k es menor que cero.

    El producto escalar de vectores es el producto de las longitudes de los vectores por el coseno del ángulo entre ellos. Si los vectores son perpendiculares, su producto escalar es cero. Y así se expresa el producto escalar a través de las coordenadas de los vectores y .

    Combinación lineal de vectores.

    Combinación lineal de vectores. llamado vector

    Dónde - coeficientes de combinación lineal. Si una combinación se llama trivial si no es trivial.

    16 .Producto escalar de vectores aritméticos. Longitud del vector y ángulo entre vectores. El concepto de ortogonalidad vectorial.

    El producto escalar de los vectores a y b es el número

    El producto escalar se utiliza para calcular: 1) encontrar el ángulo entre ellos; 2) encontrar la proyección de vectores; 3) calcular la longitud de un vector 4) las condiciones de perpendicularidad de los vectores;

    La longitud del segmento AB se llama distancia entre los puntos A y B. El ángulo entre los vectores A y B se llama ángulo α = (a, b), 0≤ α ≤P. Por lo cual necesitas rotar 1 vector para que su dirección coincida con otro vector. Siempre que sus orígenes coincidan.

    Un ortom a es un vector a que tiene longitud unitaria y dirección a.

    17. Sistema de vectores y su combinación lineal. El concepto de dependencia lineal e independencia de un sistema de vectores. Teorema sobre las condiciones necesarias y suficientes para la dependencia lineal de un sistema de vectores.

    Un sistema de vectores a1,a2,...,an se llama linealmente dependiente si existen números λ1,λ2,...,λn tales que al menos uno de ellos es distinto de cero y λ1a1+λ2a2+...+λnan=0 . En caso contrario, el sistema se llama linealmente independiente.

    Dos vectores a1 y a2 se llaman colineales si sus direcciones son iguales o opuestas.

    Tres vectores a1, a2 y a3 se llaman coplanares si son paralelos a algún plano.

    Criterios geométricos para la dependencia lineal:

    a) el sistema (a1,a2) es linealmente dependiente si y sólo si los vectores a1 y a2 son colineales.

    b) el sistema (a1,a2,a3) es linealmente dependiente si y sólo si los vectores a1,a2 y a3 son coplanares.

    teorema. (Condición necesaria y suficiente para la dependencia lineal sistemas vectores.)

    Sistema vectorial vector espacio es lineal dependiente si y sólo si uno de los vectores del sistema se expresa linealmente en términos de los demás vector este sistema.

    Corolario 1. Un sistema de vectores en un espacio vectorial es linealmente independiente si y sólo si ninguno de los vectores del sistema se expresa linealmente en términos de otros vectores de este sistema.2. Un sistema de vectores que contiene un vector cero o dos vectores iguales es linealmente dependiente.



  • decirles a los amigos