Fundamentos (términos y operaciones)
Fundamentos (Términos básicos y Operaciones)
En esta sección recogemos los conceptos y operaciones fundamentales que se usan de forma recurrente en álgebra lineal. El objetivo es ofrecer definiciones precisas, ejemplos resueltos paso a paso y una tabla de fórmulas de referencia.
1. Vectores y espacios \(\mathbb{K}^n\)
- Vector: un vector en \(\mathbb{K}^n\) es una lista ordenada \(v=(v_1,\dots,v_n)\) con \(v_i\in\mathbb{K}\).
- Espacio \(\mathbb{K}^n\): conjunto de todos los vectores de dimensión \(n\) con suma y producto por escalares definidos componente a componente.
- Escalar: elemento de \(\mathbb{K}\) (por ejemplo \(\mathbb{R}\) o \(\mathbb{C}\)) que multiplica vectores.
Para \(n\le 3\) los vectores se pueden representar gráficamente (puntos o flechas), lo que ayuda a entender operaciones como suma y proyección.
2. Operaciones básicas
Definimos las operaciones de suma y producto por escalares de forma componente a componente:
Ejemplo 1 (suma y producto por escalar):
Sean \(v=(1,2,3)\) y \(w=(2,0,-1)\) en \(\mathbb{R}^3\) y \(\alpha=3\).
- Suma: \(v+w=(1+2,\,2+0,\,3+(-1))=(3,2,2)\).
- Escalar: \(\alpha v=3(1,2,3)=(3,6,9)\).
3. Producto escalar y ortogonalidad
El producto escalar (o dot product) entre \(v,w\in\mathbb{K}^n\) es
Propiedades relevantes:
- \(v\cdot w = w\cdot v\) (conmutativo).
- \(v\cdot v=\|v\|_2^2\ge 0\).
- Si \(v\cdot w=0\) decimos que \(v\) y \(w\) son ortogonales.
Ejemplo 2 (producto escalar):
Sea \(v=(1,2,3)\) y \(w=(2,0,-1)\).
4. Normas y distancia
Norma euclídea (2-norma):
Otras normas útiles:
- Norma 1: \(\|v\|_1=\sum_{i=1}^n |v_i|\).
- Norma infinito: \(\|v\|_\infty=\max_i |v_i|\).
Distancia entre vectores: \(d(v,w)=\|v-w\|\).
Ejemplo 3 (norma): para \(v=(1,2,3)\),
5. Combinaciones lineales, span y subespacios
Dado \(v_1,\dots,v_k\in V\), una combinación lineal es
El span (subespacio generado) es el conjunto de todas las combinaciones lineales y se escribe \(\mathrm{span}\{v_1,\dots,v_k\}\).
Ejemplo 4: en \(\mathbb{R}^2\), \(\mathrm{span}\{(1,0)\}=\) la recta eje-x.
6. Matrices: definiciones y operaciones básicas
Una matriz \(A\in M_{m\times n}(\mathbb{K})\) es un arreglo rectangular con \(m\) filas y \(n\) columnas. Operaciones fundamentales:
- Suma: definida entrada a entrada.
- Producto por escalar: cada entrada se multiplica por el escalar.
- Producto matriz-vector: si \(A\) es \(m\times n\) y \(x\in\mathbb{K}^n\), entonces $$ Ax=\begin{pmatrix}\sum_j a_{1j} x_j\\\vdots\\\sum_j a_{mj} x_j\end{pmatrix}\in\mathbb{K}^m $$
- Producto de matrices: composición de productos matriz-vector.
- Transpuesta: \(A^T\) intercambia filas y columnas.
Ejemplo 5 (producto matriz-vector):
Sea \(A=\begin{pmatrix}1&2\\0&1\\1&0\end{pmatrix}\) y \(x=\begin{pmatrix}3\\4\end{pmatrix}\). Entonces
7. Inversa, rango y sistema lineales (breve)
- Una matriz cuadrada \(A\in M_{n\times n}(\mathbb{K})\) es inversible si existe \(A^{-1}\) tal que \(AA^{-1}=A^{-1}A=I\).
- Rango: \(\mathrm{rank}(A)\) es el número máximo de columnas linealmente independientes; también igual al número de pivotes en la reducción por filas.
- Sistemas lineales \(Ax=b\): soluciones se obtienen por eliminación gaussiana; si \(A\) es invertible la solución única es \(x=A^{-1}b\).
8. Proyección y componente ortogonal (intuición)
La proyección ortogonal de \(v\) sobre un vector no nulo \(u\) es
Esta proyección da la componente de \(v\) paralela a \(u\). La componente ortogonal (o residual) se obtiene como
y satisface \(v_{\perp}\cdot u=0\) (es decir, es ortogonal a \(u\)).
Función de ortogonalidad / test de ortogonalidad:
Definimos la prueba de ortogonalidad por la función escalar
Entonces \(v\perp w\) (se dice que son ortogonales) si y solo si \(\mathrm{ort}(v,w)=0\). Si se prefiere un indicador booleano:
Proyección sobre un subespacio \(W\):
Si \(W\) es un subespacio de \(\mathbb{R}^n\) generado por las columnas de la matriz \(A\in\mathbb{R}^{n\times k}\) (columnas independientes), la proyección ortogonal de \(v\) sobre \(W\) viene dada por la matriz proyectora
y por tanto
Esta fórmula requiere que las columnas de \(A\) sean linealmente independientes (para garantizar que \(A^T A\) es invertible). La componente ortogonal respecto a \(W\) es \(v-v_{W}\) con \(v_W=\mathrm{proj}_W(v)\).
Ejemplo (comprobación de ortogonalidad): en el ejercicio A anterior tomamos \(v=(3,1)\) y \(u=(1,1)\). Hemos obtenido $\(\mathrm{proj}_u(v)=(2,2),\qquad v_{\perp}=v-\mathrm{proj}_u(v)=(1,-1).\)$ Comprobamos la ortogonalidad: \((1,-1)\cdot(1,1)=1-1=0\).
Nota práctica: para proyectar sobre una recta generada por \(u\) se puede usar la fórmula escalar (primera fórmula); para proyectar sobre un plano o subespacio de dimensión mayor conviene usar la matriz proyectora \(P_W\).
9. Ejercicios resueltos (rápidos)
Ejercicio A. Calcular la proyección de \(v=(3,1)\) sobre \(u=(1,1)\).
Solución: \(v\cdot u=3+1=4\), \(u\cdot u=1+1=2\), así $\(\mathrm{proj}_u(v)=\frac{4}{2}(1,1)=2(1,1)=(2,2).\)$
Ejercicio B. Determinar si \(v_1=(1,2,0)\), \(v_2=(2,4,0)\) son linealmente independientes.
Solución: \(v_2=2v_1\), por tanto son L.D. (dependientes).
10. Resumen y tabla de fórmulas
Resumen escueto:
- Definición de vector, suma, producto por escalar.
- Producto escalar y normas (distancia, ortogonalidad).
- Combinaciones lineales y span; subespacios.
- Matrices y producto matriz-vector; rango e inversa.
- Proyección ortogonal y descomposición en componentes.
Tabla de fórmulas (vista rápida):
| Término | Fórmula | Mini descripción |
|---|---|---|
| Suma de vectores | \(v+w=(v_1+w_1,\dots,v_n+w_n)\) | Suma componente a componente. |
| Producto por escalar | \(\alpha v=(\alpha v_1,\dots,\alpha v_n)\) | Multiplicación componente a componente. |
| Producto escalar | \(v\cdot w=\sum_{i=1}^n v_iw_i\) | Mide "alineamiento"; define ortogonalidad. |
| Norma 2 | \(\|v\|_2=\sqrt{v^2\cdot v^2}\) | Longitud euclídea. |
| Proyección (sobre una recta) | \(\mathrm{proj}_u(v)=\dfrac{v\cdot u}{u\cdot u}\,u\) | Componente de \(v\) paralela a la recta generada por \(u\). |
| Componente ortogonal | \(v_{\perp}=v-\mathrm{proj}_u(v)\) | Componente de \(v\) paralela a la recta generada por \(u\). |
| Proyector sobre subespacio \(W\) | \(P_W=A(A^T A)^{-1}A^T\), \(\mathrm{proj}_W(v)=P_W v\) | Matriz proyectora y fórmula para proyectar sobre \(W\). |
| Producto matriz-vector | \(Ax\) | Suma lineal de columnas de \(A\) con coeficientes en \(x\). |
| Rango | \(\mathrm{rank}(A)\) | Nº de columnas independientes (pivotes). |
| Inversa 2x2 | \(\begin{pmatrix}a&b\\c&d\end{pmatrix}^{-1}=\dfrac{1}{ad-bc}\begin{pmatrix}d&-b\\-c&a\end{pmatrix}\) | Fórmula práctica para invertir \(2\times2\). |