Saltar a contenido

UD1 — Temario: Vectores (resumen formateado)

Esta página recoge los conceptos básicos de la Unidad Didáctica 1 (Vectores). Cada entrada incluye la definición formal en LaTeX, una breve explicación y un ejemplo resuelto paso a paso. Enlaza los artículos detallados cuando estén disponibles.


Vector de dimensión n

  • Definición: Un vector de dimensión \(n\) es una tupla ordenada de números reales. Denotamos el conjunto de todos los vectores de dimensión \(n\) por \(\mathbb{R}^n\).

  • Notación:

$$ \mathbf{v}=(v_1, v_2,\dots, v_n),\qquad v_i\in\mathbb{R}. $$

  • Intuición: Es una lista ordenada de coordenadas; geométricamente representa un punto o un desplazamiento en el espacio.

  • Ejemplos:

  • \(\mathbf{v}=(1,-2)\in\mathbb{R}^2\).
  • \(\mathbf{w}=(2,-1.2,\pi)\in\mathbb{R}^3\).

Enlace relacionado: Introducción a vectores


Suma de vectores

  • Definición: Si \(\mathbf{v},\mathbf{w}\in\mathbb{R}^n\), su suma es componente a componente:

$$ \mathbf{v}+\mathbf{w}=(v_1+w_1,\;v_2+w_2,\;\dots,\;v_n+w_n). $$

  • Ejemplo:
  • Dados \(\mathbf{v}=(0,1)\) y \(\mathbf{w}=(2,3)\): $$ \begin{aligned} \mathbf{v}+\mathbf{w} &= (0+2,\;1+3)\ &= (2,4). \end{aligned} $$

Resta de vectores

  • Definición: Para \(\mathbf{v},\mathbf{w}\in\mathbb{R}^n\): $\(\mathbf{v}-\mathbf{w}=(v_1-w_1,\;v_2-w_2,\;\dots,\;v_n-w_n).\)$

  • Observación: \(\mathbf{v}-\mathbf{w}=\mathbf{v}+(-1)\cdot\mathbf{w}\).

  • Ejemplo:

  • \(\mathbf{v}=(5,8)\) y \(\mathbf{w}=(1,3)\): $\(\mathbf{v}-\mathbf{w}=(5-1,\;8-3)=(4,5).\)$

Producto por un escalar

  • Definición: Para \(\lambda\in\mathbb{R}\) y \(\mathbf{v}\in\mathbb{R}^n\): $\(\lambda\,\mathbf{v}=(\lambda v_1,\;\lambda v_2,\;\dots,\;\lambda v_n).\)$

  • Ejemplo:

  • Con \(\lambda=4\) y \(\mathbf{v}=(3,-1,2)\): $\(4\mathbf{v}=(12,-4,8).\)$

Producto escalar (dot product)

  • Definición: Si \(\mathbf{u},\mathbf{v}\in\mathbb{R}^n\), $\(\mathbf{u}\cdot\mathbf{v}=\sum_{i=1}^n u_i v_i.\)$

  • Ejemplo:

  • Para \(\mathbf{u}=(2,-1,0)\) y \(\mathbf{v}=(-3,-2,1)\): $$ \begin{aligned} \mathbf{u}\cdot\mathbf{v} &= 2\cdot(-3) + (-1)\cdot(-2) + 0\cdot1 \ &= -6 + 2 + 0 = -4. \end{aligned} $$

Producto Vectorial

  • Definición: El producto vectorial, también conocido como producto cruz, es una operación binaria que se realiza entre dos vectores en un espacio tridimensional. El resultado de esta operación no es un número (como en el producto escalar), sino un nuevo vector. Este nuevo vector tiene una particularidad muy importante: es perpendicular a los dos vectores originales.

El módulo (o magnitud) del vector resultante es igual al área del paralelogramo que se forma con los dos vectores originales.

  • Formula:
  • Formula: $$ \vec{A}\times\vec{B}= \left| \begin{matrix} \hat{\imath} & \hat{\jmath} & \hat{k} \\ A_x & A_y & A_z \\ B_x & B_y & B_z \end{matrix} \right| = $$ $$ = (A_yB_z - A_zB_y)\,\hat{\imath} - (A_xB_z - A_zB_x)\,\hat{\jmath} + (A_xB_y - A_yB_x)\,\hat{k} $$

Norma Euclídea (norma 2)

  • Definición: La norma euclídea (o 2-norma) de \(\mathbf{v}\in\mathbb{R}^n\) es $\(\|\mathbf{v}\|_2 = \sqrt{\sum_{i=1}^n v_i^2}.\)$

  • Relación con el producto escalar: \(\|\mathbf{v}\|_2^2 = \mathbf{v}\cdot\mathbf{v}\).

  • Ejemplo:

  • Para \(\mathbf{v}=(12,-4,8)\): $$ \begin{aligned} |\mathbf{v}|_2^2 &= 12^2 + (-4)^2 + 8^2 = 144 + 16 + 64 = 224,\ |\mathbf{v}|_2 &= \sqrt{224} \approx 14.9666. \end{aligned} $$

Norma 1

  • Definición: La norma 1 de \(\mathbf{v}\) es la suma de los valores absolutos de sus componentes: $\(\|\mathbf{v}\|_1 = \sum_{i=1}^n |v_i|.\)$

  • Ejemplo: para \(\mathbf{v}=(12,-4,8)\), $\(\|\mathbf{v}\|_1 = |12|+|-4|+|8| = 12+4+8 = 24.\)$


Norma infinito (norma del máximo)

  • Definición: La norma infinito de \(\mathbf{v}\) es el máximo de los valores absolutos de las componentes: $\(\|\mathbf{v}\|_{\infty} = \max_{1\le i\le n} |v_i|.\)$

  • Ejemplo: para \(\mathbf{v}=(12,-4,8)\), $\(\|\mathbf{v}\|_{\infty} = \max(12,4,8) = 12.\)$


Ortogonalidad

  • Definición: Dos vectores \(\mathbf{u},\mathbf{v}\in\mathbb{R}^n\) son ortogonales si su producto escalar es cero: $\(\mathbf{u}\cdot\mathbf{v} = 0.\)$

  • Cómo comprobarlo (breve): calcula el producto escalar

  • \(\mathbf{u}\cdot\mathbf{v}=\sum\_{i=1}^n u_i v_i\). Si el resultado es 0, los vectores son perpendiculares (forman un ángulo de \(90^\circ\)).
  • En la práctica, multiplica componente a componente y suma (p. ej. \((a,b,c)\cdot(d,e,f)=ad+be+cf\)). Observa que el vector cero cumple la condición \(\mathbf{u}\cdot\mathbf{0}=0\) con cualquier \(\mathbf{u}\), aunque el ángulo no está definido cuando uno de los vectores es el vector cero.

  • Ejemplo:

  • Dados \(\mathbf{v}=(2,-1,0)\) y \(\mathbf{w}=(-3,-2,1)\), calculamos $\(\mathbf{v}\cdot\mathbf{w} = -4 \neq 0,\)$ por tanto no son ortogonales.

Ángulo entre dos vectores

  • Relación con el producto escalar: para \(\mathbf{u},\mathbf{v}\ne\mathbf{0}\), $\(\mathbf{u}\cdot\mathbf{v} = \|\mathbf{u}\|_2\,\|\mathbf{v}\|_2\cos\theta,\)$ donde \(\theta\) es el ángulo entre ellos.

Proyección de \(\mathbf{u}\) sobre \(\mathbf{v}\)

  • Definición: La proyección de \(\mathbf{u}\) sobre \(\mathbf{v}\) (asumiendo \(\mathbf{v}\ne\mathbf{0}\)) es $\(\operatorname{proj}_{\mathbf{v}}(\mathbf{u}) = \frac{\mathbf{u}\cdot\mathbf{v}}{\mathbf{v}\cdot\mathbf{v}}\,\mathbf{v}.\)$

  • Ejemplo (rápido): si \(\mathbf{u}=(1,2)\) y \(\mathbf{v}=(2,0)\),

$$ \begin{aligned} \mathbf{u}\cdot\mathbf{v} &= 1\cdot2 + 2\cdot0 = 2,\ \mathbf{v}\cdot\mathbf{v} &= 2^2+0^2=4,\ \operatorname{proj}_{\mathbf{v}}(\mathbf{u}) &= \frac{2}{4}\,(2,0) = \tfrac{1}{2}(2,0) = (1,0). \end{aligned} $$

  • Para qué sirve (breve): la proyección extrae la parte de un vector que está en la dirección de otro. Es central en mínimos cuadrados (proyectar datos sobre subespacios), en cálculo de fuerzas (componente de fuerza en una dirección) y en métodos de reducción de dimensión (busca componentes en direcciones relevantes).

Componente ortogonal (residuo)

  • Definición: La componente ortogonal de \(\mathbf{u}\) respecto a \(\mathbf{v}\) es $\(\operatorname{ort}_{\mathbf{v}}(\mathbf{u}) = \mathbf{u} - \operatorname{proj}_{\mathbf{v}}(\mathbf{u}).\)$

  • Propiedad: \(\operatorname{ort}_{\mathbf{v}}(\mathbf{u})\) es ortogonal a \(\mathbf{v}\).

  • Para qué sirve (breve): el residuo mide la parte de un vector que no puede explicarse por la dirección proyectada; en ajuste por mínimos cuadrados es el error ortogonal que se minimiza, y en análisis de señales permite separar señal (paralela) de ruido (ortogonal).


Dependencia e independencia lineal

  • Definición (independencia): Un conjunto de vectores \(\{\mathbf{v}_1,\dots,\mathbf{v}_k\}\) es linealmente independiente si la única combinación lineal que produce el vector cero es la combinación trivial, es decir, si \(\alpha_1\mathbf{v}_1 + \cdots + \alpha_k\mathbf{v}_k = \mathbf{0}\) implica que todos los escalares \(\alpha_i\) son cero.

  • Definición (dependencia): El conjunto es linealmente dependiente si existen escalares no todos nulos tales que \(\alpha_1\mathbf{v}_1 + \cdots + \alpha_k\mathbf{v}_k = \mathbf{0}.\) En ese caso alguno de los vectores puede expresarse como combinación lineal de los demás.

  • Condiciones prácticas:

  • Si tenemos \(k\) vectores en \(\mathbb{R}^n\) con \(k>n\), entonces son necesariamente dependientes (más vectores que dimensión).

  • Si formamos una matriz cuadrada \(n\times n\) con \(n\) vectores de \(\mathbb{R}^n\) como columnas, la matriz es invertible (determinante no nulo) si y sólo si los vectores son linealmente independientes.
  • Si encontramos una relación explícita del tipo \(\mathbf{v}_j = \sum_{i\ne j} c_i\mathbf{v}_i\), entonces el conjunto es dependiente.

  • Interpretación geométrica: en \(\mathbb{R}^2\) dos vectores independientes determinan el plano; en \(\mathbb{R}^3\) tres vectores independientes definen el espacio completo; la dependencia significa que alguno de los vectores está en el subespacio generado por los otros.

  • Ejemplo rápido: si \(\mathbf{v}_1=(1,0,2)\), \(\mathbf{v}_2=(2,1,3)\) y \(\mathbf{v}_3=(3,1,5)\) entonces \(\mathbf{v}_3=\mathbf{v}_1+\mathbf{v}_2\), por tanto el conjunto es linealmente dependiente.

Nota

La dependencia lineal entre características indica redundancia (multicolinealidad) y puede provocar inestabilidad numérica y coeficientes poco interpretables en modelos lineales. En la práctica se detecta con SVD/valores singulares o la matriz de correlación; respuestas habituales son reducción de dimensión (PCA/SVD), regularización (Ridge/Lasso) o eliminación/combinar características redundantes.


Khan Academy – Matemáticas: explicaciones y ejercicios interactivos de álgebra, funciones, trigonometría, etc. https://es.khanacademy.org/math

Proyecto Descartes: materiales interactivos de Matemáticas I y II de Bachillerato. https://proyectodescartes.org/

Canales de YouTube: Unicoos (David Calle) – Álgebra, funciones, matrices. https://www.unicoos.com/asignatura/matematicas

Matemáticas profesor10 – Ejercicios explicados paso a paso. https://www.youtube.com/profesor10demates

Plan orientativo de repaso (4 semanas):

Semana 1: Aritmética y álgebra básica (potencias, fracciones algebraicas, factorización). Semana 2: Ecuaciones e inecuaciones lineales y cuadráticas. Semana 3: Funciones y gráficas. Semana 4: Matrices, determinantes y sistemas lineales.