Examen alternativo (50 preguntas)
Duración estimada: 90 minutos.
Instrucciones
- Responde marcando la opción correcta:
Verdadero o Falso.
- En cada pregunta se incluye una breve explicación que justifica la respuesta.
Pregunta 1
La media aritmética de una muestra es un estimador insesgado de la media poblacional.
Explicación: La media muestral tiene esperanza igual a la media poblacional, por lo que es insesgada.
Pregunta 2
Si la correlación de Pearson entre X e Y es cero, entonces X e Y son independientes.
Explicación: Correlación cero indica ausencia de relación lineal; puede existir dependencia no lineal.
Pregunta 3
En una distribución perfectamente simétrica la media y la mediana coinciden.
Explicación: La simetría implica que la ubicación central coincide para esas medidas.
Pregunta 4
La varianza muestral usa \(n-1\) en el denominador para corregir el sesgo al estimar la varianza poblacional.
Explicación: La corrección de Bessel (\(n-1\)) hace que \(S^2\) sea insesgado para \(\sigma^2\).
Pregunta 5
La transformación \(Z=\frac{X-\mu}{\sigma}\) transforma \(X\sim N(\mu,\sigma^2)\) en \(Z\sim N(0,1)\).
Explicación: Esa es la estándarización clásica de una normal a la normal estándar.
Pregunta 6
La suma de dos variables aleatorias normales independientes es normal.
Explicación: La clase de distribuciones normales es cerrada bajo suma para independientes.
Pregunta 7
En una distribución de Poisson, la media y la varianza son iguales y valen \(\lambda\).
Explicación: Propiedad característica de Poisson: \(E[X]=Var(X)=\lambda\).
Pregunta 8
La aproximación Binomial→Normal es adecuada si \(np\ge 5\) y \(n(1-p)\ge 5\).
Explicación: Condición heurística común para usar aproximación normal a la binomial.
Pregunta 9
El p-valor es la probabilidad de que la hipótesis nula sea verdadera dados los datos observados.
Explicación: El p-valor es la probabilidad de observar datos al menos tan extremos bajo H₀, no P(H₀|datos).
Pregunta 10
Si \(p<\alpha\) se rechaza \(H_0\) al nivel de significación \(\alpha\).
Explicación: Regla de decisión estándar en contrastes de hipótesis.
Pregunta 11
Un intervalo de confianza del 95% significa que hay 95% de probabilidad de que el parámetro esté dentro del intervalo calculado a partir de los datos.
Explicación: Interpretación frecuentista: 95% de los intervalos construidos contienen el parámetro, no probabilidad condicional sobre el parámetro.
Pregunta 12
La mediana es más robusta que la media frente a valores extremos.
Explicación: La mediana no se ve afectada por outliers tanto como la media.
Pregunta 13
El rango intercuartílico (IQR) mide la dispersión del 50% central de los datos.
Explicación: IQR = Q3 − Q1 y resume la dispersión central, siendo robusto.
Pregunta 14
Un boxplot identifica de forma inequívoca todos los outliers reales del conjunto de datos.
Explicación: El criterio (1.5·IQR) es una regla práctica; la identificación puede depender del criterio y contexto.
Pregunta 15
En el test χ² de independencia, como regla práctica conviene que las frecuencias esperadas sean al menos 5.
Explicación: Celdas con esperadas <5 pueden invalidar la aproximación χ²; opciones: agrupar o usar pruebas exactas.
Pregunta 16
El coeficiente de correlación de Pearson detecta relaciones lineales entre variables numéricas.
Explicación: Pearson mide asociación lineal; relaciones no lineales pueden pasar desapercibidas.
Pregunta 17
En regresión lineal simple, \(R^2\) equivale al cuadrado de la correlación entre X e Y.
Explicación: Para regresión simple se cumple \(R^2 = r^2\).
Pregunta 18
Un estimador consistente no necesita ser insesgado en muestras finitas.
Explicación: Consistencia y sesgo son propiedades diferentes; consistencia refiere a comportamiento asintótico.
Pregunta 19
Si X e Y son independientes, entonces \(Var(X+Y)=Var(X)+Var(Y)\).
Explicación: Para variables independientes la varianza de la suma es la suma de varianzas.
Pregunta 20
La distribución t de Student tiene colas más pesadas que la normal para pocos grados de libertad.
Explicación: Colas más pesadas reflejan mayor incertidumbre en muestras pequeñas.
Pregunta 21
Cuando la varianza poblacional es desconocida y la muestra es pequeña se usa el test t con \(n-1\) grados de libertad.
Explicación: Procedimiento estándar para inferir sobre la media con σ desconocida y n pequeño.
Pregunta 22
Si \(n\ge 30\), siempre es correcto sustituir un test t por un test Z sin mayor coste práctico.
Explicación: Por el TCL la t aproxima la normal para n grandes; en la práctica se usa Z como aproximación.
Pregunta 23
La media y la mediana muestral coinciden necesariamente para cualquier muestra.
Explicación: Solo coinciden en casos de simetría o distribuciones específicas; en general difieren.
Pregunta 24
La proporción muestral \(\hat{p}\) es un estimador insesgado de \(p\).
Explicación: Para muestreo binomial i.i.d. se cumple \(E[\hat{p}]=p\).
Pregunta 25
La distribución geométrica tiene la propiedad de falta de memoria.
Explicación: P(X>n+m | X>n) = P(X>m) para la geométrica.
Pregunta 26
Una densidad (PDF) puede tomar valores mayores que 1.
Explicación: El valor del PDF no está limitado a 1; lo importante es que su integral sea 1.
Pregunta 27
En un histograma con intervalos de igual ancho, la altura de las barras refleja frecuencias comparables.
Explicación: Con binas iguales la altura corresponde a la frecuencia absoluta o relativa en ese intervalo.
Pregunta 28
Para una exponencial \(Exp(\lambda)\) la media es igual a la varianza.
Explicación: E[X]=1/λ y Var(X)=1/λ^2; no coinciden salvo en valores concretos de λ.
Pregunta 29
La aproximación Binomial→Poisson es adecuada cuando n es grande y p es pequeño con λ=np moderado.
Explicación: Condición clásica para aproximar Binomial por Poisson bajo p pequeño y n grande.
Pregunta 30
El coeficiente de variación (CV) se utiliza para comparar dispersión relativa entre datasets con medias distintas.
Explicación: CV = s/\bar{x} es una medida de dispersión relativa útil entre escalas distintas.
Pregunta 31
La moda siempre existe y es única.
Explicación: Puede no existir (ningún valor repetido) o existir más de una (multimodalidad).
Pregunta 32
Un p-valor alto en χ² significa que no hay evidencia para rechazar independencia.
Explicación: P-valor grande indica que los datos son compatibles con H₀ (independencia).
Pregunta 33
En una PMF discreta, la suma de probabilidades de todos los resultados posibles debe ser 1.
Explicación: Propiedad básica de cualquier distribución discreta.
Pregunta 34
El test χ² de bondad de ajuste es robusto incluso con muestras muy pequeñas sin ajustes.
Explicación: Con muestras pequeñas la aproximación χ² puede fallar; se recomiendan alternativas exactas o agrupaciones.
Pregunta 35
La esperanza de una Bernoulli(p) es p.
Explicación: Propiedad elemental: E[X]=p para Bernoulli.
Pregunta 36
El error cuadrático medio (ECM) de un estimador combina varianza y sesgo al cuadrado.
Explicación: ECM(\hat{θ}) = Var(\hat{θ}) + Bias(\hat{θ})^2.
Pregunta 37
Para comparar dos medias independientes con varianzas desconocidas, siempre hay que asumir varianzas iguales.
Explicación: Existen versiones con varianzas iguales (pooled) y con varianzas distintas (Welch); no es obligatorio asumir igualdad.
Pregunta 38
En un modelo de regresión correctamente especificado, el término de error tiene esperanza cero condicional a X.
Explicación: Supuesto clásico: E[ε|X]=0, lo que implica esperanza cero de residuos en población.
Pregunta 39
El error tipo I (α) disminuye automáticamente si aumentamos la muestra sin cambiar la regla de decisión.
Explicación: α es fijado por el investigador; aumentar n aumenta potencia pero no cambia α si la regla se mantiene.
Pregunta 40
La potencia de un test aumenta al aumentar el tamaño muestral manteniendo α y el efecto constantes.
Explicación: Mayor n reduce la varianza del estimador, aumentando la probabilidad de detectar un efecto real.
Pregunta 41
Si X e Y son independientes entonces su covarianza es cero.
Explicación: Independencia implica Cov(X,Y)=0; la recíproca no siempre es verdadera.
Pregunta 42
El teorema central del límite asegura normalidad exacta de la media muestral para cualquier tamaño muestral.
Explicación: TCL es asintótico; la normalidad es aproximada y mejora con n grande, no inmediata para cualquier n.
Pregunta 43
En una distribución normal aproximadamente el 95% de los datos se encuentra dentro de ±2 desviaciones estándar.
Explicación: Regla empírica 68-95-99.7 aplica para ±1, ±2, ±3 σ.
Pregunta 44
El estadístico F satisface \(F_{\alpha;k_1,k_2} = 1 / F_{1-\alpha;k_2,k_1}\) (relación de reciprocidad entre percentiles).
Explicación: Relación conocida entre percentiles de F con intercambio de grados de libertad.
Pregunta 45
Una probabilidad condicional \(P(A|B)\) puede ser mayor que 1.
Explicación: Las probabilidades condicionales respetan 0 ≤ P(·|·) ≤ 1.
Pregunta 46
En Poisson, λ se interpreta como la tasa media de ocurrencia por unidad de tiempo o espacio.
Explicación: λ es la tasa esperada de eventos en el intervalo definido.
Pregunta 47
Un histograma siempre revela de forma fiable si una distribución es multimodal.
Explicación: La apariencia depende de la elección de bins; multimodalidad puede ocultarse o aparecer.
Pregunta 48
La aproximación Poisson de una Binomial es válida cuando n es grande y p es pequeño con λ=np moderado (repetición intencional).
Explicación: Condición clásica para aproximación Bin→Poisson.
Pregunta 49
Un intervalo de credibilidad bayesiano del 95% puede interpretarse como que hay 95% de probabilidad de que el parámetro esté dentro del intervalo.
Explicación: Interpretación bayesiana asigna probabilidad al parámetro dada la posterior.
Pregunta 50
Sumar una constante a una variable aleatoria no cambia su covarianza con otra variable.
Explicación: Cov(X+c,Y)=Cov(X,Y) porque la constante no afecta desviaciones respecto a la media.
Los resultados del cuestionario se guardan en el almacenamiento local de tu navegador y persistirán entre sesiones.
Progreso del cuestionario
0 / 0 preguntas respondidas
(0%)
0 correctas
¡Cuestionario completado!
0%