Resolución de Problemas Basada en Escenarios
Estás construyendo un modelo de detección de fraude. El conjunto de datos tiene un 1% de transacciones fraudulentas. ¿Cómo manejarías este desequilibrio de clases?
Respuesta:
Utilizaría técnicas como el sobremuestreo (SMOTE), el submuestreo o una combinación. Alternativamente, consideraría usar algoritmos robustos al desequilibrio como LightGBM o XGBoost, y evaluaría el rendimiento utilizando precisión (precision), exhaustividad (recall), F1-score o AUC-ROC en lugar de la precisión general (accuracy).
Una nueva característica, 'user_age', está altamente correlacionada con 'user_income'. ¿Cómo decidirías cuál incluir en tu modelo de regresión lineal?
Respuesta:
Evaluaría la relevancia del dominio y la interpretabilidad de cada característica. Si ambas son igualmente relevantes, consideraría usar el Factor de Inflación de Varianza (Variance Inflation Factor - VIF) para detectar multicolinealidad. Si el VIF es alto para ambas, podría elegir una basándome en el poder predictivo o combinarlas si es apropiado, o usar técnicas de regularización como Ridge/Lasso.
Tu modelo funciona bien en los datos de entrenamiento pero mal en los datos de prueba no vistos. ¿Qué pasos tomarías para diagnosticar y solucionar esto?
Respuesta:
Esto indica sobreajuste (overfitting). Verificaría fugas de datos (data leakage), reduciría la complejidad del modelo (por ejemplo, menos características, algoritmos más simples, grados polinómicos más bajos), aumentaría los datos de entrenamiento o aplicaría técnicas de regularización (L1/L2). La validación cruzada (cross-validation) también ayudaría a obtener una estimación de rendimiento más robusta.
Has desplegado un sistema de recomendación y los usuarios se quejan de recomendaciones irrelevantes. ¿Cómo depurarías esto?
Respuesta:
Primero verificaría la canalización de datos (data pipeline) en busca de problemas (por ejemplo, datos obsoletos, ingeniería de características incorrecta). Luego, analizaría los patrones de retroalimentación de los usuarios, revisaría la lógica y los parámetros del algoritmo de recomendación, y realizaría pruebas A/B con estrategias de recomendación alternativas o versiones del modelo para identificar mejoras.
Necesitas predecir la deserción de clientes (customer churn). ¿Qué métricas priorizarías para evaluar tu modelo y por qué?
Respuesta:
Priorizaría la Exhaustividad (Recall) para minimizar los falsos negativos (es decir, no identificar a un cliente que se va) y la Precisión (Precision) para evitar dirigirse innecesariamente a clientes que no se van. El F1-score proporciona un equilibrio, y el AUC-ROC es bueno para la discriminación general del modelo en varios umbrales, especialmente con datos desequilibrados.
Tu conjunto de datos tiene muchos valores faltantes en una característica crítica. ¿Cómo los manejarías?
Respuesta:
El enfoque depende del patrón y el porcentaje de valores faltantes. Las opciones incluyen la imputación (media, mediana, moda, K-NN, imputación por regresión), o el uso de modelos que puedan manejar valores faltantes de forma inherente (por ejemplo, XGBoost, LightGBM). Si falta un gran porcentaje, se podría considerar eliminar la característica o las filas, pero con precaución.
Estás construyendo un modelo para predecir precios de casas. ¿Qué características considerarías y cómo manejarías las características categóricas como 'neighborhood'?
Respuesta:
Las características clave incluirían el área habitable, el número de dormitorios/baños, el tamaño del lote, el año de construcción, la ubicación (barrio o neighborhood) y el tipo de propiedad. Para 'neighborhood', usaría codificación one-hot (one-hot encoding) o codificación por objetivo (target encoding). Para alta cardinalidad, la codificación por objetivo o la agrupación de categorías raras podrían ser efectivas.
¿Cómo le explicarías el concepto de 'valor p' (p-value) a un interlocutor no técnico?
Respuesta:
Un valor p nos dice qué tan probable es observar nuestros datos (o datos más extremos) si realmente no hubiera ningún efecto o relación. Un valor p pequeño (típicamente < 0.05) sugiere que nuestro resultado observado es poco probable que se deba al azar, por lo que podemos estar seguros de que hay un efecto real.
Has construido un modelo de clasificación y su precisión (accuracy) es del 95%. ¿Es esto suficiente? ¿Qué más revisarías?
Respuesta:
La precisión por sí sola no es suficiente, especialmente con clases desequilibradas. Revisaría la matriz de confusión (confusion matrix) para comprender los falsos positivos y falsos negativos. También miraría la precisión (precision), la exhaustividad (recall), el F1-score y el AUC-ROC. El contexto del dominio es crucial; un 95% podría ser excelente para algunos problemas pero pobre para otros (por ejemplo, detección de enfermedades raras).
Describe un escenario en el que usar un modelo simple (por ejemplo, Regresión Logística) podría ser preferible a uno complejo (por ejemplo, Deep Learning).
Respuesta:
Los modelos simples se prefieren cuando la interpretabilidad es crítica, los recursos computacionales son limitados, el conjunto de datos es pequeño o el problema es linealmente separable. Son más fáciles de depurar, más rápidos de entrenar y menos propensos al sobreajuste en conjuntos de datos pequeños, a menudo proporcionando un rendimiento suficiente para muchos problemas empresariales.