En la práctica científica, inferir la causalidad implica adentrarse en un terreno donde la pureza experimental rara vez es posible. Los investigadores, sin embargo, disponen de oportunidades únicas cuando la realidad ofrece algo parecido a un experimento natural. Estos eventos —como la pandemia de COVID-19— introducen transformaciones súbitas e imprevisibles que no dependen de las características previas de los individuos. El cierre de escuelas, las cuarentenas, el trabajo remoto o las campañas de vacunación se implementaron con tal grado de aleatoriedad que permitieron comparar regiones, momentos o políticas distintas y, con ello, extraer inferencias causales.
Comparar estados que adoptaron el uso obligatorio de mascarillas con aquellos que no lo hicieron, o áreas con tasas de vacunación más altas con otras similares pero menos vacunadas, nos permite aproximarnos a los efectos de las intervenciones. No obstante, tales comparaciones nunca alcanzan el estatus de un experimento controlado. Para aproximarnos a la causalidad, es indispensable ajustar por variables que también influyen en los resultados: la densidad poblacional, la estructura de edad, el nivel de riqueza, la movilidad o las normas sociales. Solo al controlar rigurosamente estos factores podemos reducir el sesgo y acercarnos a una estimación verosímil del impacto causal.
En el núcleo de toda inferencia causal se encuentran tres supuestos fundamentales. Consistencia: el resultado potencial bajo un tratamiento observado debe coincidir con el resultado efectivamente observado. En otras palabras, no debe haber interferencia entre unidades —lo que le ocurre a un individuo no debe alterar directamente lo que ocurre a otro— ni variaciones ocultas del tratamiento. Intercambiabilidad: la asignación del tratamiento debe ser independiente de los resultados potenciales una vez que se condiciona en las covariables observadas; dicho de otro modo, no debe haber confusión no medida. Positividad: cada individuo debe tener una probabilidad positiva de recibir cualquier nivel del tratamiento considerado.
Cumplir con estos supuestos rara vez es sencillo. Si, por ejemplo, un investigador quiere evaluar el efecto de un nuevo plan de estudios sobre el rendimiento de los estudiantes, la interacción entre ellos puede violar el principio de no interferencia. Los alumnos que reciben el tratamiento podrían compartir materiales o ideas con otros, amplificando o distorsionando el efecto. En tales casos, el diseño experimental debe reconsiderarse para evitar interpretaciones erróneas.
Una de las amenazas más persistentes en este tipo de análisis es la confusión. El confusor es una variable que afecta tanto al tratamiento como al resultado. Cuando omitimos su presencia en el modelo, las estimaciones se sesgan. Un experimento sintético con datos simulados puede ilustrarlo con claridad: si una variable no observada influye tanto en el tratamiento como en el resultado , el coeficiente estimado de estará inflado si no controlamos por . Al incluir en el modelo, el coeficiente de se acerca a su valor real, reduciendo el sesgo. Este sencillo ejercicio numérico demuestra que, en la inferencia causal, no basta con ajustar modelos predictivos: debemos comprender los mecanismos que generan los datos.
La diferencia entre correlación y causalidad es, en esencia, una diferencia de intención. La correlación describe patrones; la causalidad busca mecanismos. Un modelo predictivo puede anticipar el comportamiento de una variable, pero sin entender las relaciones causales subyacentes, no puede orientar decisiones o políticas. Los modelos causales, en cambio, no se conforman con describir; intentan explicar qué ocurre cuando algo cambia.
La inferencia causal, por tanto, no se reduce a una técnica estadística. Es una manera de pensar sobre el mundo. Exige reconocer que toda observación está mediada por condiciones, dependencias y contextos, y que la verdad causal emerge solo cuando conseguimos, con rigor, aislar los vínculos genuinos de influencia. La pandemia, los ensayos educativos, las intervenciones sociales: todos ellos se convierten en escenarios donde la naturaleza, a veces por azar, nos presta los experimentos que no podríamos realizar deliberadamente.
Comprender la causalidad significa aceptar que los modelos son aproximaciones, no reflejos exactos de la realidad. Lo esencial no es eliminar la incertidumbre, sino hacer explícitos los supuestos, someterlos a prueba y construir inferencias que resistan el escrutinio. Solo así la ciencia avanza desde la correlación hacia la comprensión genuina de los procesos que rigen nuestras sociedades y nuestras vidas.
¿Cómo hacer que los modelos sean comprensibles y útiles en la práctica de la ciencia de datos?
Comprender un modelo no es solamente una cuestión de ecuaciones o de código. Es, ante todo, un ejercicio de interpretación: la capacidad de ver detrás de la forma matemática una representación del mundo. En la ciencia de datos, cada modelo —sea lineal o basado en redes neuronales profundas— no es un fin en sí mismo, sino un medio para traducir relaciones, patrones y dependencias que emergen de los datos. La complejidad técnica solo tiene sentido si se traduce en comprensión y acción.
El propósito de un enfoque práctico en modelado es doble. Por un lado, busca ofrecer fundamentos teóricos sólidos que orienten al lector en la estructura conceptual de los modelos; por otro, pretende que dichos fundamentos puedan implementarse en código real, que se pueda ejecutar, examinar y modificar. La combinación de ejemplos en Python y R responde a esta idea: la teoría no se entiende plenamente hasta que se ve cómo se comporta en un entorno concreto. La ejecución de un fragmento de código, por simple que parezca, convierte una noción abstracta —como la regresión, la estimación o la clasificación— en una experiencia tangible.
La interpretación del modelo es una tarea tanto técnica como filosófica. Interpretar no significa solo medir el error de predicción o ajustar parámetros hasta obtener un mejor rendimiento, sino reflexionar sobre qué nos dice el modelo y qué no. Las métricas de precisión o el valor de una función de pérdida no revelan necesariamente el sentido del fenómeno observado. Un modelo que predice con exactitud pero que no ofrece comprensión puede ser tan inútil como uno que no predice bien. Por eso, toda práctica de modelado exige equilibrar dos dimensiones: la predictiva y la explicativa. Una predicción es útil cuando genera comprensión; una explicación es valiosa cuando mejora nuestra capacidad de prever.
Cada modelo está rodeado de supuestos, muchos de los cuales permanecen invisibles para el principiante. Esos supuestos —linealidad, independencia, normalidad, homocedasticidad— definen los límites de la interpretación. El error más frecuente en la práctica del análisis de datos no es técnico, sino epistemológico: olvidar que todo modelo es una simplificación. No existe modelo perfecto, solo representaciones aproximadas, útiles bajo condiciones específicas. De ahí que el trabajo del científico de datos consista no solo en construir modelos, sino en entender cuándo y por qué dejan de funcionar.
Las trampas comunes del modelado no se encuentran en los algoritmos, sino en los datos. Datos incompletos, ruido, sesgo, variables irrelevantes o correlaciones espurias pueden arruinar incluso el método más sofisticado. La limpieza, la transformación y la validación de los datos son etapas de interpretación tanto como lo son los cálculos estadísticos. Modelar es, en última instancia, un proceso de traducción: transformar la imperfección del mundo en una estructura analítica capaz de generar conocimiento.
Evitar los errores más comunes implica adoptar buenas prácticas: validar siempre los resultados con diferentes subconjuntos de datos, cuestionar las métricas utilizadas, no confundir correlación con causalidad, y sobre todo, mantener la trazabilidad del razonamiento. Cada decisión técnica —desde la elección de un modelo lineal hasta la implementación de una red neuronal— debe poder justificarse conceptualmente. El rigor en la interpretación es lo que distingue a la ciencia de datos de una mera aplicación automática de algoritmos.
El paso de los modelos lineales a los de aprendizaje profundo no debe entenderse como una evolución jerárquica, sino como un cambio en la forma de representar la complejidad. Los modelos simples ofrecen transparencia; los complejos, potencia. En la práctica, la verdadera maestría consiste en saber cuándo la simplicidad es suficiente y cuándo la complejidad es necesaria. En ambos casos, el objetivo sigue siendo el mismo: construir representaciones que no solo predigan, sino que expliquen.
Lo esencial que debe comprender el lector es que el modelado no es un conjunto de técnicas, sino un modo de pensar. Interpretar modelos es interpretar relaciones humanas, económicas, sociales o naturales expresadas a través de datos. El código es solo el instrumento; la comprensión, el fin. Aprender a leer los modelos —en sus números, en sus gráficos, en sus errores— es aprender a leer el mundo.
¿Cómo interpretar los valores SHAP y su relación con las predicciones de un modelo?
Los valores SHAP surgen como una forma precisa y elegante de descomponer la predicción de un modelo en las contribuciones específicas de cada característica. En esencia, lo que hacen es responder a una pregunta crucial en la interpretación de modelos:
¿Cómo evaluar la importancia de las características en modelos complejos?
Para cualquier observación que queramos analizar, y más aún para cualquier modelo que utilicemos, podemos obtener una idea de cómo influyen las características en la predicción. Una herramienta útil en este análisis es el gráfico de Expectativa Condicional Individual (ICE), que no es más que un PDP aplicado a una sola observación pero a lo largo de todos los valores de una característica seleccionada. Al observar varias observaciones simultáneamente, podemos percibir la variabilidad en el efecto de la característica. Con modelos lineales simples, la información que aporta un ICE no difiere demasiado de la de un PDP, pero adquiere relevancia cuando aparecen interacciones o relaciones no lineales dentro del modelo.
Existen también gráficos similares, como el gráfico de Efecto Local Acumulado (ALE), que se muestra más robusto frente a características correlacionadas y que refleja la relación general entre la característica y el objetivo. Mientras que los PDP y ICE muestran el efecto promedio de una característica sobre la predicción, el ALE se centra en las diferencias promedio en las predicciones para un valor específico de la característica frente a valores cercanos, ajustando finalmente el resultado para que la diferencia promedio sea cero. En todos estos gráficos, es posible observar, por ejemplo, la relación lineal positiva entre la duración de una película y su calificación.
Para generar estos gráficos existen herramientas como DALEX, que produce gráficos tipo “waterfall”, o los paquetes shap y scikit-learn en Python, y el paquete iml en R. Cada uno permite explorar cómo se comporta cada característica y facilita la interpretación de modelos complejos.
Cuando nos preguntamos por la importancia global de una característica, entramos en un terreno más delicado. No existe una definición única ni un indicador que mida de forma concluyente la importancia relativa de una característica en todos los modelos y contextos. Existen múltiples métricas válidas, aunque pueden conducir a conclusiones diferentes. Incluso contribuciones muy pequeñas pueden considerarse “importantes”, y muchas métricas no capturan adecuadamente interacciones o manejan mal las características correlacionadas. Todas las medidas de importancia llevan inherente un grado de incertidumbre.
La importancia de una característica también depende del contexto: un modelo débil puede mostrar características aparentemente importantes que, en la práctica, no aportan valor. Por eso, eliminar características únicamente por su importancia puede reducir el rendimiento del modelo. Además, conocer la relación de una característica con el objetivo requiere comprender cómo se mueve esa característica y cuáles son sus valores más probables. Por ejemplo, si el objetivo es el precio de una acción, un cambio de 2 unidades puede ser significativo, mientras que para el salario sería irrelevante.
Otro aspecto crítico es la interacción entre características. Si dos características están correlacionadas, una puede no aportar mucho al modelo aunque las métricas indiquen lo contrario. Algunos enfoques distribuyen la contribución entre las características correlacionadas, mientras que otros eligen una de ellas, dejando la otra de lado. De manera similar, los efectos sinérgicos no pueden interpretarse ignorando la presencia de la otra característica; cualquier métrica que trate de promediar contribuciones puede ser problemática si no considera los valores específicos de las características involucradas. Por ejemplo, un fármaco puede ser eficaz solo para ciertos rangos de edad o condiciones de salud; la importancia general promedio no refleja su utilidad real.
Es fundamental, por tanto, conocer el objetivo tan bien como conocemos la característica que lo predice, entender la distribución de la característica, su rango típico de movimiento y cómo se relaciona con otras variables. Solo así la interpretación de los gráficos y métricas de importancia tendrá sentido y permitirá decisiones informadas sobre el modelo y sus predicciones.
¿Qué significa realmente comprender los modelos en ciencia de datos?
Vivimos en una época en la que los datos impregnan cada aspecto de nuestra existencia. Desde las primeras intuiciones con las que intentamos explicar el mundo hasta las estructuras más sofisticadas de conocimiento, todo se traduce hoy en información. La ciencia de datos no es una disciplina aislada: es un modo de pensamiento, una manera de organizar la complejidad mediante representaciones formales del comportamiento del mundo. Sin embargo, comprender los modelos no significa simplemente aprender técnicas; implica asimilar la relación entre la estructura matemática y el fenómeno que intenta describirse.
Un modelo es una metáfora cuantitativa. Resume la realidad sin agotarla, captura patrones sin pretender abarcarlo todo. La linealidad de una regresión o la profundidad de una red neuronal no son propiedades del universo, sino herramientas humanas para aproximarnos a él. Por eso, la primera lección en la práctica del modelado no consiste en programar ni en ajustar parámetros, sino en aprender a pensar con precisión. Antes del análisis de datos, el trabajo difícil ya está hecho: identificar la pregunta causal, delimitar el contexto y reconocer los sesgos implícitos en nuestras hipótesis.
Los modelos no prueban relaciones causales. Ninguna fórmula, por más elegante que sea, puede demostrar que un fenómeno genera otro si el diseño experimental no lo sustenta. La asignación aleatoria, aunque esencial, no basta para garantizar causalidad; sin una comprensión profunda de las condiciones del entorno, la interpretación será, en el mejor de los casos, incompleta. Ignorar los aspectos causales equivale a construir sobre arena: la predicción puede funcionar temporalmente, pero carece de fundamento interpretativo.
El tratamiento de los datos es otro terreno donde se juega la autenticidad del modelo. Las transformaciones estadísticas no son simples operaciones técnicas: implican decisiones filosóficas sobre qué significa medir, normalizar o imputar. Los errores de medición, las imputaciones arbitrarias o la eliminación precipitada de valores atípicos distorsionan el sentido del fenómeno. En la práctica, los outliers son tan reales como los datos que se ajustan al promedio; representan la frontera donde el modelo se encuentra con la resistencia del mundo.
Incluso el llamado “big data” suele ser menos vasto de lo que parece. La magnitud no garantiza representatividad, ni la abundancia asegura conocimiento. Lo que importa no es el volumen de los datos, sino la densidad de su significado. Un conjunto pequeño, cuidadosamente comprendido, puede ofrecer más claridad que millones de observaciones carentes de contexto.
El hilo conductor de toda práctica de modelado es la búsqueda de coherencia. Entre la simplicidad interpretativa y el poder predictivo, entre la intuición humana y el cálculo automatizado, el científico de datos debe aprender a equilibrar. No se trata de elegir entre el rigor estadístico y la eficiencia algorítmica, sino de integrarlos de manera que ambos sirvan a la comprensión. Cada modelo, desde el más elemental hasta el más complejo, es una invitación a pensar de nuevo qué significa “entender”.
Lo que es verdaderamente importante para el lector es reconocer que la ciencia de datos no trata de reemplazar la intuición humana por máquinas, sino de refinar esa intuición con disciplina matemática. Comprender un modelo es comprender también sus límites: saber cuándo hablar con sus
¿Cómo reconocer huellas y señales en el desierto para encontrar un rastro?
¿Cómo crear y personalizar una muñeca con sombrero y alfileres?
¿Cómo se vive la vida difícil de un hombre común?
¿Cuál es el impacto de los triángulos de hierro en los servicios gubernamentales de Estados Unidos?
¿Cómo influye la elevación en el peso de los Leadbeater’s possums?
"¡Yo recuerdo! ¡Yo estoy orgulloso!" Hora de clase dedicada al 72º aniversario de la victoria en la Gran Guerra Patria
¡Hora de clase sobre el "Secreto de la Salud!" (Sobre los beneficios de la miel y la leche)
El evento "Paloma de la Paz"
Análisis del Programa de Trabajo de Matemáticas para los grados 5-9

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский