
Sign up to save your podcasts
Or


Un modelo que predice bien no siempre es suficiente. Si no podemos explicar sus resultados, nadie lo va a usar con confianza.
En este episodio hablamos de explicabilidad en machine learning: qué es, por qué es tan importante y cómo herramientas como LIME y SHAP nos ayudan a entender qué está pasando dentro de un modelo.
Si quieres que tus modelos no solo acierten, sino que también inspiren confianza y decisiones reales en el negocio, este episodio es para ti.
By Jorge Leonardo LoretoUn modelo que predice bien no siempre es suficiente. Si no podemos explicar sus resultados, nadie lo va a usar con confianza.
En este episodio hablamos de explicabilidad en machine learning: qué es, por qué es tan importante y cómo herramientas como LIME y SHAP nos ayudan a entender qué está pasando dentro de un modelo.
Si quieres que tus modelos no solo acierten, sino que también inspiren confianza y decisiones reales en el negocio, este episodio es para ti.