Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
Podcast oficial de BIMPRAXIS.Hablamos de Inteligencia Artificial, Building Information Modeling, por separado o en virtuosa i... more
FAQs about BIMPRAXIS:How many episodes does BIMPRAXIS have?The podcast currently has 72 episodes available.
February 01, 2026E032_La destilación del conocimiento en los modelos de lenguaje grandes (LLM)¿Alguna vez te has preguntado cómo logramos que los gigantescos Modelos de Lenguaje Grande (LLMs) quepan en dispositivos más pequeños sin perder su “inteligencia”? 🧠✨ En este episodio desglosamos el fascinante mundo de la Knowledge Distillation (Destilación de Conocimiento), la técnica maestra que transfiere la sabiduría de un modelo “profesor” masivo a un “alumno” ágil y eficiente. 📱 Pero hay una trampa en los métodos actuales: descubriremos por qué los atajos populares, como guardar solo las probabilidades más altas (Top-K), están creando modelos sesgados y peligrosamente sobreconfiados en sus errores. 🚫🔍Nos sumergimos en la última investigación de 2025, “Sparse Logit Sampling”, que propone una solución elegante y poderosa: la Random Sampling Knowledge Distillation. 📉💡 Analizamos cómo este nuevo enfoque utiliza el muestreo por importancia para lograr estimaciones imparciales almacenando apenas 12 tokens (frente a los miles habituales), reduciendo drásticamente el almacenamiento sin sacrificar la calidad del aprendizaje. 🚀 Dale al play para entender cómo esta técnica preserva la información crítica de la “cola” de probabilidades y está redefiniendo la eficiencia en la IA con un coste computacional mínimo. 🎧🔥Enlaces relevantes:• Paper original: Sparse Logit Sampling: Accelerating Knowledge Distillation in LLMs (ArXiv)• Conceptos básicos: Destilación de Conocimiento (Wikipedia)...more15minPlay
January 30, 2026E031_Los modelos de lenguaje pequeños son el futuro¿Y si te dijera que el futuro de la Inteligencia Artificial no está en hacer los modelos más grandes, sino más pequeños? 🤔 Mientras el mundo sigue maravillado con la capacidad de conversación humana de los LLMs masivos, una nueva investigación plantea que los Small Language Models (SLMs) son la verdadera clave para escalar la IA Agéntica. 🤖 En este episodio, desglosamos por qué utilizar modelos gigantes para tareas repetitivas es ineficiente y cómo los SLMs están demostrando ser suficientemente poderosos, mucho más adecuados y necesariamente más económicos para los sistemas autónomos que vienen.Sumérgete con nosotros en el fascinante concepto de los sistemas agénticos heterogéneos, una arquitectura donde múltiples modelos colaboran y donde la especialización supera a la generalización. 💡 Hablaremos sobre la propuesta de convertir agentes basados en LLM a versiones SLM más ligeras y rápidas, reduciendo drásticamente los costes de despliegue sin sacrificar rendimiento. Si quieres entender por qué la agilidad y la eficiencia operativa están a punto de destronar al tamaño bruto en la industria de la IA, este análisis es para ti. ¡Dale al play y adelántate a la próxima gran tendencia tecnológica! 🚀📉Fuentes mencionadas:• Paper: Small Language Models are the Future of Agentic AI (arXiv)...more15minPlay
January 29, 2026E030_La IA que muestra cómo piensa: "o1"¿Te imaginas una IA que piensa antes de responder? 🧠 En este episodio exploramos el lanzamiento de OpenAI o1, el nuevo modelo que rompe con lo establecido al utilizar una profunda cadena de pensamiento interna. A diferencia de sus predecesores, este sistema se toma su tiempo para razonar, identificar errores y descomponer problemas complejos paso a paso. Descubre cómo esta tecnología ha logrado superar a expertos humanos (PhD) en física, química y biología 🧪, y posicionarse entre los 500 mejores estudiantes de matemáticas de EE. UU. 🎓✨.Analizamos qué significa realmente este salto cualitativo desde GPT-4o: desde su impresionante percentil 89 en programación competitiva 💻 hasta su capacidad para mejorar drásticamente la seguridad y alineación del modelo gracias a su razonamiento 🛡️. ¿Estamos ante el fin de la IA que solo “predice” palabras y el inicio de la IA que deduce? Dale al play ▶️ y acompáñanos a descifrar los secretos, la estrategia de “ocultar el pensamiento” y el inmenso potencial de aprender a razonar con los nuevos LLM. ¡No te lo pierdas! 🚀Fuente: OpenAI: Aprender a razonar con los LLM...more16minPlay
January 28, 2026E029_Llama 3: el terremoto del código abierto🦙 ¿Está Llama 3 a la altura de GPT-4? En este episodio desgranamos el paper “The Llama 3 Herd of Models”, donde se presenta la nueva familia de modelos fundacionales que está sacudiendo el panorama de la Inteligencia Artificial. Analizamos a la joya de la corona: un Transformer denso de 405.000 millones de parámetros con una impresionante ventana de contexto de 128K tokens. Descubre cómo este ““rebaño”” (herd) de modelos nativos domina tareas complejas de programación 💻, razonamiento lógico 🧠 y multilingüismo 🌍, ofreciendo una calidad comparable a los sistemas cerrados líderes del mercado.🔬 Pero la evolución va más allá del texto. Exploramos el enfoque composicional de Llama 3 para integrar capacidades multimodales de imagen, video 📹 y voz 🗣️, las cuales ya muestran un rendimiento competitivo frente al estado del arte. Además, discutimos la implementación de Llama Guard 3, el guardián diseñado para garantizar la seguridad tanto en las entradas como en las salidas del modelo. Si quieres entender la arquitectura detrás de esta revolución y qué significa para el futuro de la IA, ¡dale al play y acompáñanos en este análisis técnico! 🎧✨Fuentes:• The Llama 3 Herd of Models (arXiv:2407.21783)...more19minPlay
January 27, 2026E028_Abrir el capó de Claude Sonnet¿Alguna vez te has preguntado qué “piensa” realmente una IA antes de responderte? 🧠 En este episodio nos adentramos en la fascinante investigación de Anthropic sobre Claude 3 Sonnet, donde han logrado abrir la “caja negra” de las redes neuronales a gran escala. 🔓 Utilizando una técnica llamada Sparse Autoencoders, los investigadores han extraído millones de características interpretables, creando un mapa detallado de la mente del modelo. Descubriremos cómo han identificado neuronas específicas para conceptos tan variados como el Golden Gate Bridge 🌁, errores de programación sutiles 💻, e incluso abstracciones complejas como la ironía o la poesía. 🤯Pero lo más sorprendente no es solo ver estas características, sino controlarlas. 🎛️ Analizaremos cómo este avance permite “sintonizar” el comportamiento del modelo, amplificando o suprimiendo rasgos vinculados a la adulación, el engaño 🤥 o el conocimiento peligroso sobre armas biológicas ☣️. Es un paso crucial para la seguridad de la IA, permitiéndonos entender y mitigar riesgos ocultos antes de que ocurran. 🛡️ Dale al play para explorar cómo la interpretabilidad mecánica está cambiando las reglas del juego y qué sucede realmente cuando obligas a una IA a obsesionarse con un puente. 🌉✨Fuentes relevantes:• Scaling Monosemanticity: Extracting Interpretable Features from Claude 3 Sonnet...more16minPlay
January 26, 2026E027_KAN vs. MLP: Una nueva arquitectura de redes neuronales¿Y si los Multi-Layer Perceptrons (MLPs) que sustentan la mayor parte de la IA actual tuvieran una alternativa más eficiente? 🧠 En este episodio nos adentramos en el fascinante mundo de las Kolmogorov-Arnold Networks (KANs), una nueva arquitectura inspirada en el teorema de representación de Kolmogorov-Arnold que desafía el diseño clásico de las redes neuronales. A diferencia de los modelos tradicionales con funciones fijas en los nodos, las KANs trasladan la complejidad a las conexiones, utilizando funciones de activación aprendibles en los propios pesos. 📉 Analizamos cómo este cambio, aparentemente sencillo, permite que redes mucho más pequeñas superen a grandes MLPs en precisión y eficiencia. ✨Más allá del rendimiento, las KANs abren la puerta a una interpretabilidad visual sin precedentes, rompiendo la opacidad de la “caja negra” del aprendizaje profundo. 🔍 Descubre cómo estas redes no solo ajustan datos, sino que actúan como colaboradores capaces de ayudar a los científicos a (re)descubrir leyes matemáticas y físicas. Si te interesa el futuro de las arquitecturas de IA, las nuevas leyes de escalado neuronal y cómo modelos más compactos pueden resolver problemas complejos, ¡dale al play ▶️ y acompáñanos en este viaje hacia la próxima generación del Deep Learning! 🚀Paper original: KAN: Kolmogorov-Arnold Networks (arXiv)...more16minPlay
January 25, 2026E026_La era de los LLMs de 1 solo bit🚀 ¿Estamos ante una revolución en la eficiencia de la IA? En este episodio desgranamos el fascinante paper “The Era of 1-bit LLMs”, donde se presenta BitNet b1.58, una variante que promete cambiar las reglas del juego. A diferencia de los modelos tradicionales que requieren gran precisión, esta arquitectura reduce cada parámetro a un sistema ternario {-1, 0, 1}. ¿Lo más sorprendente? 🧠 Logra igualar el rendimiento y la perplejidad de los modelos Transformer de precisión completa (FP16) pero con un consumo de recursos drásticamente menor.⚡ Este avance no es solo una curiosidad técnica; define una nueva ley de escalado para el entrenamiento de futuras generaciones de LLMs. Analizamos cómo esta tecnología consigue ser mucho más rentable en términos de latencia, memoria y consumo energético, abriendo además la puerta al diseño de hardware específico optimizado para 1-bit. 📉 Si quieres entender cómo la inteligencia artificial puede volverse más sostenible, rápida y accesible sin sacrificar potencia, dale al play y acompáñanos en este análisis. 🎧Fuentes relevantes:• The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits (arXiv)...more15minPlay
January 24, 2026E025_Mamba: Nueva Arquitectura Eficiente para la IA🧠 ¿Es el fin del dominio absoluto de los Transformers? Aunque los modelos actuales son increíbles, tienen un talón de Aquiles: se vuelven ineficientes con textos muy largos. En este episodio, exploramos el revolucionario paper “Mamba”, una nueva arquitectura presentada por Albert Gu y Tri Dao que propone una alternativa fascinante: los Espacios de Estados Selectivos (SSMs). Descubre cómo este modelo logra realizar un razonamiento basado en el contenido —la pieza que faltaba en las alternativas anteriores— permitiendo propagar o descartar información selectivamente, todo sin necesidad de los costosos bloques de atención ni MLPs. 🚀⚡ Más rápido, más eficiente y con un alcance masivo. Analizamos los impresionantes resultados de Mamba: una inferencia 5 veces más rápida que los Transformers y un escalado lineal capaz de procesar secuencias de hasta un millón de longitud. Lo más sorprendente es que el modelo Mamba-3B no solo supera a Transformers de su mismo tamaño, sino que iguala el rendimiento de aquellos que son el doble de grandes. Si quieres entender el futuro de la IA en lenguaje, audio y genómica, dale al play para conocer la arquitectura que promete redefinir el Deep Learning. 🎧✨Fuentes:• Mamba: Linear-Time Sequence Modeling with Selective State Spaces (arXiv:2312.00752)...more15minPlay
January 23, 2026E024_Tu modelo de lenguaje es secretamente un modelo de recompensa¿Te has preguntado por qué alinear los grandes modelos de lenguaje (LLMs) con las preferencias humanas sigue siendo un reto tan grande? 🤔 Tradicionalmente, el aprendizaje por refuerzo con retroalimentación humana (RLHF) ha sido el estándar de oro, pero es un proceso notoriamente complejo, inestable y costoso. En este episodio, analizamos el paper que propone un cambio de paradigma total: “Direct Preference Optimization: Your Language Model is Secretly a Reward Model”. Descubriremos la teoría de que tu propio modelo de lenguaje ya esconde la clave para alinearse, eliminando la necesidad de la maquinaria pesada del aprendizaje por refuerzo tradicional. 🛠️Hablaremos de DPO, un algoritmo innovador que simplifica radicalmente el entrenamiento al transformar el problema de alineación en una simple pérdida de clasificación. 📉 Olvídate de entrenar modelos de recompensa separados o de lidiar con muestreos constantes durante el ajuste fino; DPO ofrece una solución estable, ligera y de alto rendimiento que iguala o supera a los métodos actuales como PPO. 🚀 Si quieres entender la técnica que está haciendo que el control y el ajuste fino de la IA sean más accesibles y eficientes que nunca, ¡no te pierdas este análisis a fondo! 🎧✨Fuentes y enlaces de interés:• 📄 Paper Original (arXiv): Direct Preference Optimization...more18minPlay
January 22, 2026E023_Muñecas rusas o Cómo esconder IAs gigantes en embeddings diminutos¿Te imaginas entrenar una IA una sola vez y que su “cerebro” pueda adaptarse dinámicamente a cualquier dispositivo, desde un potente servidor hasta un móvil antiguo? 📱💻 En este episodio desgranamos el paper “Matryoshka Representation Learning”, una propuesta fascinante que rompe con la rigidez de los modelos tradicionales. Al igual que las famosas muñecas rusas 🪆, esta técnica permite crear embeddings anidados que codifican la información en diferentes niveles de granularidad, logrando una flexibilidad inédita sin coste adicional durante la inferencia.Descubre cómo es posible conseguir representaciones hasta 14 veces más ligeras manteniendo la misma precisión en clasificación y logrando una aceleración masiva en tareas de recuperación de datos 🚀. Analizamos por qué esta arquitectura “elástica” se integra a la perfección con modelos de visión y lenguaje modernos (como BERT o ViT) y cómo resuelve el dilema de los recursos limitados sin sacrificar la robustez. ¡Dale al play para entender cómo esconder IAs gigantes en espacios diminutos! 🎧✨Fuentes:• Paper: Matryoshka Representation Learning (arXiv)...more20minPlay
FAQs about BIMPRAXIS:How many episodes does BIMPRAXIS have?The podcast currently has 72 episodes available.