Sign up to save your podcastsEmail addressPasswordRegisterOrContinue with GoogleAlready have an account? Log in here.
Podcast oficial de BIMPRAXIS.Hablamos de Inteligencia Artificial, Building Information Modeling, por separado o en virtuosa i... more
FAQs about BIMPRAXIS:How many episodes does BIMPRAXIS have?The podcast currently has 72 episodes available.
January 21, 2026E022_Instruct GPT: Alinear la Ia es mejor que escalarla“¿Sabías que hacer más grandes a los modelos de lenguaje no los hace necesariamente mejores siguiendo instrucciones? 🤖 En este episodio desgranamos el paper fundamental que cambió el rumbo de la inteligencia artificial moderna: “Training language models to follow instructions with human feedback”. Analizamos por qué los modelos masivos, como el GPT-3 original, a menudo fallaban al generar respuestas veraces o útiles, llegando incluso a ser tóxicos si no estaban correctamente alineados con la intención del usuario. 🛡️ Exploraremos la paradoja de cómo el simple aumento de parámetros no garantiza una IA más servicial y segura.Descubre la metodología detrás de InstructGPT y cómo el uso de feedback humano mediante aprendizaje supervisado y por refuerzo marcó un antes y un después. 🚀 Profundizaremos en un dato revelador: cómo un modelo 100 veces más pequeño (1.3B de parámetros) logró superar al gigante GPT-3 (175B) en las preferencias de los usuarios, ofreciendo respuestas más certeras y menos tóxicas. ¡Dale al play ▶️ para entender cómo pasamos de máquinas que solo predicen texto a asistentes que realmente comprenden lo que les pedimos! 🧠✨Fuentes:• Training language models to follow instructions with human feedback (ArXiv)”...more15minPlay
January 20, 2026E021_Cadena de pensamiento. Desbloqueando el razonamiento de la IA¿Alguna vez te has preguntado cómo lograr que una Inteligencia Artificial no solo responda, sino que realmente razone ante problemas complejos? 🧠✨ En este episodio desglosamos el influyente paper “Chain-of-Thought Prompting Elicits Reasoning in Large Language Models”. Exploraremos cómo una técnica sorprendentemente sencilla —generar una ““cadena de pensamiento”” o una serie de pasos intermedios de razonamiento 🔗— permite que los modelos de lenguaje grandes (LLMs) desbloqueen habilidades cognitivas que parecían fuera de su alcance, mejorando drásticamente su rendimiento en tareas de lógica, aritmética y sentido común.Los resultados son impactantes: descubre cómo un modelo de 540B parámetros, utilizando tan solo 8 ejemplos de esta técnica, logró superar el rendimiento del state-of-the-art (incluso a un GPT-3 con finetuning) en el desafiante benchmark de problemas matemáticos GSM8K 📊. Analizaremos por qué mostrar el ““proceso mental”” marca la diferencia entre una alucinación y el éxito absoluto en tareas simbólicas. ¡Dale al play ▶️ para entender la estrategia esencial que cambió la forma en que hacemos prompt engineering! 🚀Fuentes:• Paper Original: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (Wei et al., 2022)...more14minPlay
January 19, 2026E020_Generar imágenes mediante ¿principios termodinámicos?🎨 ¿Te imaginas generar imágenes de alta calidad utilizando principios de la termodinámica? En este episodio, desglosamos el paper fundamental de Jonathan Ho, Ajay Jain y Pieter Abbeel que ha impulsado una revolución en la síntesis de imágenes. Exploramos los Modelos Probabilísticos de Difusión de Eliminación de Ruido (Denoising Diffusion Probabilistic Models), una clase fascinante de modelos de variables latentes que, inspirados en la termodinámica del no equilibrio, aprenden a revertir el ruido para reconstruir datos visuales complejos con una fidelidad asombrosa. 🌪️🚀 Descubre cómo estos modelos logran una calidad de muestra que rivaliza con las potentes ProgressiveGAN en LSUN y obtienen puntuaciones FID de vanguardia (3.17) en CIFAR10. Analizaremos su novedosa conexión con la dinámica de Langevin y el emparejamiento de puntuación de eliminación de ruido, además de explicar su esquema de descompresión progresiva que generaliza la decodificación autorregresiva. ¡Dale al play para entender la ciencia exacta detrás de la magia de la generación de imágenes! 🎧✨Fuentes: Denoising Diffusion Probabilistic Models (arXiv:2006.11239)...more16minPlay
January 18, 2026E019_El aprendizaje con pocos ejemplos (Few-shot learners)🧠 ¿Te has preguntado por qué a los humanos nos basta con un par de ejemplos para aprender algo nuevo, mientras que la IA tradicional necesitaba miles de datos? En este episodio exploramos el paper fundacional que transformó para siempre el Procesamiento del Lenguaje Natural: “Language Models are Few-Shot Learners”. Descubre la arquitectura detrás de GPT-3, el modelo que, con sus colosales 175 mil millones de parámetros (10 veces más que sus predecesores), rompió todos los esquemas demostrando que una inteligencia artificial puede ser generalista y competente sin necesidad de costosos reentrenamientos específicos (fine-tuning). 🚀🎙️ Acompáñanos a analizar cómo este modelo logra hazañas sorprendentes simplemente recibiendo instrucciones de texto: desde traducción y corrección gramatical, hasta resolver aritmética de tres cifras 🧮 y generar artículos de noticias que los evaluadores humanos apenas pueden distinguir de la realidad. Desglosamos qué significa realmente el aprendizaje few-shot (de pocos intentos) y por qué la capacidad de GPT-3 para adaptarse “al vuelo” a nuevas tareas marcó el inicio de la era moderna de la IA Generativa. ¡Dale al play para entender los cimientos de la revolución tecnológica actual! 🌐✨Fuentes y enlaces:• Paper original en arXiv: Language Models are Few-Shot Learners...more15minPlay
January 17, 2026E018_AlphaGo: Anatomía de una Victoria (para la IA)¿Te imaginas una máquina capaz de desarrollar algo parecido a la intuición humana? 🧠 Durante décadas, el antiguo juego del Go ⚫⚪ fue considerado el “Everest” de la inteligencia artificial, un desafío que se creía imposible de vencer mediante la fuerza bruta debido a su inmensidad matemática (¡más posiciones posibles que átomos en el universo!). En este episodio, exploramos la historia de AlphaGo, el programa que rompió todos los pronósticos al derrotar al campeón europeo Fan Hui por 5 a 0 🏆, logrando un hito que los expertos situaban al menos a una década de distancia.Descubre la fascinante arquitectura técnica que lo hizo posible: una combinación híbrida de Redes Neuronales Profundas (que seleccionan movimientos y evalúan posiciones como un experto) 🕸️ y el algoritmo de Árbol de Búsqueda Monte Carlo (MCTS) 🌲. Analizaremos cómo este sistema no se limitó a calcular, sino que aprendió jugando millones de partidas contra sí mismo mediante aprendizaje por refuerzo 🔄, alcanzando una tasa de victoria del 99.8% contra otros programas de vanguardia. ¡Dale al play ▶️ y acompáñanos a entender el momento exacto en que la IA dejó de simplemente procesar datos para empezar a “entender” el juego! 🚀Fuentes:• Paper original en Nature: Mastering the game of Go with deep neural networks and tree search• Artículo sobre el Árbol de búsqueda Monte Carlo (Wikipedia)...more18minPlay
January 16, 2026E017_Redes Generativas Antagónicas (GANs)🎙️ ¿Qué ocurre cuando enfrentas a dos inteligencias artificiales entre sí? En este episodio, analizamos el paper seminal que transformó el aprendizaje automático: ““Generative Adversarial Networks”” (2014). Descubre el fascinante marco propuesto por Ian Goodfellow y sus colaboradores, donde se entrena simultáneamente a dos modelos en un juego minimax de dos jugadores 🎮. Por un lado, un modelo generativo (G) intenta capturar la distribución de los datos para crear imitaciones perfectas 🎨; por el otro, un modelo discriminativo (D) actúa como un juez severo 🕵️♂️, calculando la probabilidad de que una muestra provenga de los datos reales o sea una falsificación creada por su rival.💡 Acompáñanos a desgranar cómo este proceso adversarial entrena al sistema para que el generador aprenda a maximizar los errores del discriminador, utilizando perceptrones multicapa y backpropagation 🧠 sin necesidad de complejas cadenas de Markov. Si quieres entender la arquitectura matemática donde el equilibrio se alcanza cuando la IA ya no puede diferenciar la realidad de la ficción (llevando al discriminador a una probabilidad del 50%), ¡no te pierdas este episodio! 👇 Dale al play para comprender el origen teórico de las IAs generativas.Fuentes:• Generative Adversarial Networks (arXiv:1406.2661)...more15minPlay
January 15, 2026E016_AlexNet e ImageNet: El nacimiento del DeepLearning“🗓️ 30 de septiembre de 2012: una fecha que marcó el verdadero inicio de la revolución del Deep Learning. En este episodio, viajamos a los orígenes para descubrir cómo AlexNet y el colosal dataset ImageNet rompieron todos los esquemas de la visión por computadora. Exploraremos la audaz visión de pioneros como Fei-Fei Li, quien entendió antes que nadie que la clave para una mejor IA no estaba solo en los modelos, sino en reflejar la diversidad del mundo real a través de datos masivos 📊. Te contaremos cómo, inspirados por WordNet y utilizando el poder del crowdsourcing con Amazon Mechanical Turk, lograron etiquetar millones de imágenes cuando el resto de la comunidad científica lo consideraba una locura imposible.🚀 Descubre cómo el equipo formado por Alex Krizhevsky, Ilya Sutskever y Geoffrey Hinton aprovechó por primera vez la potencia de las GPUs para entrenar una red neuronal de 60 millones de parámetros, superando las limitaciones de hardware de la época. Analizaremos las innovaciones técnicas clave, como las Convolutional Neural Networks (CNNs) profundas y la función ReLU, que permitieron a AlexNet aplastar a la competencia en el desafío ILSVRC 2012 con una ventaja abismal de casi 10 puntos porcentuales 🏆. Dale al play ▶️ para entender cómo este ““Big Bang”” tecnológico transformó la inteligencia artificial de una curiosidad académica poco práctica a la fuerza dominante que hoy impulsa el mundo.Fuentes y enlaces relevantes:• AlexNet and ImageNet: The Birth of Deep Learning - Pinecone• Paper original: ImageNet Classification with Deep Convolutional Neural Networks (NeurIPS 2012)”...more17minPlay
January 14, 2026E015_Inicio de la serie "Los Papers que Cambiaron la Historia de la IA"🎙️ ¡Estrenamos serie! Bienvenidos al primer episodio de “Los Papers que Cambiaron la Historia de la IA”, nuestro viaje especial a lo largo de este enero de 2026. ⏳ Retrocedemos hasta 1986, al corazón del “Invierno de la IA”, un momento oscuro donde la financiación había desaparecido y las redes neuronales se consideraban juguetes inútiles incapaces de aprender. En este capítulo, desenterramos la fascinante historia detrás del artículo de apenas cuatro páginas publicado en Nature que demostró que los críticos estaban equivocados, resucitando una disciplina entera y plantando la semilla de la revolución tecnológica actual. ❄️🔥🧠 En este episodio te explicamos de forma sencilla qué es la Retropropagación (Backpropagation), el motor matemático que permitió el nacimiento del Deep Learning y que hoy sigue impulsando desde GPT-5 hasta los coches autónomos. Además, analizamos el impacto humano y científico de este hallazgo: desde el Premio Nobel de Física 2024 otorgado finalmente a Geoffrey Hinton, hasta el necesario homenaje a David Rumelhart, el visionario que falleció antes de ver cómo su trabajo cambiaba el mundo. Dale al play ▶️ para entender el origen exacto de la inteligencia artificial moderna....more18minPlay
January 13, 2026E014_La arquitectura Transformer que arrancó la revolución de la IA¿Te has preguntado cómo la IA pasó de tropezar con frases simples a escribir ensayos complejos y generar vídeo? 🤖 Antes de 2017, las máquinas leían “por una rendija”, palabra por palabra, olvidando a menudo el principio de la frase al llegar al final. Todo cambió con el paper legendario “Attention Is All You Need”. En este episodio, destripamos la arquitectura Transformer, el verdadero motor que impulsa a gigantes actuales como GPT-4, Claude y Sora. 🚀 Descubre cómo el mecanismo de Self-Attention 🧠 dotó a las máquinas de una “memoria fotográfica”, permitiéndoles procesar todo el contexto de golpe y paralelizar el aprendizaje masivo.Pero la tecnología no se detiene y los Transformers no son perfectos. 🛑 Analizamos su talón de Aquiles: un coste computacional que se dispara y un consumo energético voraz. ⚡ ¿Qué viene después? Miramos hacia el horizonte (2025-2026) para presentarte a los sucesores que buscan romper estas barreras: desde las arquitecturas Mamba 🐍 y modelos híbridos como Jamba, hasta la visión de JEPA propuesta por Yann LeCun. Si quieres entender la ingeniería detrás del hype y saber hacia dónde evoluciona la próxima generación de IA, dale al play ▶️ y acompáñanos en este viaje técnico y fascinante....more15minPlay
January 12, 2026E013_IA en Edificación Industrial: El Informe de Realidad 2026📅 Estamos en 2026 y la burbuja del hype ha estallado: la IA no es la varita mágica que nos prometieron, pero ignorarla ya no es una opción si quieres proteger tus márgenes. En este episodio analizamos sin filtros la realidad técnica y económica de la Inteligencia Artificial en la edificación industrial, dejando atrás los titulares sensacionalistas para centrarnos en lo que realmente factura 💶. Descubre por qué la tecnología ha pasado de ser una ventaja competitiva “sexy” a un requisito de supervivencia indispensable ante la cronificación de la falta de mano de obra y la presión de los costes.🏗️ Desgranamos qué herramientas han sobrevivido al filtro del mercado y cuáles eran puro humo: desde la utilidad real del diseño generativo y la monitorización de obra hasta el fracaso de los robots autónomos en entornos no estructurados. Además, abordamos la verdad incómoda que pocos quieren admitir: cómo la IA ha dejado en evidencia la mediocridad de los modelos BIM actuales y por qué, lejos de eliminar a los técnicos, ha creado una necesidad crítica de expertos humanos capaces de auditar los algoritmos 🧠.👉 Dale al play para entender si tu empresa está invirtiendo en futuro o si, simplemente, está automatizando el caos....more19minPlay
FAQs about BIMPRAXIS:How many episodes does BIMPRAXIS have?The podcast currently has 72 episodes available.