
Sign up to save your podcasts
Or


🧠 ¿Es el fin del dominio absoluto de los Transformers? Aunque los modelos actuales son increíbles, tienen un talón de Aquiles: se vuelven ineficientes con textos muy largos. En este episodio, exploramos el revolucionario paper “Mamba”, una nueva arquitectura presentada por Albert Gu y Tri Dao que propone una alternativa fascinante: los Espacios de Estados Selectivos (SSMs). Descubre cómo este modelo logra realizar un razonamiento basado en el contenido —la pieza que faltaba en las alternativas anteriores— permitiendo propagar o descartar información selectivamente, todo sin necesidad de los costosos bloques de atención ni MLPs. 🚀
By Julio Pablo Vazquez🧠 ¿Es el fin del dominio absoluto de los Transformers? Aunque los modelos actuales son increíbles, tienen un talón de Aquiles: se vuelven ineficientes con textos muy largos. En este episodio, exploramos el revolucionario paper “Mamba”, una nueva arquitectura presentada por Albert Gu y Tri Dao que propone una alternativa fascinante: los Espacios de Estados Selectivos (SSMs). Descubre cómo este modelo logra realizar un razonamiento basado en el contenido —la pieza que faltaba en las alternativas anteriores— permitiendo propagar o descartar información selectivamente, todo sin necesidad de los costosos bloques de atención ni MLPs. 🚀