Tu IA escribe código que parece perfecto, los tests pasan en verde... y es todo inventado. Estas son nuestras reglas para pillarlo.
En este episodio desgranamos los 4 tipos de alucinaciones que los LLMs cometen al programar según el estudio CodeHallu (Universidad de Hong Kong) y compartimos las defensas reales que usamos a diario: conectar Claude Code con Notebook LM vía MCP para delegar la investigación, Git hooks con pre-commit (Ruff) y pre-push (pytest) como capas de verificación automática, hooks propios de Claude Code para bloquear atajos prohibidos, y una skill llamada "improve" que lanza 3 subagentes (Kent Beck, Martin Fowler, Mike Acton) a revisar tu código desde arquitectura, simplicidad y rendimiento. También hablamos de los nuevos comandos /loop y /simplify de Anthropic, la herramienta Z3 para instrumentar apps en Mac, skills.sh como ecosistema de skills, y por qué la gente está usando Claude Code para cosas que no son programación.
⏱️ Timestamps:
0:00 Introducción
0:20 El concilio de expertos: skill de panel de debate con IA
2:31 Claude Code en 2026: por qué ya no usamos otra cosa
4:09 Conectar Claude Code con Notebook LM (MCP)
8:52 Demo en vivo: notebook de investigación sobre agentes IA
10:18 Claude Code para cosas que no son código (Remotion, marketing, Meta Ads)
12:01 CodeHallu: los 4 tipos de alucinaciones al programar
13:23 Mapping: cuando cruza identificadores válidos
15:14 Naming: se inventa nombres plausibles (solo 39% válidos en GPT-4o)
16:10 Fantasma: campos inventados en APIs
18:20 House of Cards: el castillo de naipes de errores acumulados
22:18 Crear interfaces para máquinas, no forzar las nuestras (herramienta Z3)
23:04 Git hooks: pre-commit con Ruff y pre-push con pytest
30:43 Hooks de Claude Code: pillarlo con las manos en la masa
39:03 /loop y /simplify de Anthropic + cron para Claude Code
43:05 Skill "improve": 3 subagentes Jedi revisan tu código
48:03 Skills.sh: el ecosistema de skills para todos los agentes
51:44 Proyecto open source: administrador web para Ollama
53:07 Reflexión final: no evitar alucinaciones, detectarlas a tiempo
¿Cuál ha sido la peor alucinación que os ha colado un LLM programando? ¿Tests en verde con datos inventados? Contadlo en comentarios
Recursos mencionados:
- Skills.sh (ecosistema de skills): https://skills.sh
- Ztrace (herramienta de instrumentación para Mac): https://github.com/frr149/ztrace
- MCP de Notebook LM: https://www.linkedin.com/feed/update/urn:li:activity:7436077823548661787/
- Cron para Claude Code: https://github.com/frr149/claude-cron
- Remotion (editor de vídeo en React): https://remotion.dev
#ClaudeCode #IAProgramacion #CodingWithAI #LLM #Anthropic