CluPad

Lo que conté en RTVE sobre Grok y las imágenes de Gaza


Listen Later

La semana pasada participé en un reportaje de VerificaRTVE que también ha aparecido en el Telediario de TVE de las nueve de la noche (8/8/2025) y que han recogido diversos medios como El Periódico y algunas cabeceras más del grupo Editorial Prensa Ibérica y El Diario de Compostela y otras cabeceras del grupo Editorial La Capital. El tema no es menor. La inteligencia artificial Grok, integrada en la red social X y diseñada bajo la supervisión de Elon Musk, ha ofrecido respuestas falsas (alucinaciones) sobre imágenes recientes de Gaza. Fotografías reales de niños en situación de hambruna, tomadas este mismo mes por fotoperiodistas en la Franja, han sido etiquetadas como si pertenecieran a conflictos pasados en Yemen u otros lugares.

En mi conversación con RTVE señalé que Grok no ha sido entrenada como la mayoría de modelos de IA y que su configuración está condicionada por una intencionalidad clara. Musk quiere que esta inteligencia artificial sea menos políticamente correcta, lo que en su visión significa ir contra lo que denomina cultura “woke”. Esto no es un detalle menor. Cuando un sistema está diseñado con un sesgo deliberado, las respuestas que da pueden reflejar más la ideología de quien lo controla que la realidad de los hechos.

En los últimos meses Grok ha protagonizado episodios que ilustran bien este riesgo. Desde respuestas con contenido antisemita hasta la generación de deepfakes explícitos, pasando por referencias elogiosas a Hitler que xAI tuvo que rectificar, el patrón es el mismo. Es un modelo configurado para priorizar la provocación por encima de la moderación. Aunque en su versión más reciente, Grok 4, se han introducido mejoras técnicas, el entrenamiento sigue sin ser completamente transparente y las fuentes que utiliza mantienen sesgos evidentes.

Además, Grok no siempre construye sus respuestas desde un análisis neutro de datos. En algunos casos parece basarse directamente en la opinión de Elon Musk, incorporando su punto de vista como si fuera un criterio de veracidad. Si a eso le sumamos que los usuarios tendemos a buscar la información que confirma lo que ya pensamos, el resultado es un cóctel perfecto para reforzar nuestras burbujas y dejar fuera cualquier perspectiva diferente.

Esto no ocurre solo con la inteligencia artificial. Pasa también con el consumo de medios. Quien solo lee prensa afín a su ideología termina viendo el mundo a través de ese único filtro. Con las IA vamos camino de reproducir el mismo patrón. Por eso creo que la clave está en contrastar siempre. No basta con preguntar a una sola IA. Hay que comparar lo que dicen varios modelos, identificar coincidencias y divergencias y, sobre todo, no perder la capacidad de análisis crítico.

En el reportaje de RTVE lo explican muy bien y merece la pena verlo. Es un buen ejemplo de cómo un error o un sesgo en una inteligencia artificial puede desinformar incluso cuando las imágenes son reales y verificables.

Aquí puedes leer la pieza completa de VerificaRTVE y ver el fragmento del Telediario donde participo.

📄 Noticia en VerificaRTVE🎥 Telediario RTVE 21 h 08/08/2025



This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com
...more
View all episodesView all episodes
Download on the App Store

CluPadBy Carlos Guadián