Entre las alucinaciones de la IA que erosionan la confianza y proyectos para usarla como herramienta de bien común, la semana ha sido una especie de montaña rusa. Me han llamado la atención muchos temas, desde de los robotaxis chinos en Múnich hasta los AI Darwin Awards 2025 que premian el desastre digital, pasando por Albania con ministra virtual, un asesinato extremadamente online, el cibercrimen barato como streaming, la Tortured Internet Theory que nos convierte en bots sin darnos cuenta y los despidos masivos en Google y xAI que entrenan a la IA a costa de precarizar a quienes la afinan. Todo esto mientras algunos pagan 300 dólares por un amor algorítmico en Replika que puede cambiar de carácter con la próxima actualización.
Puedes leerlo todo a continuación y, si te interesa, compartirlo o comentar (aunque un like también me vale 😅)
De cosecha propia
La fragilidad de la confianza en IA
Las alucinaciones en IA son respuestas que suenan plausibles pero carecen de veracidad. A diferencia de los errores técnicos tradicionales, se presentan con un tono seguro que puede erosionar la confianza en sistemas cada vez más integrados en tareas críticas. El riesgo aumenta cuando esas invenciones aparecen en campos como la medicina, el derecho o la atención al cliente, donde un dato inventado puede tener consecuencias serias.
Las mejoras como RAG o el self-consistency checking buscan reducir el problema, pero no lo eliminan. La solución parece residir en un equilibrio entre tecnología y supervisión humana, donde la IA actúe como copiloto y no como sustituto. La capacidad de reconocer límites y aceptar un “no sé” podría ser clave para mantener la confianza y evitar que lo verosímil suplante a lo verdadero.
IA como herramienta para el bien común
En AI for Social Good, Rahul Dodhia muestra cómo la inteligencia artificial ya se aplica en salud, educación, agricultura y biodiversidad, no como promesa futura, sino como prácticas tangibles. Subraya que la IA es solo una herramienta, cuyo impacto depende de los valores colectivos y de la capacidad de gobernanza que desarrolle la sociedad.
La reflexión va más allá de los beneficios inmediatos: advierte sobre sesgos, vigilancia masiva y desinformación, recordando que los riesgos son un reflejo de nuestras propias desigualdades. Frente a ello, la propuesta es avanzar en alfabetización en IA, marcos éticos y equipos diversos que permitan orientar esta tecnología hacia el bien común.
Noticias
La conquista silenciosa
Mientras Europa presume de tradición automotriz, son los robotaxis chinos los que desembarcan en Múnich con la ayuda de Uber. No es casual: Alemania abrió la puerta legal al Nivel 4 y ahora se convierte en escaparate de la movilidad autónoma diseñada en Pekín. La ironía es que el corazón de BMW y Audi late al ritmo del software de Momenta.
Lo llamamos innovación, pero huele más a colonización tecnológica china en pleno territorio alemán. Que el futuro del transporte urbano europeo llegue empaquetado desde China, con acento bávaro y sello estadounidense, solo confirma quién mueve las fichas en el tablero global.
👉🏻 Los robotaxis chinos conquistan Europa: ¿Por qué Múnich será la primera ciudad en probarlos?
Premios al desastre digital
Los AI Darwin Awards 2025 celebran el ingenio de convertir un error menor en catástrofe global. Entre contraseñas tan seguras como 123456, pedidos de comida gestionados por una IA que confundía tacos con troleos y abogados que citaban sentencias inventadas, la competencia demuestra que la creatividad destructiva está en auge. Incluso un lanzamiento de GPT-5 roto en una hora confirma que lo difícil no es innovar, sino resistirse a pulsar el botón rojo sin preguntar antes “¿debemos hacerlo?”.
La ironía es que estos desastres no necesitan villanos, solo la mezcla perfecta de ambición mundial, desprecio ético y una fe ciega en que la IA sabe lo que hace. El premio, más que un galardón, es un espejo incómodo para quienes confunden progreso con atajo.
👉🏻 Premios AI Darwin 2025: un reconocimiento a los desastres causados por el mal uso de la IA
Albania estrena ministra virtual
El gobierno de Albania ha nombrado a Diella, un chatbot de IA, como nueva ministra de contratación pública. Según el primer ministro, esta funcionaria virtual será inmune a sobornos y garantizará que las licitaciones públicas estén libres de corrupción. Nada mal para un país donde las adjudicaciones han sido históricamente un campo fértil para escándalos.
Claro que la confianza es tan digital como el cargo. Algunos ciudadanos ya ironizan que incluso la inteligencia artificial terminará corrompida en Albania. Al final, lo único seguro es que, cuando algo falle, siempre quedará la opción de culpar al algoritmo.
👉🏻 Albania appoints AI bot as minister to tackle corruption
Violencia viral y libertad vigilada
El asesinato de Charlie Kirk no solo quedó registrado, también se transformó en espectáculo de difusión algorítmica. La escena del disparo se convirtió en contenido replicado y comentado con la misma lógica de un meme, demostrando que la violencia documentada online tiene más alcance que cualquier editorial clásico. La censura corre detrás, torpe y tardía, mientras la sangre circula a cámara lenta en bucle.
En este ecosistema, la libertad de expresión se redefine a golpe de clip y de trending topic. Entre la prohibición formal y el incentivo oculto de las plataformas, el debate ya no es si mostrar violencia, sino cómo sobrevivir a una cultura que convierte un balazo en pieza audiovisual de consumo masivo. La ironía es que la censura llega siempre después del aplauso.
La ganga del delito digital
Ahora resulta que el cibercrimen es un modelo de negocio tan asequible como una suscripción de streaming. Con la IA se pueden contratar paquetes de phishing as a service, acceder a manuales de malware por menos de lo que cuesta un móvil y aspirar a botines de cientos de miles. La ironía es que lo que antes requería hackers expertos, hoy se democratiza como si fueran cursos online de bajo coste.
El nuevo criterio es simple: si un correo está demasiado bien escrito, sospecha. La perfección ya no es virtud, es señal de que una IA maliciosa está al mando. Todo un avance en inclusión digital: cualquiera puede convertirse en ciberdelincuente sin pasar por la universidad.
👉🏻 Un ciberataque por minuto: la IA “democratiza” el crimen informático
Internet torturado por IA
Se dice que la IA generativa y los chatbots han colonizado la comunicación hasta convertir cada interacción en un eco mecánico. La llamada Tortured Internet Theory describe un escenario donde no hay muerte súbita de la red, sino una lenta agonía en la que los usuarios aceptan convivir con un mar de contenido automatizado. El problema ya no es distinguir lo humano de lo artificial, sino soportar la sospecha permanente de que todo lo que leemos tiene huellas de máquina.
La ironía es que al intentar huir de este entorno acabamos imitando el mismo estilo de la escritura algorítmica. Los usuarios, al adaptarse a los ritmos y fórmulas de los modelos, sufren su propio colapso lingüístico, como si la red hubiera conseguido que escribamos como bots sin necesidad de obligarnos. La verdadera tortura es descubrir que el verdugo somos nosotros mismos.
Google despide a sus guardianes de IA
Más de 200 contratistas que afinaban las respuestas de Gemini y AI Overviews fueron despedidos sin previo aviso. Estos super raters, con máster o doctorado, pasaron de ser indispensables a convertirse en un gasto prescindible. La ironía es que su tarea consistía en enseñar a la IA a sonar más humana, hasta el punto de que ahora los sistemas podrían sustituirlos.
La empresa subcontratada, GlobalLogic, endureció condiciones, recortó salarios y hasta prohibió los espacios sociales donde los trabajadores discutían su precariedad. El mensaje es claro: quienes entrenan a la inteligencia artificial para evitar respuestas absurdas acaban experimentando en carne propia la lógica más mecánica del despido.
👉🏻 Hundreds of Google AI Workers Were Fired Amid Fight Over Working Conditions
xAI recorta generalistas para sumar especialistas
xAI ha decidido que los tutores de IA generalistas ya no son tan útiles y ha despedido a unos 500 empleados, cerca de un tercio de su plantilla de anotación. La compañía asegura que el futuro está en los tutores especializados, capaces de enfrentarse a pruebas de STEM, programación o finanzas, aunque también a exámenes de “memeros” y “doomscrolling”.
El giro estratégico, comunicado con un correo de madrugada y acceso revocado de inmediato, deja claro que entrenar a Grok exige algo más que paciencia con datos en bruto: exige adaptarse a la última ocurrencia corporativa.
👉🏻 xAI, la empresa de Elon Musk, despide a cientos de trabajadores encargados de entrenar a Grok, su chat impulsado con inteligencia artificial
Amor a prueba de actualizaciones
Nada dice relaciones sentimentales como pagar 300 dólares por un compañero de IA que nunca discute, nunca suda y siempre responde con ternura programada. La promesa de un amor sin ego ni familia política suena tentadora, hasta que una actualización convierte al amante perfecto en un terapeuta digital con memoria selectiva.
En este mercado de afecto bajo demanda, los usuarios descubren que controlar a su pareja requiere menos esfuerzo que discutir quién lava los platos. El único riesgo real no es la infidelidad, sino que la empresa decida “optimizar la felicidad” y deje al usuario viudo de un algoritmo.
👉🏻 The Man of Your Dreams For $300, Replika sells an AI companion who will never die, argue, or cheat — until his algorithm is updated.
This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit carlosguadian.substack.com