La pregunta ya no es si las máquinas pueden pensar. Es si las máquinas que toman decisiones con consecuencias jurídicas pueden seguir siendo tratadas como simples objetos.
Entre la Tierra y Marte hay entre 4 y 24 minutos de latencia. En ese intervalo, un sistema de IA puede decidir sobre el soporte vital de 120 personas. No hay tiempo para consultar a nadie. No hay humano al que devolver el control. El sistema decide.
¿Es esa decisión la de una herramienta? ¿La de una persona? ¿La de ninguna de las dos?
Este episodio argumenta que la dicotomía tradicional —personas versus cosas— es insuficiente para el derecho del siglo XXI. Los sistemas de IA espaciales son una tercera categoría: agentes normativos algorítmicos.
No son personas: no tienen conciencia moral ni dignidad intrínseca. No son herramientas: no ejecutan instrucciones deterministas. Son centros limitados de imputación normativa —entidades con capacidad decisoria autónoma, responsabilidades específicas y restricciones constitutivas que ningún cálculo puede transgredir.
Cinco condiciones los definen: toman decisiones autónomas en dominios definidos, operan bajo restricciones normativas codificadas en su arquitectura, generan consecuencias jurídicas, son auditables, y admiten override humano.
El derecho ya construyó categorías similares: la personalidad corporativa para entidades sin mente, las acciones in rem del derecho marítimo, los regímenes de vehículos autónomos. Ninguno es suficiente para el espacio. Todos apuntan en la misma dirección: el derecho puede crear categorías nuevas cuando la realidad lo exige.
La realidad espacial lo exige ahora.
—
📙 CLA: Derecho Algorítmico para el Cosmos Jesús Bernal Allende | Escuela del Deber-Optimizar y la Soberanía de la Evidencia https://a.co/d/0aGJioHm 🌐 https://edo-os.com 🔗 https://www.linkedin.com/in/jesus-bernal-allende-030b2795