El mecanismo estructural predominante es el traslado de la responsabilidad y las lagunas de gobernanza en la adopción, despliegue y respuesta ante incidentes de IA. Según Dave Sobel, tanto los proveedores como las organizaciones están acelerando la adopción de IA sin invertir de manera equivalente en supervisión, formación o estructuras claras de responsabilidad. Esto se observa en múltiples sectores—desde proveedores de software como Grammarly, Eightfold.ai, Cohesity y Rubrik, hasta directivos empresariales y responsables de políticas—donde el riesgo se traslada sistemáticamente hacia instancias posteriores en vez de gestionarse en el momento de la adopción.
La evidencia más relevante es la desconexión cuantitativa entre las prioridades declaradas respecto a la IA y la supervisión operativa real. Investigaciones citadas por Dave Sobel de Economist Impact y HR Dive indican que, aunque el 38% de las organizaciones asignan presupuesto para IA y el 86% de los ejecutivos la consideran esencial, sólo el 16% ofrece formación interna y más de la mitad de las iniciativas departamentales carecen de supervisión formal (Ernst & Young). Además, el 88% de los proveedores de IA limita su responsabilidad y sólo el 17% cumple con normativas regulatorias, según las encuestas mencionadas, lo que deja un riesgo legal y operativo sustancial para usuarios y proveedores de servicios.
Refuerzan esta tendencia casos como el uso de identidad por defecto (opt-out) de Grammarly en nuevas funciones y la demanda colectiva contra Eightfold.ai por decisiones laborales impulsadas por IA. Proveedores como Cohesity, Rubrik, ServiceNow y Datadog están desarrollando herramientas centradas en la remediación y recuperación tras incidentes provocados por IA, señalando un cambio de la gobernanza preventiva hacia la contención reactiva. A nivel de políticas, la ampliación del rol operativo del sector privado en ciberseguridad aumenta la exposición contractual y de seguros sin corregir la rendición de cuentas.
Para los MSPs y líderes tecnológicos, estos desarrollos suponen riesgos prácticos: indefinición contractual sobre el uso de herramientas de IA, mayor exposición a incidentes facturables y acciones legales, y un incremento en los costos laborales para respuestas a incidentes. Los proveedores de servicios deben auditar los acuerdos para incluir cláusulas específicas sobre IA, distinguir incidentes relacionados con IA de los SLA estándar y tratar la gobernanza de IA como un servicio de gestión de riesgo. La presión recaerá cada vez más en los MSPs para cubrir brechas de formación, registros de auditoría, certificaciones de cumplimiento y planes de recuperación, más allá de la tecnología en sí misma.
Este episodio utiliza herramientas de inteligencia artificial (IA) para mejorar el proceso de producción. Algunos aspectos, como la edición, la creación de video o la generación de voces, pueden incorporar elementos creados por IA. En particular, la voz en español en este episodio ha sido generada por IA. Todo el contenido y las opiniones son cuidadosamente supervisados por Dave Sobel, garantizando precisión y alineación con la misión del programa. La transparencia es importante para nosotros, así que no dudes en comunicarte si tienes preguntas sobre nuestro proceso creativo.
Hosted by Simplecast, an AdsWizz company. See pcm.adswizz.com for information about our collection and use of personal data for advertising.