Desde hace un tiempo, los casos de científicos involucrados en diversos proyectos de Inteligencia Artificial que advierten sobre los riesgos de este desarrollo parecen replicarse. Quizás el primero fue Blake Lemoine, un ingeniero que trabajaba en un modelo de IA para Google llamado LaMDA y que el año pasado fue despedido de la compañía por violar las cláusulas de confidencialidad, tras compartir públicamente que esa Inteligencia Artificial había desarrollado algo parecido a una conciencia o, literalmente, era un “ser sintiente”. La advertencia de Lemoine captó el interés, la preocupación y la imaginación de buena parte del mundo, aunque la compañía negó que sus afirmaciones fueran precisas. Eso fue antes de que la compañía Open AI pusiera a disposición de todo el mundo su modelo de lenguaje Chat GPT y desatara una verdadera avalancha de productos, aplicaciones y también preocupaciones en torno a la Inteligencia Artificial.
Hoy vivimos en un mundo en plena revolución, mientras las compañías tecnológicas luchan por una mejor posición en una carrera marcada por un genio que ya salió de la botella. En marzo, cerca de mil expertos en el tema, incluidos el ubicuo Elon Musk, el cofundador de Apple Steve Wozniak y el científico cognitivo Gary Marcus, además de ingenieros de compañías como Amazon, Google, Meta, Microsoft y DeepMind, publicaron una carta abierta demandando una pausa de seis meses en el desarrollo de nuevos sistemas de Inteligencia Artificial por los riesgos que implica para la humanidad. Luego, otro científico, el canadiense Geoffrey Hinton, un pionero en el área que es considerado “el padrino de la Inteligencia Artificial”, anunció que dejaba su puesto en Google para así poder, según explicó, hablar con libertad sobre un tema que le preocupa: los peligros que representa la IA, particularmente en momentos en que las compañías compiten en el área de la Inteligencia Artificial Generativa. Hace un par de semanas los focos estuvieron sobre Sam Altman, el CEO de Open AI, la empresa tras Chat GPT, quien fue a testificar sobre el tema frente a un panel del Senado de Estados Unidos para aclarar dudas y pareció dejar a los parlamentarios, y al resto del mundo, más preocupados. Altman llamó a los legisladores a regular la Inteligencia Artificial y a los gobiernos a trabajar para mitigar el riesgo de estos modelos “cada vez más poderosos”.
Este martes, a través de un breve comunicado, un grupo de líderes de la industria tecnológica reforzaron el llamado a una mayor regulación, comparando la IA con la amenaza de las guerras nucleares y las pandemias y advirtiendo que ésta podría convertirse en el futuro, derechamente, en “una amenaza existencial para la humanidad”.
Con los propios protagonistas de la industria pidiendo una mayor regulación -pero con pocas respuestas en el mundo sobre cómo debería regularse una herramienta revolucionaria que parece avanzar tan rápida y vorazmente-, llamados como esos instalan más preocupaciones que certezas. ¿Es realmente posible controlar y poner límites a estos desarrollos hoy?
El periodista experto en medios digitales Andrés Azócar, director de UBIK, advierte que intervenir la carrera en la que están embarcadas las grandes compañías y los gobiernos requerirá de algo más que declaraciones públicas.