Gracias, es muy Humano.
En este episodio de AI IA HOY, nos adentramos en el nuevo y prometedor proyecto de Ilya Sutskever, ex jefe de seguridad de OpenAI, quien ha decidido lanzarse con su propia empresa dedicada a la creación de una "superinteligencia segura". Pero ¿qué significa realmente este concepto? Y, sobre todo, ¿por qué dejó OpenAI para embarcarse en esta misión? Prepárate para una charla cargada de revelaciones y sorpresas.
Puntos clave:
El nuevo proyecto de Ilya Sutskever: Safe Superintelligence Inc. (SSI) busca desarrollar la primera superinteligencia segura del mundo.
¿Por qué abandonó OpenAI? Los desacuerdos con Sam Altman sobre las estrategias de seguridad de la IA fueron claves en su decisión.
¿Quiénes lo acompañan? Un equipo de peso: Daniel Gross, ex Apple y Y Combinator, y Daniel Levi, ex ingeniero de OpenAI, unen fuerzas para esta misión crucial.
¿Qué podemos esperar de SSI? Un enfoque en la seguridad de la IA, similar a la seguridad nuclear, que evitará riesgos asociados con la inteligencia artificial avanzada.
Inversores detrás de SSI: Capital de NGP y Khosla Ventures, entre otros. ¿Quiénes más se unirán?
Dario Amodei Desvela el Futuro de la IA: Seguridad, Costos y Más
https://go.ivoox.com/rf/127749738
Round de cálculos: Hinton, LeCun, Altman y Musk
https://go.ivoox.com/rf/129565478
La Trayectoria de Sam Altman en el Mundo Tecnológico
https://go.ivoox.com/rf/129701096