Hola a todos! Bienvenidos a otro episodio de su podcast Casi Tiene Sentido.
En este episodio hablo de la inteligencia artificial y como es que parece que hemos llegado al punto de que científicos se están preocupando al punto de que quieren parar el desarrollo de la inteligencia artificial por un periodo de seis meses.
De nuevo me senté a platicar con la co-host principal, Lupita Estrada, y como siempre, divagamos un poco del tema pero logramos llegar al final sanos y salvos :)
1. La inteligencia artificial (IA) es una tecnología que se está desarrollando rápidamente, y algunos científicos están preocupados por los riesgos que puede presentar.
2. La inteligencia se divide en tres tipos de vida: Life 1.0 (bacterias), Life 2.0 (humanos) y Life 3.0 (una vida que puede reemplazar su propio software).
3. La IA la dividen en IA estrecha, IA general y Super IA.
4. Max Tegmark, autor del libro "Life 3.0", ha propuesto una pausa de seis meses en el desarrollo de la IA para establecer políticas y reglas sobre leyes y la seguridad tecnológica en relación con la IA.
5. El desarrollo de la IA está superando la capacidad de las políticas y las reglas existentes, lo que significa que necesitamos nuevas reglas y leyes para regular la IA.
6. La IA se está desarrollando a un ritmo acelerado debido a la presión de las empresas por generar ganancias y no quedarse atrás de sus competidores.
7. La IA tiene el potencial de convertirse en una superinteligencia artificial, lo que representa un riesgo importante para la humanidad.
8. El mayor riesgo asociado con la IA es que tenga la capacidad de escribir código y conectarse al internet para descargar cosas por su cuenta, lo que ya es posible con IA como Chat GPT 4.
9. Otro riesgo importante es enseñarle a la IA los sesgos cognitivos del comportamiento humano.
10. La IA podría reemplazar trabajos como reporteros o desarrolladores de código, lo que podría disminuir la remuneración de estas profesiones.
11. El desarrollo de la IA debe tener en cuenta los riesgos y las implicaciones éticas, ya que la IA tiene el potencial de convertirse en una especie que compite con la humanidad.
Espero que disfrutes este episodio y si es así, te quiero pedir de favor que te suscribas al podcast. Lo puedes hacer en Apple Podcast, Spotify o en donde escuches tus podcasts para que así te enteres cuando salga el siguiente episodio. Si puedes dejar tu calificación y/o comentario, te lo agradecería mucho. Por lo pronto, síguele poniéndole sentido por tu lado.
Apple podcast: https://podcasts.apple.com/us/podcast/casi-tiene-sentido/id1532375366?uo=4
Google Podcasts: https://www.google.com/podcasts?feed=aHR0cHM6Ly9hbmNob3IuZm0vcy8yMzAyZjE0OC9wb2RjYXN0L3Jzcw==
Spotify: https://open.spotify.com/show/2NIOcA7DKVmBxUaL0NCjO3
Canal de YouTube Casi Tiene Sentido https://www.youtube.com/channel/UCo7fTK3afNSVsOhovo_fygQ
Pagina web: https://danielapango.com/
Lex Fridman Podcast Episodio #371 https://www.youtube.com/watch?v=VcVfceTsD0A&t=100s&ab_channel=LexFridman
Aquí les dejo una linea de tiempo de este episodio
(05:00) Cuando empezamos a usar el internet?
(09:10) La propuesta de poner pausa a la IA (Inteligencia Artificial)
(14:10) Tipos de inteligencias artificiales
(18:00) Porque Max Tegmark propone la pausa a la IA
(22:40) Dato de la película Oppenheimer - si no la han visto y no quieren saber que pasa al final, tápense los oídos :)
(26:30) Uso del ChatGPT - equivalente al uso del internet por el publico en general hace 25 años
(35:00) ChatGPT por el momento es otra herramienta
(38:00) Usos de la inteligencia artificial