
Sign up to save your podcasts
Or
Notas:
Vengan a nuestro Discord.
1:00 - Historia de los modelos del lenguaje
3:30 Qué es un modelo transformer
4:30 Embeddings
6:00 Los de OpenAI (ada 002)
11:00 RHLF (aprendizaje reforzado por feedback humano)
12:00 el video de Andrej Karpathy (GPT desde cero, con código)
16:00 ¿Los modelos son creativos? (tangente, el video sobre cómo Nirvana combina elementos)
22:00 Detrás de escena son todos números.
25:00 El razonamiento implícito de los modelos. Los portales semánticos (por ejemplo, los sueños).
28:30 ¿Por qué los modelos del lenguaje no pueden hacer cuentas?
29:30 Aumentando los modelos con herramientas externas (ejemplo, LangChain)
33:00 ¿Los programadores se van a quedar sin trabajo?
36:00 Las abstracciones con pérdida (leaky abstractions) de Joel Spolsky
40:00 La historia de la programación desde el 80 hasta hoy
47:00 Daniel Kahneman, pensando rápido y despacio
49:30 El recall de Tesla por un bug.
53:00 La evolución del pensamiento humano comparado y su influencia en la IA.
55:00 La lucha permanente contra la escasez y el sufrimiento.
59:00 El experimento fallido de Microsoft.
1:01 Con un avión podemos ir más rápido pero también nos podemos estrellar si no tenemos cuidado (ventajas y desventajas de la tecnología)
1:03 La historia de OpenAI con Elon Musk
1:05 El "paperclip maximizer" y los escenarios de destrucción del mundo a manos de la IA.
1:10 Teller y el miedo de que la bomba atómica incendiara la atmósfera
1:11 El precipicio de Toby Ord
1:16 Los riesgos de la investigación
1:17 Tenemos que hacer un episodio más dedicado a la lingüística
1:18 Fernando en LinkedIn
Donde trabaja Fernando ahora, Lexalytics
Cátedra de la UBA
Fernando en Twitter
Notas:
Vengan a nuestro Discord.
1:00 - Historia de los modelos del lenguaje
3:30 Qué es un modelo transformer
4:30 Embeddings
6:00 Los de OpenAI (ada 002)
11:00 RHLF (aprendizaje reforzado por feedback humano)
12:00 el video de Andrej Karpathy (GPT desde cero, con código)
16:00 ¿Los modelos son creativos? (tangente, el video sobre cómo Nirvana combina elementos)
22:00 Detrás de escena son todos números.
25:00 El razonamiento implícito de los modelos. Los portales semánticos (por ejemplo, los sueños).
28:30 ¿Por qué los modelos del lenguaje no pueden hacer cuentas?
29:30 Aumentando los modelos con herramientas externas (ejemplo, LangChain)
33:00 ¿Los programadores se van a quedar sin trabajo?
36:00 Las abstracciones con pérdida (leaky abstractions) de Joel Spolsky
40:00 La historia de la programación desde el 80 hasta hoy
47:00 Daniel Kahneman, pensando rápido y despacio
49:30 El recall de Tesla por un bug.
53:00 La evolución del pensamiento humano comparado y su influencia en la IA.
55:00 La lucha permanente contra la escasez y el sufrimiento.
59:00 El experimento fallido de Microsoft.
1:01 Con un avión podemos ir más rápido pero también nos podemos estrellar si no tenemos cuidado (ventajas y desventajas de la tecnología)
1:03 La historia de OpenAI con Elon Musk
1:05 El "paperclip maximizer" y los escenarios de destrucción del mundo a manos de la IA.
1:10 Teller y el miedo de que la bomba atómica incendiara la atmósfera
1:11 El precipicio de Toby Ord
1:16 Los riesgos de la investigación
1:17 Tenemos que hacer un episodio más dedicado a la lingüística
1:18 Fernando en LinkedIn
Donde trabaja Fernando ahora, Lexalytics
Cátedra de la UBA
Fernando en Twitter