
Sign up to save your podcasts
Or
¿Alguna vez te has preguntado cómo las máquinas entienden el lenguaje humano?
En este episodio desentrañamos el misterio de los embeddings, una técnica clave en el NLP.
Prepárate para:
Descubrir qué son los embeddings: Exploraremos cómo se transforman las palabras y frases en vectores numéricos que capturan su significado.
Comprender su utilidad: Analizaremos cómo los embeddings permiten a las máquinas realizar tareas como la búsqueda semántica, la traducción automática y el análisis de sentimientos.
Explorar casos de uso reales: Desde sistemas de recomendación hasta chatbots inteligentes, veremos cómo los embeddings están revolucionando la tecnología.
Adentrarnos en las diferentes aproximaciones para obtener embeddings: Desglosaremos métodos como One Hot Encoding, Co-Ocurrence Matrix y el poderoso Word2Vec.
Profundizar en Word2Vec: Descifraremos su funcionamiento y cómo logra capturar relaciones semánticas entre palabras.
#llms #genai #embeddings #word2vec
Síguenos:
https://twitter.com/jggomezt
https://twitter.com/DevHackCali
Referencias:
https://github.com/jggomez/word2vec-scratch
https://arxiv.org/pdf/1301.3781
https://developers.google.com/machine-learning/crash-course/embeddings
https://medium.com/@enozeren/word2vec-from-scratch-with-python-1bba88d9f221
https://huggingface.co/blog/matryoshka
¿Alguna vez te has preguntado cómo las máquinas entienden el lenguaje humano?
En este episodio desentrañamos el misterio de los embeddings, una técnica clave en el NLP.
Prepárate para:
Descubrir qué son los embeddings: Exploraremos cómo se transforman las palabras y frases en vectores numéricos que capturan su significado.
Comprender su utilidad: Analizaremos cómo los embeddings permiten a las máquinas realizar tareas como la búsqueda semántica, la traducción automática y el análisis de sentimientos.
Explorar casos de uso reales: Desde sistemas de recomendación hasta chatbots inteligentes, veremos cómo los embeddings están revolucionando la tecnología.
Adentrarnos en las diferentes aproximaciones para obtener embeddings: Desglosaremos métodos como One Hot Encoding, Co-Ocurrence Matrix y el poderoso Word2Vec.
Profundizar en Word2Vec: Descifraremos su funcionamiento y cómo logra capturar relaciones semánticas entre palabras.
#llms #genai #embeddings #word2vec
Síguenos:
https://twitter.com/jggomezt
https://twitter.com/DevHackCali
Referencias:
https://github.com/jggomez/word2vec-scratch
https://arxiv.org/pdf/1301.3781
https://developers.google.com/machine-learning/crash-course/embeddings
https://medium.com/@enozeren/word2vec-from-scratch-with-python-1bba88d9f221
https://huggingface.co/blog/matryoshka