
Sign up to save your podcasts
Or
Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/
Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/
1 Listeners
1 Listeners
213 Listeners
21 Listeners
0 Listeners
0 Listeners
140 Listeners
193 Listeners
0 Listeners
35 Listeners
38 Listeners
0 Listeners
35 Listeners
20 Listeners
0 Listeners