
Sign up to save your podcasts
Or
Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/
Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/
2 Listeners
0 Listeners
212 Listeners
25 Listeners
0 Listeners
0 Listeners
136 Listeners
207 Listeners
0 Listeners
54 Listeners
47 Listeners
0 Listeners
45 Listeners
25 Listeners
0 Listeners