
Sign up to save your podcasts
Or
Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/
Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/
1 Listeners
1 Listeners
213 Listeners
20 Listeners
0 Listeners
0 Listeners
136 Listeners
181 Listeners
0 Listeners
42 Listeners
41 Listeners
0 Listeners
33 Listeners
22 Listeners
1 Listeners