
Sign up to save your podcasts
Or


Conosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/
By Python MilanoConosciamo Daniele Zonca, Architect di Model Serving in Openshift AI. Se un modello di AI dà un output sbagliato, che strumenti ho per spiegare perché il modello ha dato quella risposta? Quali sono invece gli strumenti per un modello di ML tradizionale?
Approfondiamo poi il progetto open source InstructLab per il miglioramento collaborativo del fine-tuning di LLM.
Referenze della puntata:
https://github.com/instructlab
https://trustyai-explainability.github.io/
http://paperswelovemi.eventbrite.it/

1 Listeners

0 Listeners

214 Listeners

23 Listeners

0 Listeners

0 Listeners

186 Listeners

141 Listeners

0 Listeners

30 Listeners

31 Listeners

38 Listeners

19 Listeners

0 Listeners

1 Listeners