
Sign up to save your podcasts
Or
Czy przyszłość 🔮 sztucznej inteligencji 🤖 to lokalne modele, które działają na naszym komputerze – bez potrzeby łączenia się z chmurą ☁️❓ W tym odcinku TechCast Podcast przyglądam się temu, jak rozwój NPU (Neural Processing Units), lokalnych LLM-ów i tzw. przetwarzania brzegowego zmienia sposób, w jaki korzystamy z AI.
Porozmawiamy o:
• zagrożeniach związanych z chmurowym AI i prywatnością danych,
• roli nowych procesorów z NPU w laptopach i smartfonach,
• różnicy między dużymi a małymi modelami językowymi (LLM vs SLM),
• tym, jak lokalna AI może działać szybciej, taniej i… offline.
Luźny, ale merytoryczny odcinek dla każdego, kto interesuje się technologią, pracuje w IT albo po prostu lubi wiedzieć, w którą stronę zmierza świat komputerów.
Czy przyszłość 🔮 sztucznej inteligencji 🤖 to lokalne modele, które działają na naszym komputerze – bez potrzeby łączenia się z chmurą ☁️❓ W tym odcinku TechCast Podcast przyglądam się temu, jak rozwój NPU (Neural Processing Units), lokalnych LLM-ów i tzw. przetwarzania brzegowego zmienia sposób, w jaki korzystamy z AI.
Porozmawiamy o:
• zagrożeniach związanych z chmurowym AI i prywatnością danych,
• roli nowych procesorów z NPU w laptopach i smartfonach,
• różnicy między dużymi a małymi modelami językowymi (LLM vs SLM),
• tym, jak lokalna AI może działać szybciej, taniej i… offline.
Luźny, ale merytoryczny odcinek dla każdego, kto interesuje się technologią, pracuje w IT albo po prostu lubi wiedzieć, w którą stronę zmierza świat komputerów.
42 Listeners
36 Listeners
8 Listeners
2 Listeners
6 Listeners
0 Listeners
1 Listeners
0 Listeners
4 Listeners
0 Listeners
4 Listeners
0 Listeners
0 Listeners
2 Listeners
3 Listeners