Per cominciare la puntata di questa settimana prendiamo spunto da alcuni follow-up che abbiamo ricevuto nella PointerChat, e cerchiamo di rispondere ad una domanda, risalente a qualche settimana fa, riguardante le TPU. 🔥 In questo episodio: 🤖 Parliamo di Microsoft che di recente ha rilasciato un nuovo paper e i pesi di 1-bit Large Lange Model con due miliardi di parametri: l'obiettivo è migliorare l'efficienza energetica e ridurre i requisiti hardware necessari. 🏢 Prendendo spunto da un post di Gergely Orosz pubblicato sulla sua newsletter, ci addentriamo nel mondo delle assunzioni nel mondo tech valutando quanto negativamente l'AI stia influenzando la qualità delle interview. 🩸In chiusura ci occupiamo della notizia che ha ispirato il titolo della puntata: Open AI ha aggiornato il suo Preparedness Framework ed è stato annunciato che i loro modelli potranno 'manipolare' gli utenti senza che ci sia alcuna forma di controllo. Notizia passata un po' in sordina ma che nasconde insidie e potenziali pericoli.
Unitevi al nostro gruppo Telegram per discutere della puntataNote della puntata
[D] Google just released a new generation of TPUs. Who actually uses TPUs in production?Google TRC programIronwood: The first Google TPU for the age of inferenceIlya Sutskever taps Google Cloud to power his AI startup’s researchHow Apple used Google’s help to train its AI modelsAnthropic Partners with Google CloudAI vs Bitcoin mining: Which consumes more energy?Tech hiring: is this an inflection point?OpenAI updated its safety framework—but no longer sees mass manipulation and disinformation as a critical riskAI chatbots might be better at swaying conspiracy theorists than humansBitNet b1.58 2B4T Technical ReportI nostri contatti:
Gruppo TelegramInstagramFacebookTwitterMailTwitch