🇨🇳 La notizia della settimana è la polemica nata tra Anthropic e varie aziende Cinesi che sono state accusate di avere rubato risposte da Claude per allenare i loro modelli. Condividiamo i loro sentimenti, ma in questo momento siamo davanti alla Corte d'Assise e Anthropic è accusata di avere allenato i suoi modelli su milioni di libri. (Cit.) 🥷🏻 Nonostante il suo interesse verso lo sviluppo di un'AI etica, la stessa Anthropic è finita al centro delle polemiche per dei cambiamenti relativi ad alcune sue politiche sullo sviluppo dei modelli. Il tutto è successo mentre voci vorrebbero il Pentagono in forte pressing sull'azienda per fornire modelli privi di guardarail. ✍️🏻 Si parla ormai continuamente di file agents.md, molte sono i post in cui si propone il contesto definitivo da dare ai nostri agenti per farli diventare dei 10x developer. Ma questi file saranno davvero così utili? Alcuni ricercatori hanno dato una risposta a questa domanda spiegando come la qualità delle risposte degli agenti varia in base alla presenza del file agents.md.Supporta il PointerPodcast
La nostra pagina supportaciUnitevi al nostro gruppo Telegram per discutere della puntataLascia una recensione su SpotifyLascia una recensione su Apple PodcastAcquista il prodotto della settimana o parti da uno dei link qui sotto per fare acquisti su Amazon!Prodotto della settimana
Build a Large Language Model from ScratchNote Puntata
Il tweet di AnthropicDetecting and preventing distillation attacksCos’è Palantir[Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?](https://arxiv.org/abs/2602.11988)Exclusive: Anthropic Drops Flagship Safety PledgeExclusive: Hegseth gives Anthropic until Friday to back down on AI safeguardsI nostri contatti:
Gruppo TelegramLinkedInTwitchYouTubeInstagramTwitterMail