L'evoluzione dei modelli di intelligenza artificiale generativa (LLM) ha introdotto il Model Context Protocol (MCP), che consente agli LLM di interagire con risorse esterne, trasformandoli in agenti operativi. Tuttavia, questo protocollo amplia la superficie di attacco del sistema, come dimostrato da uno studio del CERT-AgID che ha rivelato una grave vulnerabilità in termini di confidenzialità . Senza meccanismi di validazione robusti, un MCP potrebbe essere utilizzato come proxy di rete per l'invio di richieste arbitrarie, mettendo a rischio la sicurezza dei sistemi informativi.
Leggi su GoYou