Torna al blog
Sicurezza

MCP Veille: mettere in sicurezza gli assistenti con gli strumenti, non con le supposizioni

Josselin Liebe
Josselin Liebe

Gli assistenti IA sono utili per spiegare uno stack o proporre codice, ma quando si tratta di stabilire se un'email è usa e getta, se un IP è rischioso o se un IBAN è coerente, il modello da solo resta una scatola nera: può ragionare in modo plausibile e sbagliare sui fatti. Il Model Context Protocol (MCP) collega l'assistente a strumenti ufficiali — in questo caso la stessa API Veille dei tuoi backend — così le risposte si fondano su dati verificati e non sull'improvvisazione.

In due frasi: cos'è l'MCP?

L'MCP è un protocollo aperto: il client (Cursor, Claude Code, Gemini CLI, modalità sviluppatore OpenAI, ecc.) espone all'assistente funzioni-strumento con parametri tipizzati. L'assistente decide quando invocarle; il server MCP restituisce una risposta strutturata. Per Veille, ogni strumento corrisponde a un'operazione REST: stesso comportamento e stessa fatturazione delle chiamate HTTP classiche, come precisa la documentazione MCP.

Perché è un vantaggio per la sicurezza

Meno allucinazioni sul rischio. Senza strumento, un modello può «indovinare» che un dominio è sospetto o classificare un indirizzo senza prove. Con il server MCP Veille (https://mcp.veille.io/), l'assistente interroga la stessa intelligence delle tue pipeline (validazione email, reputazione IP, coerenza IBAN, ecc.). La decisione si basa su una risposta API, non su testo generato.

Allineamento dev / supporto / prod. Se il team prodotto usa già Veille lato server, collegare lo stesso servizio via MCP evita scostamenti: nessuna «regola a occhio» in chat che contraddice ciò che fa il codice in produzione.

Chiave API gestita come in ogni integrazione seria. La configurazione consigliata usa l'header x-api-key (vedi API Keys), variabili d'ambiente o placeholder nei README — mai segreti committati. Le best practice Veille ricordano anche di separare le chiavi per ambiente (dev, staging, prod), di ruotarle regolarmente e di non esporre la chiave nel browser: le chiamate sensibili restano lato server o in un contesto di strumento locale, non in una pagina web pubblica.

Tracciabilità. Come per l'API REST, puoi correlare utilizzo e crediti; l'assistente non «inventa» una fonte: chiama un endpoint di cui controlli policy e fatturazione.

Affidabilità: perché batte un solo prompt

Aspetto Assistente senza strumenti Veille Assistente con MCP Veille
Fonte di verità Testo del modello Risposta strutturata dell'API
Coerenza con le tue app Variabile Allineata agli stessi endpoint
Manutenibilità Prompt da curare a mano Strumenti aggiornati con il prodotto
Errori Difficili da distinguere dal buon senso Codici HTTP e schemi espliciti (vedi anche gestione errori)

Il server usa Streamable HTTP all'URL documentato; non è una pagina web da aprire nel browser, ma un endpoint per client MCP. Chiarisce le aspettative: integrazione esplicita, niente scraping o copia-incolla fragile.

Casi d'uso concreti

  • Revisione ticket o log: l'assistente arricchisce un indirizzo o un IP con i segnali Veille prima di proporre un'azione.
  • Onboarding sviluppatori: domande su frode o validazione usando gli stessi strumenti della documentazione API.
  • Definizione prodotto: testare scenari (soglia di rischio, comportamento su email usa e getta) con risposte reali invece di esempi inventati.

Configurazione (promemoria)

La documentazione ufficiale copre Claude Code, Cursor (file mcp.json con url che termina con / e headers per la chiave), Gemini CLI e modalità sviluppatore OpenAI. L'essenziale: un URL per il server MCP Veille, una chiave valida e le abitudini di sicurezza consuete (niente segreti nel repo, chiavi per ambiente).

In sintesi: l'MCP non sostituisce la tua policy di sicurezza, ma riduce la superficie d'errore umana e del modello dando all'assistente le stesse leve della tua API — più affidabile per l'analisi, più allineato alla produzione e più controllabile grazie a chiavi e monitoraggio d'uso documentato su Veille.