Voltar ao blog
Segurança

MCP Veille: proteja assistentes com ferramentas, não suposições

Josselin Liebe
Josselin Liebe

Assistentes de IA ajudam a explicar uma stack ou a sugerir código, mas quando é preciso dizer se um email é descartável, se um IP é arriscado ou se um IBAN é coerente, o modelo sozinho continua uma caixa negra: pode soar plausível e errar nos factos. O Model Context Protocol (MCP) liga o assistente a ferramentas oficiais — neste caso a mesma API Veille dos seus backends — para que as respostas se baseiem em dados verificados e não em improviso.

Em duas frases: o que é o MCP?

O MCP é um protocolo aberto: o cliente (Cursor, Claude Code, Gemini CLI, modo programador OpenAI, etc.) expõe ao assistente funções-ferramenta com parâmetros tipados. O assistente decide quando as chamar; o servidor MCP devolve uma resposta estruturada. Na Veille, cada ferramenta corresponde a uma operação da API REST: mesmo comportamento e mesma faturação que chamadas HTTP clássicas, como indica a documentação MCP.

Porque é um ganho de segurança

Menos alucinações sobre o risco. Sem ferramenta, um modelo pode «adivinhar» que um domínio é suspeito ou classificar um endereço sem provas. Com o servidor MCP Veille (https://mcp.veille.io/), o assistente consulta a mesma inteligência que os seus pipelines (validação de email, reputação IP, coerência IBAN, etc.). A decisão assenta numa resposta API, não em texto gerado.

Alinhamento dev / suporte / prod. Se a equipa de produto já usa Veille no servidor, ligar o mesmo serviço por MCP evita discrepâncias: nenhuma «regra de bolso» no chat que contradiga o que o código de produção faz.

Chave API como em qualquer integração séria. A configuração recomendada usa o cabeçalho x-api-key (ver API Keys), variáveis de ambiente ou placeholders nos README — nunca segredos commitados. As boas práticas Veille lembram também separar chaves por ambiente (dev, staging, prod), rodá-las regularmente e não expor a chave no browser: chamadas sensíveis ficam no servidor ou num contexto de ferramenta local, não numa página web pública.

Rastreabilidade. Como na API REST, pode correlacionar uso e créditos; o assistente não «inventa» uma fonte: chama um endpoint cuja política e faturação controla.

Fiabilidade: porque é mais fiável do que um prompt sozinho

Aspeto Assistente sem ferramentas Veille Assistente com MCP Veille
Fonte de verdade Texto do modelo Resposta estruturada da API
Coerência com as suas apps Variável Alinhada nos mesmos endpoints
Manutenção Prompts à mão Ferramentas actualizadas com o produto
Erros Difíceis de distinguir do bom senso Códigos HTTP e esquemas explícitos (ver também tratamento de erros)

O servidor usa Streamable HTTP no URL documentado; não é uma página web para abrir no browser, mas um endpoint para clientes MCP. Isso clarifica expectativas: integração explícita, não scraping nem copiar-colar frágil.

Casos de uso concretos

  • Revisão de tickets ou logs: o assistente enriquece um endereço ou IP com sinais Veille antes de propor uma acção.
  • Onboarding de programadores: perguntar sobre fraude ou validação com as mesmas ferramentas que a documentação da API.
  • Definição de produto: testar cenários (limiar de risco, comportamento com email descartável) com respostas reais em vez de exemplos fictícios.

Configuração (lembrete)

A documentação oficial cobre Claude Code, Cursor (ficheiro mcp.json com url a terminar em / e headers para a chave), Gemini CLI e modo programador OpenAI. O essencial: um URL para o servidor MCP Veille, uma chave válida, e hábitos de segurança habituais (sem segredos no repositório, chaves por ambiente).

Em resumo: o MCP não substitui a sua política de segurança, mas reduz a superfície de erro humano e do modelo ao dar ao assistente as mesmas alavancas que a sua API — mais fiável para análise, mais alinhado com produção, e mais controlável graças às chaves e ao acompanhamento de uso documentado na Veille.