MCP Server (IA)
O desenvolvimento de software está sendo transformado por assistentes de IA. Para ajudar você a construir, depurar e integrar com o Asaas de forma mais rápida e inteligente, estamos introduzindo duas novas funcionalidades focadas em IA: o Servidor MCP e o LLMs.txt.
Este guia explica o que são essas ferramentas e como você pode usá-las para potencializar sua integração.
Conecte seu Assistente de IA Diretamente à API do Asaas
O Model Context Protocol (MCP) é um padrão que permite que assistentes de IA entendam e interajam programaticamente com APIs.
Disponibilizamos um servidor MCP público que converte nossa especificação OpenAPI em um recurso estruturado que seu assistente de IA pode consumir.
O que você pode fazer com isso?
Ao conectar seu assistente de IA ao nosso servidor MCP, você o habilita a:
- Listar endpoints disponíveis em nossa API.
- Obter schemas detalhados de requisição e resposta para qualquer endpoint.
- Gerar exemplos de código (snippets) para interagir com endpoints específicos.
- Executar chamadas de API diretamente do seu editor (requer autenticação).
- Pesquisar nossa documentação técnica.
Como usar?
Seu ponto de acesso ao nosso Servidor MCP é: https://docs.asaas.com/mcp
Você pode adicionar esta URL diretamente em sua ferramenta de desenvolvimento de IA.
Autenticando requisições
Para permitir que seu assistente de IA execute requisições, você deve fornecer seu access_token do Asaas de forma segura. O servidor MCP em si é público, mas a execução de chamadas de API usa a sua chave privada.
Exemplos de configuração
Você pode configurar sua ferramenta para injetar seu access_token com segurança. Existem exemplos de configuração para os seguintes assistentes:
-
Add to
~/.cursor/mcp.json:{ "mcpServers": { "asaas": { "url": "https://docs.asaas.com/mcp" } } }
Clique aqui para acessar os exemplos de configuração.
Testando sua Configuração
Após configurar, tente perguntar ao seu assistente:
- "Como eu crio um novo cliente no Asaas?"
- "Mostre-me um exemplo para o endpoint /v3/subscriptions."
- "Quais são os parâmetros para tokenizar um cartão de crédito?"
Avançado: Usando diferentes versões da API
Por padrão, o servidor MCP usa a última versão estável da nossa documentação. Para acessar uma versão ou branch diferente, você pode adicionar o parâmetro ?branch=<nome_do_branch> à URL do MCP.
Garantindo respostas de IA precisas sobre nossa API
O LLMs.txt é um arquivo de configuração que "ensina" modelos de IA a entender e representar corretamente nossa documentação.
Qual o benefício?
Quando você ou outros desenvolvedores fazem perguntas sobre a API do Asaas em IAs públicas, este arquivo ajuda a garantir que as respostas sejam:
- Precisas: Reduz a chance de "alucinações" sobre nossos endpoints.
- Atualizadas: Guia os modelos para as informações mais recentes sobre versões e parâmetros.
- Consistentes: Assegura que a IA use a terminologia correta.
Como usar?
Você não precisa fazer nada! Este é um benefício passivo.
O Asaas mantém este arquivo atualizado automaticamente. Modelos de IA que suportam este padrão, irão verificá-lo antes de gerar respostas sobre nossa API, resultando em respostas mais confiáveis para você.
Para transparência, você pode ver o arquivo em: https://docs.asaas.com/llms.txt
Reporte problemas identificados
Caso identifique alguma resposta errada por parte da IA, ou algo que pode ser melhorado, pedimos que nos comunique através do e-mail [email protected] para que possamos tomar as medidas necessárias.
Agradecemos pela sua colaboração!
Updated about 7 hours ago