Recipe
Chamar OpenAI via Axon (em 5 linhas)
Você já usa OpenAI SDK. Pra rodar via Axon (com cache automático + billing USDC), é uma linha:
import { OpenAI } from 'openai';
const openai = new OpenAI({
apiKey: process.env.AXON_KEY,
baseURL: 'https://axon-kedb.onrender.com/v1/proxy/openai',
});
const { choices } = await openai.chat.completions.create({
model: 'gpt-4o-mini',
messages: [{ role: 'user', content: 'Oi' }],
});
Pronto. Zero código novo. A cada chamada, Axon:
- Debita USDC da sua wallet (você fica com 28+ APIs disponíveis)
- Cacheia se
temperature: 0e mesma mensagem (50% desconto) - Refunda se upstream der erro
- Retorna header
x-axon-cost-usdccom o custo real
Python equivalente
from openai import OpenAI
client = OpenAI(
api_key=os.getenv("AXON_KEY"),
base_url="https://axon-kedb.onrender.com/v1/proxy/openai",
)
Por que não chamar OpenAI direto?
- Axon adiciona cache (você economiza 15-40% em média)
- Axon adiciona retry com fallback (se OpenAI cair, pula pra Anthropic automaticamente — opt-in)
- Axon adiciona policies (limite diário, limite por request)
- Axon expõe métricas (custo real, latência p95, cache hit rate)
Em produção, essas coisas economizam tempo e dinheiro real.
Stack: typescriptopenaiaxon