
Reduzimos seu custo por token em 0%
Roteamento inteligente envia prompts simples pra modelos baratos e os complexos pra modelos potentes. Uma API, 13+ provedores, fallbacks automáticos. Seu stack de IA, finalmente otimizado.
Código aberto. Licença MIT. Sem cartão de crédito.






Compatível com todos os principais provedores
Como funciona
Seu app se conecta ao OpenTracy. O OpenTracy se conecta a todos os provedores de LLM.

Tudo que você precisa para gerenciar LLMs
Do roteamento à avaliação e destilação. Uma única plataforma.

Uma API, todos os modelos
Envie requisições para OpenAI, Anthropic, Google, Mistral e mais 9 provedores por um único endpoint.

Traces em tempo real
Cada requisição registrada com entrada, saída, custo e latência completos. Consulte milhões de traces instantaneamente.

Rastreamento de custos
Precificação automática por token para 70+ modelos. Veja exatamente para onde vai seu dinheiro.

Roteamento inteligente
Direcione prompts simples para modelos baratos e os complexos para modelos potentes. Fallbacks automáticos.

Monitoramento de qualidade
Agentes de IA escaneiam traces em busca de alucinações e quedas de qualidade. Receba alertas antes que os usuários percebam.

Destilação de modelos
Treine modelos menores, mais rápidos e mais baratos com seus dados de produção. Seus modelos, seu controle.
Simples por design
Se você já usou o SDK da OpenAI, você já conhece o OpenTracy.
import opentracy as ot
# Call any model — one line
response = ot.completion(
model="openai/gpt-4o-mini",
messages=[{"role": "user", "content": "Hello!"}],
fallbacks=["anthropic/claude-3-haiku"]
)
print(response.choices[0].message.content)
print(f"Cost: ${response._cost:.6f}")Compatível com OpenAI
O mesmo formato que você já usa. Mude uma linha para começar.
Fallbacks automáticos
Se um provedor cair, o OpenTracy muda para seu backup.
Custo em cada resposta
Cada resposta inclui o custo exato. Sem mais adivinhação.
Streaming completo
Todos os provedores, incluindo tradução SSE do Anthropic.
Preços simples e previsíveis
Comece grátis. Escale quando precisar. Sem surpresas.
Grátis
Para desenvolvedores explorando roteamento e observabilidade de LLMs.
- ✓Até 10.000 requisições/mês
- ✓3 execuções de destilação/mês
- ✓Todos os 13+ provedores
- ✓Registro completo de traces
- ✓Suporte da comunidade
Starter
Para equipes rodando LLMs em produção.
- ✓Requisições ilimitadas
- ✓Destilação ilimitada
- ✓Avaliações avançadas
- ✓Escaneamento de qualidade com IA
- ✓Suporte prioritário
- ✓Colaboração em equipe
- ✓Opção de self-host
- ✓Regras de roteamento personalizadas
Enterprise
Para empresas que querem infraestrutura de IA pronta, com acompanhamento especializado.
- ✓Tudo do plano Starter
- ✓Suporte 24/7 dedicado
- ✓Setup completo feito por nós
- ✓Consultoria de implementação
- ✓Onboarding dedicado
- ✓Review personalizado da sua arquitetura
- ✓Deploy em VPC
- ✓SSO / SAML
- ✓Logs de auditoria
- ✓SLAs personalizados
- ✓Opção on-premise
- ✓Criptografia BYOK
Times de IA confiam em nós
De startups a grandes empresas, times usam o OpenTracy para simplificar seu stack de LLMs.
“O OpenTracy nos permitiu consolidar 4 integrações de LLM em uma única API. Nosso time entrega funcionalidades 3x mais rápido agora.”
“Só o rastreamento de custos nos economizou $2.400/mês. Não tínhamos ideia de quanto estávamos gastando a mais com chamadas GPT-4.”
“Migramos de uma camada de roteamento customizada para o OpenTracy em uma tarde. O sistema de fallback detectou duas quedas de provedor na primeira semana.”
Junte-se à comunidade
Código aberto, desenvolvimento aberto. Construa conosco.

Código aberto. Self-host ou nuvem.
Execute na sua própria infraestrutura com controle total, ou use nossa nuvem gerenciada. Licença MIT, sem vendor lock-in.
Plano gratuito disponível. Sem cartão de crédito.