traceAI
调试优化
traceAI

开源LLM追踪工具,无缝集成现有可观测性栈

raksmart服务器,搭建属于自己AI云

traceAI:重新定义GenAI可观测性的开源解决方案

世界首款真正理解GenAI语义的OpenTelemetry原生追踪工具


在构建复杂的LLM应用时,你是否遇到过这样的困境:你的智能代理进行了34次API调用,消耗了大量token预算,却返回了错误答案,而你完全不知道问题出在哪里?现有的LLM追踪工具往往强制你使用新的供应商仪表板,但大多数团队已经拥有了完善的可观测性基础设施——Datadog、Grafana、Jaeger等。为什么还要再添加一个?

OpenTelemetry遇到了GenAI时代

OpenTelemetry是应用程序可观测性的行业标准,但它诞生于AI时代之前。它理解HTTP延迟,却没有提示词、token或推理链的概念。这就是traceAI的用武之地——在OpenTelemetry之上构建了真正的GenAI语义层。

两行代码,全面追踪

只需简单的两行代码,你的整个GenAI应用就会自动获得完整的追踪能力:

from traceai import trace_ai
trace_ai.init()

全面覆盖的技术栈

语言支持:Python、TypeScript、Java、C#(功能完全一致)

框架兼容:OpenAI、Anthropic、LangChain、LlamaIndex、CrewAI、DSPy、Bedrock、Vertex AI、MCP、Vercel AI SDK等35+种框架

后端集成:Datadog、Grafana、Jaeger或任何OpenTelemetry兼容工具


核心功能特性

完整的提示词和补全捕获:记录每一次交互的完整上下文

精细化token使用统计:精确到每次调用的token消耗

模型参数和设置追踪:完整记录模型配置信息

RAG检索步骤和来源:追踪检索增强生成的全过程

智能代理决策和工具执行:深入理解代理的决策逻辑

带完整上下文的错误记录:问题排查不再盲目

各层级延迟监控:从底层API调用到高层业务逻辑

为什么选择traceAI?

真正的GenAI语义规范:不是近似实现,而是完全正确的遵循,确保在任何OTel后端中都能直接阅读追踪数据

零供应商锁定:你的数据去往你想去的任何地方,随时切换后端,我们甚至不收集你的追踪数据

完全开源:永久MIT许可,社区驱动,我们不构建围墙花园


适用场景

🤖 调试复杂LLM管道的AI工程师

🏢 拒绝采用另一个供应商的平台团队

🔧 已经在运行OTel并希望在应用遥测旁边获得AI追踪的团队

🚀 构建智能代理系统并需要生产级可观测性的团队

未来发展路线

我们正在积极开发Go语言支持,并不断扩大框架覆盖范围。traceAI将继续保持开源本色,为GenAI社区提供最优秀的可观测性解决方案。

立即体验traceAI:
⭐ GitHub: https://github.com/FutureAGI/traceAI
📖 文档: https://docs.futureagi.com/traceai
💬 Discord: https://discord.gg/futureagi

加入我们,共同构建更好的GenAI可观测性未来!

相关导航