traceAI:重新定义GenAI可观测性的开源解决方案
世界首款真正理解GenAI语义的OpenTelemetry原生追踪工具
在构建复杂的LLM应用时,你是否遇到过这样的困境:你的智能代理进行了34次API调用,消耗了大量token预算,却返回了错误答案,而你完全不知道问题出在哪里?现有的LLM追踪工具往往强制你使用新的供应商仪表板,但大多数团队已经拥有了完善的可观测性基础设施——Datadog、Grafana、Jaeger等。为什么还要再添加一个?
OpenTelemetry遇到了GenAI时代
OpenTelemetry是应用程序可观测性的行业标准,但它诞生于AI时代之前。它理解HTTP延迟,却没有提示词、token或推理链的概念。这就是traceAI的用武之地——在OpenTelemetry之上构建了真正的GenAI语义层。
两行代码,全面追踪
只需简单的两行代码,你的整个GenAI应用就会自动获得完整的追踪能力:
from traceai import trace_ai
trace_ai.init()
全面覆盖的技术栈
语言支持:Python、TypeScript、Java、C#(功能完全一致)
框架兼容:OpenAI、Anthropic、LangChain、LlamaIndex、CrewAI、DSPy、Bedrock、Vertex AI、MCP、Vercel AI SDK等35+种框架
后端集成:Datadog、Grafana、Jaeger或任何OpenTelemetry兼容工具
核心功能特性
完整的提示词和补全捕获:记录每一次交互的完整上下文
精细化token使用统计:精确到每次调用的token消耗
模型参数和设置追踪:完整记录模型配置信息
RAG检索步骤和来源:追踪检索增强生成的全过程
智能代理决策和工具执行:深入理解代理的决策逻辑
带完整上下文的错误记录:问题排查不再盲目
各层级延迟监控:从底层API调用到高层业务逻辑
为什么选择traceAI?
真正的GenAI语义规范:不是近似实现,而是完全正确的遵循,确保在任何OTel后端中都能直接阅读追踪数据
零供应商锁定:你的数据去往你想去的任何地方,随时切换后端,我们甚至不收集你的追踪数据
完全开源:永久MIT许可,社区驱动,我们不构建围墙花园
适用场景
🤖 调试复杂LLM管道的AI工程师
🏢 拒绝采用另一个供应商的平台团队
🔧 已经在运行OTel并希望在应用遥测旁边获得AI追踪的团队
🚀 构建智能代理系统并需要生产级可观测性的团队
未来发展路线
我们正在积极开发Go语言支持,并不断扩大框架覆盖范围。traceAI将继续保持开源本色,为GenAI社区提供最优秀的可观测性解决方案。
立即体验traceAI:
⭐ GitHub: https://github.com/FutureAGI/traceAI
📖 文档: https://docs.futureagi.com/traceai
💬 Discord: https://discord.gg/futureagi
加入我们,共同构建更好的GenAI可观测性未来!

AI驱动的自动化Bug检测与代码调试辅助工具