返回开源软件模块
langfuse
AI 开源软件项目库

langfuse

langfuse/langfuse

langfuse(langfuse/langfuse)是一款面向LLM 应用可观测性与调试的开源项目。Langfuse 是面向 LLM 应用工程化的开源平台,提供从开发到上线后的可观测与评估闭环。它支持采集 trace、会话与模型调用日志,定位检索、Agent、推理链路问题;同时提供 Prompt 管理与版本协作、Playground 快速试验、数据集与多种评测方式(LLM-as-a-judge、人工标注、用户反馈)。适合需要持续迭代、质量监控与团队协作的 AI 产品团队。

analytics
llm-observability
llm-evaluation
prompt-management
self-hosted
open-source
autogen
evaluation
langchain
large-language-models
llama-index
llm
llmops
monitoring
observability
GitHub Stars
23.7k
Forks
2.4k
最近活跃
1 天内
部署方式
5
部署复杂度

项目简介

Langfuse 是面向 LLM 应用工程化的开源平台,提供从开发到上线后的可观测与评估闭环。它支持采集 trace、会话与模型调用日志,定位检索、Agent、推理链路问题;同时提供 Prompt 管理与版本协作、Playground 快速试验、数据集与多种评测方式(LLM-as-a-judge、人工标注、用户反馈)。适合需要持续迭代、质量监控与团队协作的 AI 产品团队。

适合谁优先上手

想围绕“LLM 应用可观测性与调试”寻找可私有化部署方案的个人或团队
偏好 TypeScript 技术生态、希望后续可以自行扩展的人
愿意投入一定运维成本,换取更高可控性的团队

安装方式

部署可选托管版 Langfuse Cloud(免自建)或自托管。自托管支持本地 Docker Compose、单机 VM(Docker Compose)、Kubernetes + Helm(推荐生产)以及 AWS/Azure/GCP 的 Terraform 模板。最小前置是可运行 Docker 的环境;若走 K8s 需准备集群与 Helm。快速本地体验可克隆仓库后执行 `docker compose up` 启动,再按文档完成实例配置与访问。

使用说明

启动后先在项目中接入 Langfuse SDK(Python 或 JS/TS),或使用 OpenAI、LangChain、LlamaIndex、LiteLLM 等集成进行自动埋点,优先验证 traces 与会话是否成功上报。随后在控制台查看调用链、延迟与错误,定位问题样本;将异常样本跳转到 Playground 调整 Prompt 与模型参数,再通过评测与数据集运行对比版本效果。需要自定义 LLMOps 流程时,可使用其 API、OpenAPI 与 typed SDK 进行二次集成。

部署与运营建议

部署前先看

部署 langfuse 时,建议先跑最小可用版本,再补域名、权限、备份、监控这些正式环境必需项。

  • 推荐优先评估 Langfuse Cloud、Docker Compose 这类成熟部署路径。
  • 如果依赖数据库、缓存、中间件较多,先固定版本号和数据目录,再做联调。
  • 不要跳过回滚方案设计;上线失败后能不能快速回退,比一次装成功更重要。

长期维护怎么看

真正决定 langfuse 值不值得长期保留的,不是首日安装成功,而是后续运维和团队接手成本。

  • 建议在内部记录登录入口、关键配置、升级步骤和排障入口,避免工具变成“只有部署者自己懂”的孤岛。
  • 优先把它接进 LLM 应用可观测性与调试、Prompt 管理与版本控制 这类高频场景,才能更快验证 ROI。
  • 每隔一段时间复盘:它到底替代了什么、节省了什么、后续是否还值得继续维护。

优势与注意事项

这个项目的加分点

  • 已有提炼后的项目摘要,能更快判断是否值得试跑
  • 支持 Langfuse Cloud、Docker Compose、VM (Docker Compose) 等部署方式,落地路径相对明确
  • 适用场景已经比较明确,可直接对照 LLM 应用可观测性与调试、Prompt 管理与版本控制 等业务需求评估
  • 标签覆盖 analytics、llm-observability、llm-evaluation,利于后续做站内专题聚合

上正式环境前要注意

  • 部署链路和依赖项可能偏多,正式上线前应先做回滚演练

中国用户部署时重点关注

如果你在中国大陆网络环境部署,优先确认 Docker 镜像拉取速度,必要时准备镜像源或代理。
除 GitHub 仓库外,建议同时检查官网文档站在国内网络下的访问速度与可读性。
凡是涉及邮件、对象存储、OAuth、Webhook 的能力,都建议在正式部署前先做一轮国内环境联调。

常见问题 FAQ

langfuse 是什么?

langfuse(langfuse/langfuse)是一款面向LLM 应用可观测性与调试的开源项目。Langfuse 是面向 LLM 应用工程化的开源平台,提供从开发到上线后的可观测与评估闭环。它支持采集 trace、会话与模型调用日志,定位检索、Agent、推理链路问题;同时提供 Prompt 管理与版本协作、Playground 快速试验、数据集与多种评测方式(LLM-as-a-judge、人工标注、用户反馈)。适合需要持续迭代、质量监控与团队协作的 AI 产品团队。

langfuse 适合谁?

如果你正在寻找围绕“LLM 应用可观测性与调试”的开源方案,并希望保留私有化部署或自主可控能力,langfuse 值得优先试跑。

langfuse 怎么部署更稳?

建议优先按照 Langfuse Cloud、Docker Compose、VM (Docker Compose)、Kubernetes (Helm)、Terraform (AWS/Azure/GCP) 这类官方或社区成熟方案做最小可用部署,先验证核心流程,再决定是否做正式上线。

langfuse 在中国用户环境下要注意什么?

重点检查镜像拉取、依赖下载、文档访问速度,以及邮件、Webhook、对象存储等外部依赖是否能顺利联调。

langfuse 的部署复杂度高吗?

langfuse 目前可归为“高”复杂度:建议根据依赖项数量、部署方式和后续运维能力来决定是否进入正式环境。