Promptfoo — LLM 应用测试与红队攻防框架,本地运行不泄露提示词
0 次浏览
2026/3/11
LLM 应用上线前,你测了吗?
Promptfoo 是专门为 LLM 应用设计的测试框架。它解决了一个普遍痛点:开发者凭感觉调提示词,上线后才发现问题。有了 Promptfoo,你可以用数据说话。
核心功能
- 自动化评测:用 YAML 配置,批量测试提示词在不同输入下的表现
- 多模型对比:并排比较 OpenAI、Anthropic、Gemini、Llama 等模型的输出质量
- 红队安全扫描:自动检测 prompt injection、越狱、隐私泄露等漏洞
- CI/CD 集成:把 LLM 安全检查加入 PR 流程,防止问题上线
- 完全本地:评测数据不离开你的机器
快速上手
npm / Homebrew / pip 任选安装,promptfoo init 生成示例项目,promptfoo eval 运行评测,Web UI 或 CLI 查看结果。
12.4k Stars,TypeScript 实现,MIT 许可。
免责声明
本站内容主要用于信息整理、技术研究与经验分享,不对第三方产品或服务的可用性、完整性作出任何明示或暗示的保证。
- 本站所分享的资源、工具、教程等内容仅供学习与研究参考,请勿用于商业用途。
- 部分内容可能来源于公开网络或开源社区,如涉及版权或其他合法权益问题,请通过联系方式与我们联系,我们将在核实后及时处理。
- 如需将相关内容用于商业产品或盈利性业务,请自行联系权利方获取正式授权。
- 因不当使用引发的版权或合规风险,由使用者自行承担。
- 外部链接失效或无法访问属于正常现象,本站不保证所有链接的持续有效性。
转载或引用本文内容,请保留原文链接并注明来源。
评论
加载中...