llm-benchmark
一款自动对多个 LLM 模型的响应进行基准测试的工具,使用标准化提示并生成性能报告和质量指标。
基准测试
性能评估
自动化
开发工具
模型比较
质量指标
AI工具
测试
⭐ 0⬇️ 0🏷️ main📦 2
llm-benchmark-main.zip
30.3 KB下载
安装与使用说明
Codex
- 先下载 ZIP 包(例如:llm-benchmark-main.zip)。
- 解压后放到 $CODEX_HOME/skills/ 目录下。
- 如果没有设置 $CODEX_HOME,通常可放到 ~/.codex/skills/。
- 确保目录内有 SKILL.md,然后重开会话即可使用。
源码目录预览
├── .cache │ ├── 15905ad08e9c801a900bf51b0b5e131f.json │ ├── 185d4aa0d664f07ef83dd4fb785c1e88.json │ ├── 234e534ac5819173d177ff19bbd1773a.json │ ├── 275fbdba1125047ccfb4af40625b577e.json │ ├── 2ad1d5b4cd45de138b303d01c9a75111.json │ ├── 3ebccd5071816f77c8be39a3dba04dc5.json │ ├── 3f9de8de14baec3a01765120220e1c5d.json │ ├── 58d977389bfaacde5746e9f2bb33d87d.json │ ├── 60536820dd0e024de883a65f878dd8be.json │ ├── 6169fa48e67bfe88035808bd1a0dd28d.json │ ├── 88ead3f1d82e412bd5bc3aae4dae5b21.json │ ├── a220f3c8e77e873d296840c8223b74ff.json │ ├── a5d2e29e2906305d7b8b973cfd8901d0.json │ ├── c88e809797577db983451e99405592b0.json │ ├── df798065d3b0559aae4896fd2181f3dc.json │ └── ea69cba58cfe52a3381ff2a860cb000d.json ├── assets │ └── example-report.md ├── references │ ├── config-template.json │ ├── metrics.json │ └── prompts.json ├── scripts │ ├── benchmark.js │ ├── cli.js │ └── reporter.js ├── tests │ └── benchmark.test.js ├── README.md ├── SKILL.md ├── package-lock.json └── package.json
元数据
Slug: llm-benchmark
作者: NeoSkillFactory
协议: 未声明
包大小: 30.3 KB
SHA256: 3743789e65aaee73e65867708f422ebf51e6f786ed65d03b3b54e62e5842a597