← 返回列表

llm-benchmark

一款自动对多个 LLM 模型的响应进行基准测试的工具,使用标准化提示并生成性能报告和质量指标。

基准测试
性能评估
自动化
开发工具
模型比较
质量指标
AI工具
测试
0⬇️ 0🏷️ main📦 2
llm-benchmark-main.zip
30.3 KB下载
安装与使用说明

Codex

  1. 先下载 ZIP 包(例如:llm-benchmark-main.zip)。
  2. 解压后放到 $CODEX_HOME/skills/ 目录下。
  3. 如果没有设置 $CODEX_HOME,通常可放到 ~/.codex/skills/
  4. 确保目录内有 SKILL.md,然后重开会话即可使用。

源码目录预览

├── .cache
│   ├── 15905ad08e9c801a900bf51b0b5e131f.json
│   ├── 185d4aa0d664f07ef83dd4fb785c1e88.json
│   ├── 234e534ac5819173d177ff19bbd1773a.json
│   ├── 275fbdba1125047ccfb4af40625b577e.json
│   ├── 2ad1d5b4cd45de138b303d01c9a75111.json
│   ├── 3ebccd5071816f77c8be39a3dba04dc5.json
│   ├── 3f9de8de14baec3a01765120220e1c5d.json
│   ├── 58d977389bfaacde5746e9f2bb33d87d.json
│   ├── 60536820dd0e024de883a65f878dd8be.json
│   ├── 6169fa48e67bfe88035808bd1a0dd28d.json
│   ├── 88ead3f1d82e412bd5bc3aae4dae5b21.json
│   ├── a220f3c8e77e873d296840c8223b74ff.json
│   ├── a5d2e29e2906305d7b8b973cfd8901d0.json
│   ├── c88e809797577db983451e99405592b0.json
│   ├── df798065d3b0559aae4896fd2181f3dc.json
│   └── ea69cba58cfe52a3381ff2a860cb000d.json
├── assets
│   └── example-report.md
├── references
│   ├── config-template.json
│   ├── metrics.json
│   └── prompts.json
├── scripts
│   ├── benchmark.js
│   ├── cli.js
│   └── reporter.js
├── tests
│   └── benchmark.test.js
├── README.md
├── SKILL.md
├── package-lock.json
└── package.json

元数据

Slug: llm-benchmark

作者: NeoSkillFactory

协议: 未声明

包大小: 30.3 KB

SHA256: 3743789e65aaee73e65867708f422ebf51e6f786ed65d03b3b54e62e5842a597