LLM 评估报告

模型
日期
总响应时间 (s)
通过测试数量
平均 CodeBLEU (0-1)
平均有用性评分 (0-4)
平均功能正确性评分 (0-4)

claude-opus-4-20250514

2025-05-27

682.341

45

0.373498

3.68902

3.71951

claude-sonnet-4-20250514

2025-05-27

685.546

112

0.317174

3.7378

3.65854

claude-3-7-sonnet-20250219

2025-05-27

746.497

108

0.319258

3.65244

3.65244

claude-3-5-sonnet-20241022

2025-05-27

445.549

114

0.332094

3.65244

3.72561

gpt-4.1

2025-05-27

340.45

114

0.345565

3.71951

3.79878

o4-mini

2025-05-27

1380.26

128

0.322408

3.70122

3.7439

o3

2025-05-27

1592.45

141

0.314449

3.71341

3.85366

gpt-4o

2025-05-27

254.478

123

0.305002

3.70732

3.7378

gemini_gemini-2.0-flash

2025-05-27

428.324

102

0.304022

3.65244

3.60976

gemini_gemini-2.5-pro-preview-05-06

2025-05-27

1317.42

71

0.319577

2.45732

2.67683

gemini_gemini-2.5-flash-preview-05-20

2025-05-27

1042.03

108

0.32728

3.39024

3.46341

总响应时间 (s): 模型生成所有输出所花费的总时间。

通过测试数量: 模型在评估期间通过的单元测试数量,总共 164 个测试。

平均 CodeBLEU: 平均 CodeBLEU 分数,是评估代码生成质量的指标,基于语法和语义的正确性。

平均 有用性评分: 模型输出的有用性平均评分,由 LLM 模型评定。

  • 0: 代码片段完全没有帮助,与问题无关。

  • 1: 代码片段稍微有帮助,包含与问题相关的信息,但从头编写解决方案更容易。

  • 2: 代码片段有些有帮助,需要进行重大修改(与代码片段的大小相比),但仍然有用。

  • 3: 代码片段有帮助,但需要稍微修改以解决问题。

  • 4: 代码片段非常有帮助,能够解决问题。

平均 功能正确性评分: 模型输出的功能正确性平均评分,评估输出满足功能要求的程度,由 LLM 模型评定。

  • 0 (未通过所有可能的测试): 代码片段完全错误且毫无意义。

  • 4 (通过所有可能的测试): 代码片段完全正确,能够处理所有情况。

Last updated