LLM 评估报告

模型
日期
总响应时间 (秒)
通过的测试
平均 CodeBLEU (0-1)
平均有用性评分 (0-4)
平均功能正确性评分 (0-4)

o1-preview

2025-01-21

2379.88

131

0.317852

3.62805

3.62805

o1-mini

2025-01-21

933.915

128

0.326939

3.68293

3.77439

gpt-4o

2025-01-21

317.122

121

0.321377

3.75

3.7622

gpt-4o-mini

2025-01-21

309.799

117

0.338521

3.68902

3.75

claude-3-5-sonnet-20240620

2025-01-21

244.255

111

0.298804

3.62805

3.65244

claude-3-5-sonnet-20241022

2025-01-21

254.239

115

0.312278

3.70732

3.66463

gemini-1.5-pro

2025-01-21

507.246

101

0.335308

3.48171

3.47561

gemini-1.5-flash

2025-01-21

764.864

2

0.267744

0.689024

0.914634

总响应时间 (秒): 模型生成所有输出所花费的总时间。

通过的测试: 模型在评估期间通过的单元测试数量,总共 164 个测试。

平均 CodeBLEU 平均 CodeBLEU 分数,是评估代码生成质量的指标,基于语法和语义的正确性。

平均 有用性评分 模型输出的有用性平均评分,由 LLM 模型评定。

  • 0: 代码片段完全没有帮助,与问题无关。

  • 1: 代码片段稍微有帮助,包含与问题相关的信息,但从头编写解决方案更容易。

  • 2: 代码片段有些帮助,需要进行重大更改(与代码片段的大小相比),但仍然有用。

  • 3: 代码片段有帮助,但需要稍微修改以解决问题。

  • 4: 代码片段非常有帮助,解决了问题。

平均 功能正确性评分 模型输出的功能正确性的平均评分,评估输出满足功能要求的程度,由 LLM 模型评定。

  • 0(未通过所有可能的测试): 代码片段完全错误且毫无意义。

  • 4(通过所有可能的测试): 代码片段完全正确,能够处理所有情况。

Last updated