LLM 评估报告

模型日期总响应时间 (s)通过的测试平均 CodeBLEU (0-1)平均有用性评分 (0-4)平均功能正确性评分 (0-4)

gpt-4o-mini

2024-10-15

288.593

113

0.336386

3.65854

3.62805

gemini-1.5-pro

2024-10-15

691.622

104

0.342204

3.47561

3.40854

claude-3-5-sonnet-20240620

2024-10-15

369.063

113

0.303837

3.67683

3.59146

gpt-4o

2024-10-15

323.43

127

0.319079

3.73171

3.60976

claude-3-opus-20240229

2024-10-15

1069.89

107

0.307076

3.68902

3.60976

总响应时间 (s): 模型生成所有输出所花费的总时间。

通过的测试: 模型在评估过程中通过的单元测试数量,总共 164 个测试。

平均 CodeBLEU: 平均 CodeBLEU 分数,是评估代码生成质量的指标,基于语法和语义的正确性。

平均 有用性评分: 模型输出的有用性平均评分,由 LLM 模型评定。

  • 0: 片段完全没有帮助,与问题无关。

  • 1: 片段稍微有帮助,包含与问题相关的信息,但从头编写解决方案更容易。

  • 2: 片段有些有帮助,需要进行重大更改(与片段的大小相比),但仍然有用。

  • 3: 片段有帮助,但需要稍微修改以解决问题。

  • 4: 片段非常有帮助,解决了问题。

平均 功能正确性评分: 模型输出的功能正确性的平均分,评估输出满足功能要求的程度,由 LLM 模型评定。

  • 0 (未通过所有可能的测试): 代码片段完全不正确且毫无意义。

  • 4 (通过所有可能的测试): 代码片段完全正确,能够处理所有情况。

Last updated