LLM 評估報告
模型 | 日期 | 總回應時間 (秒) | 通過測試數 | 平均 CodeBLEU (0-1) | 平均有用性評分 (0-4) | 平均功能正確性評分 (0-4) |
---|---|---|---|---|---|---|
o1-preview | 2024-12-09 | 2336.94 | 133 | 0.323122 | 3.59146 | 3.62195 |
o1-mini | 2024-12-09 | 802.379 | 131 | 0.341034 | 3.72561 | 3.7561 |
gpt-4o | 2024-12-09 | 239.651 | 124 | 0.315267 | 3.72561 | 3.7561 |
gpt-4o-mini | 2024-12-09 | 159.816 | 118 | 0.328537 | 3.62195 | 3.68902 |
claude-3-5-sonnet-20240620 | 2024-12-09 | 413.267 | 108 | 0.29922 | 3.60366 | 3.57927 |
claude-3-5-sonnet-20241022 | 2024-12-09 | 400.033 | 108 | 0.320168 | 3.67683 | 3.60976 |
gemini-1.5-pro | 2024-12-09 | 528.31 | 109 | 0.336933 | 3.5 | 3.4939 |
gemini-1.5-flash | 2024-12-09 | 768.992 | 1 | 0.264781 | 0.621951 | 0.792683 |
總回應時間 (秒): 模型生成所有輸出的總時間。
通過測試數: 模型在評估期間通過的單元測試數量,總共 164 個測試。
平均 CodeBLEU: 平均 CodeBLEU 分數,評估代碼生成質量的指標,基於語法和語義的正確性。
平均 有用性評分: 模型輸出有用性的平均評分,由 LLM 模型評定。
0: 片段完全無幫助,與問題無關。
1: 片段稍微有幫助,包含與問題相關的信息,但從頭寫解決方案更容易。
2: 片段有些有幫助,需要進行重大更改(與片段大小相比),但仍然有用。
3: 片段有幫助,但需要稍微更改以解決問題。
4: 片段非常有幫助,解決了問題。
平均 功能正確性評分: 模型輸出功能正確性的平均分數,評估輸出滿足功能要求的程度,由 LLM 模型評定。
0(未通過所有可能的測試): 代碼片段完全不正確且毫無意義。
4(通過所有可能的測試): 代碼片段完全正確,能處理所有情況。
Last updated