LLM 評価レポート

モデル
日付
総応答時間 (s)
合格したテスト
平均CodeBLEU (0-1)
平均有用性スコア (0-4)
平均機能的正確性スコア (0-4)

o1-preview

2025-01-21

2379.88

131

0.317852

3.62805

3.62805

o1-mini

2025-01-21

933.915

128

0.326939

3.68293

3.77439

gpt-4o

2025-01-21

317.122

121

0.321377

3.75

3.7622

gpt-4o-mini

2025-01-21

309.799

117

0.338521

3.68902

3.75

claude-3-5-sonnet-20240620

2025-01-21

244.255

111

0.298804

3.62805

3.65244

claude-3-5-sonnet-20241022

2025-01-21

254.239

115

0.312278

3.70732

3.66463

gemini-1.5-pro

2025-01-21

507.246

101

0.335308

3.48171

3.47561

gemini-1.5-flash

2025-01-21

764.864

2

0.267744

0.689024

0.914634

総応答時間 (s): モデルがすべての出力を生成するのにかかった総時間。

合格したテスト: 評価中にモデルが合格したユニットテストの数、合計164テスト中。

平均 CodeBLEU: コード生成の品質を評価するための指標で、構文的および意味的正確性に基づく平均CodeBLEUスコア。

平均 有用性スコア: LLMモデルによって評価されたモデルの出力の有用性の平均評価。

  • 0: スニペットは全く役に立たず、問題に無関係である。

  • 1: スニペットはわずかに役に立ち、問題に関連する情報を含んでいるが、ゼロから解決策を書く方が簡単である。

  • 2: スニペットはやや役に立ち、(スニペットのサイズに比べて)大幅な変更が必要だが、依然として有用である。

  • 3: スニペットは役に立つが、問題を解決するためにわずかに変更が必要である。

  • 4: スニペットは非常に役に立ち、問題を解決する。

平均 機能的正確性スコア: モデルの出力の機能的正確性の平均スコアで、出力が機能要件をどれだけ満たしているかを評価し、LLMモデルによって評価される。

  • 0 (すべての可能なテストに失敗): コードスニペットは完全に不正確で無意味である。

  • 4 (すべての可能なテストに合格): コードスニペットは完全に正確で、すべてのケースに対応できる。

最終更新