LLM 評価レポート

モデル
日付
合計応答時間 (s)
合格したテスト数
平均 CodeBLEU (0-1)
平均有用性スコア (0-4)
平均機能的正確性スコア (0-4)

claude-opus-4-20250514

2025-05-27

682.341

45

0.373498

3.68902

3.71951

claude-sonnet-4-20250514

2025-05-27

685.546

112

0.317174

3.7378

3.65854

claude-3-7-sonnet-20250219

2025-05-27

746.497

108

0.319258

3.65244

3.65244

claude-3-5-sonnet-20241022

2025-05-27

445.549

114

0.332094

3.65244

3.72561

gpt-4.1

2025-05-27

340.45

114

0.345565

3.71951

3.79878

o4-mini

2025-05-27

1380.26

128

0.322408

3.70122

3.7439

o3

2025-05-27

1592.45

141

0.314449

3.71341

3.85366

gpt-4o

2025-05-27

254.478

123

0.305002

3.70732

3.7378

gemini_gemini-2.0-flash

2025-05-27

428.324

102

0.304022

3.65244

3.60976

gemini_gemini-2.5-pro-preview-05-06

2025-05-27

1317.42

71

0.319577

2.45732

2.67683

gemini_gemini-2.5-flash-preview-05-20

2025-05-27

1042.03

108

0.32728

3.39024

3.46341

合計応答時間 (s): モデルがすべての出力を生成するのにかかった合計時間。

合格したテスト数: 評価中にモデルが合格したユニットテストの数(合計164テスト中)。

平均 CodeBLEU: 構文的および意味的正確性に基づいてコード生成の質を評価する指標である平均CodeBLEUスコア。

平均 有用性スコア: LLMモデルによって評価されたモデルの出力の有用性の平均評価。

  • 0: スニペットは全く役に立たず、問題に関連していない。

  • 1: スニペットはわずかに役に立ち、問題に関連する情報を含むが、ゼロから解決策を書く方が簡単である。

  • 2: スニペットはやや役に立ち、(スニペットのサイズに比べて)大幅な変更が必要だが、依然として有用である。

  • 3: スニペットは役に立つが、問題を解決するためにわずかに変更が必要である。

  • 4: スニペットは非常に役に立ち、問題を解決する。

平均 機能的正確性スコア: モデルの出力の機能的正確性の平均スコアで、出力が機能要件をどれだけ満たしているかを評価し、LLMモデルによって評価される。

  • 0 (すべての可能なテストに失敗): コードスニペットは完全に不正確で無意味である。

  • 4 (すべての可能なテストに合格): コードスニペットは完全に正確で、すべてのケースを処理できる。

最終更新