LLM 평가 보고서

모델
날짜
총 응답 시간 (초)
통과한 테스트 수
평균 CodeBLEU (0-1)
평균 유용성 점수 (0-4)
평균 기능적 정확성 점수 (0-4)

claude-opus-4-20250514

2025-05-27

682.341

45

0.373498

3.68902

3.71951

claude-sonnet-4-20250514

2025-05-27

685.546

112

0.317174

3.7378

3.65854

claude-3-7-sonnet-20250219

2025-05-27

746.497

108

0.319258

3.65244

3.65244

claude-3-5-sonnet-20241022

2025-05-27

445.549

114

0.332094

3.65244

3.72561

gpt-4.1

2025-05-27

340.45

114

0.345565

3.71951

3.79878

o4-mini

2025-05-27

1380.26

128

0.322408

3.70122

3.7439

o3

2025-05-27

1592.45

141

0.314449

3.71341

3.85366

gpt-4o

2025-05-27

254.478

123

0.305002

3.70732

3.7378

gemini_gemini-2.0-flash

2025-05-27

428.324

102

0.304022

3.65244

3.60976

gemini_gemini-2.5-pro-preview-05-06

2025-05-27

1317.42

71

0.319577

2.45732

2.67683

gemini_gemini-2.5-flash-preview-05-20

2025-05-27

1042.03

108

0.32728

3.39024

3.46341

총 응답 시간 (초): 모델이 모든 출력을 생성하는 데 소요된 총 시간.

통과한 테스트 수: 평가 중 모델이 통과한 단위 테스트의 수, 총 164개의 테스트 중.

평균 CodeBLEU: 구문적 및 의미적 정확성을 기반으로 코드 생성 품질을 평가하는 지표인 평균 CodeBLEU 점수.

평균 유용성 점수: LLM 모델에 의해 평가된 모델 출력의 유용성 평균 등급.

  • 0: 스니펫이 전혀 도움이 되지 않으며 문제와 관련이 없습니다.

  • 1: 스니펫이 약간 도움이 되며 문제와 관련된 정보를 포함하고 있지만, 처음부터 해결책을 작성하는 것이 더 쉽습니다.

  • 2: 스니펫이 다소 도움이 되며, 상당한 변경이 필요하지만 여전히 유용합니다.

  • 3: 스니펫이 도움이 되지만 문제를 해결하기 위해 약간의 변경이 필요합니다.

  • 4: 스니펫이 매우 유용하며 문제를 해결합니다.

평균 기능적 정확성 점수: LLM 모델에 의해 평가된 모델 출력의 기능적 정확성 평균 점수로, 출력이 기능적 요구 사항을 얼마나 잘 충족하는지를 평가합니다.

  • 0 (모든 가능한 테스트 실패): 코드 스니펫이 완전히 잘못되었고 의미가 없습니다.

  • 4 (모든 가능한 테스트 통과): 코드 스니펫이 완전히 정확하며 모든 경우를 처리할 수 있습니다.

Last updated