LLM 평가 보고서
o1-preview
2025-01-27
2027.42
127
0.320922
3.56707
3.54878
o1-mini
2025-01-27
952.112
128
0.336334
3.67073
3.7378
gpt-4o
2025-01-27
282.331
123
0.316325
3.68902
3.70732
gpt-4o-mini
2025-01-27
239.001
117
0.336755
3.64634
3.68293
claude-3-5-sonnet-20240620
2025-01-27
261.768
112
0.296585
3.64024
3.59146
claude-3-5-sonnet-20241022
2025-01-27
278.856
110
0.325656
3.64634
3.68902
gemini-1.5-pro
2025-01-27
503.267
99
0.33299
3.51829
3.5061
gemini-1.5-flash
2025-01-27
768.339
1
0.26343
0.72561
0.835366
총 응답 시간 (초): 모델이 모든 출력을 생성하는 데 걸린 총 시간.
통과한 테스트 수: 평가 중 모델이 통과한 단위 테스트의 수, 총 164개의 테스트 중.
평균 CodeBLEU: 구문 및 의미적 정확성을 기반으로 코드 생성 품질을 평가하는 메트릭인 평균 CodeBLEU 점수.
평균 유용성 점수: LLM 모델에 의해 평가된 모델 출력의 유용성 평균 등급.
0: 스니펫이 전혀 도움이 되지 않으며 문제와 관련이 없음.
1: 스니펫이 약간 도움이 되며, 문제와 관련된 정보를 포함하지만, 처음부터 해결책을 작성하는 것이 더 쉬움.
2: 스니펫이 다소 도움이 되며, 상당한 변경이 필요하지만 여전히 유용함.
3: 스니펫이 도움이 되지만 문제를 해결하기 위해 약간의 변경이 필요함.
4: 스니펫이 매우 도움이 되며 문제를 해결함.
평균 기능적 정확성 점수: LLM 모델에 의해 평가된 모델 출력의 기능적 요구 사항을 얼마나 잘 충족하는지를 평가하는 평균 점수.
0 (모든 가능한 테스트 실패): 코드 스니펫이 완전히 잘못되었고 의미가 없음.
4 (모든 가능한 테스트 통과): 코드 스니펫이 완전히 정확하며 모든 경우를 처리할 수 있음.
Last updated