LLM 평가 보고서
모델 | 날짜 | 총 응답 시간 (초) | 통과한 테스트 수 | 평균 CodeBLEU (0-1) | 평균 유용성 점수 (0-4) | 평균 기능적 정확성 점수 (0-4) |
---|---|---|---|---|---|---|
gpt-4o-mini | 2024-10-18 | 180.098 | 113 | 0.331988 | 3.66463 | 3.65854 |
gemini-1.5-pro | 2024-10-18 | 533.694 | 104 | 0.338663 | 3.55488 | 3.59756 |
claude-3-5-sonnet-20240620 | 2024-10-18 | 339.244 | 112 | 0.300819 | 3.68293 | 3.65854 |
gpt-4o | 2024-10-18 | 201.997 | 128 | 0.314057 | 3.75 | 3.71951 |
o1-mini | 2024-10-18 | 773.989 | 130 | 0.335063 | 3.71951 | 3.71951 |
o1-preview | 2024-10-18 | 2207.5 | 127 | 0.322271 | 3.60366 | 3.60976 |
claude-3-opus-20240229 | 2024-10-18 | 1056.03 | 114 | 0.322514 | 3.7439 | 3.67683 |
총 응답 시간 (초): 모델이 모든 출력을 생성하는 데 걸린 총 시간입니다.
통과한 테스트 수: 평가 중 모델이 통과한 단위 테스트의 수로, 총 164개의 테스트 중에서입니다.
평균 CodeBLEU: 구문적 및 의미적 정확성을 기반으로 코드 생성 품질을 평가하는 메트릭인 평균 CodeBLEU 점수입니다.
평균 유용성 점수: LLM 모델에 의해 평가된 모델 출력의 유용성 평균 등급입니다.
0: 스니펫은 전혀 도움이 되지 않으며, 문제와 관련이 없습니다.
1: 스니펫은 약간 도움이 되며, 문제와 관련된 정보를 포함하고 있지만, 처음부터 해결책을 작성하는 것이 더 쉽습니다.
2: 스니펫은 다소 도움이 되며, 상당한 변경이 필요하지만(스니펫 크기에 비해) 여전히 유용합니다.
3: 스니펫은 도움이 되지만, 문제를 해결하기 위해 약간의 변경이 필요합니다.
4: 스니펫은 매우 유용하며, 문제를 해결합니다.
평균 기능적 정확성 점수: LLM 모델에 의해 평가된 모델 출력의 기능적 정확성 평균 점수로, 출력이 기능적 요구 사항을 얼마나 잘 충족하는지를 평가합니다.
0 (모든 가능한 테스트 실패): 코드 스니펫은 완전히 잘못되었고 의미가 없습니다.
4 (모든 가능한 테스트 통과): 코드 스니펫은 완전히 정확하며 모든 경우를 처리할 수 있습니다.
Last updated