Báo cáo đánh giá LLM
o1-preview
2025-01-02
1875.72
130
0.31245
3.57317
3.54268
o1-mini
2025-01-02
816.414
130
0.339609
3.70122
3.79878
gpt-4o
2025-01-02
237.855
126
0.318606
3.73171
3.70732
gpt-4o-mini
2025-01-02
232.541
120
0.330971
3.67683
3.62195
claude-3-5-sonnet-20240620
2025-01-02
307.512
112
0.296656
3.68902
3.62195
claude-3-5-sonnet-20241022
2025-01-02
287.938
112
0.324156
3.66463
3.64634
gemini-1.5-pro
2025-01-02
510.963
106
0.333728
3.48171
3.45732
gemini-1.5-flash
2025-01-02
768.685
1
0.265063
0.609756
0.768293
Thời gian Phản hồi Tổng (s): Tổng thời gian mà mô hình mất để tạo ra tất cả các đầu ra.
Số bài kiểm tra đã vượt qua: Số lượng bài kiểm tra đơn vị mà mô hình đã vượt qua trong quá trình đánh giá, trong tổng số 164 bài kiểm tra.
Điểm CodeBLEU Trung bình: Điểm CodeBLEU trung bình, một chỉ số để đánh giá chất lượng tạo mã dựa trên cả độ chính xác cú pháp và ngữ nghĩa.
Điểm Sử dụng Trung bình: Điểm trung bình về tính hữu ích của đầu ra của mô hình được đánh giá bởi một mô hình LLM.
0: Đoạn mã hoàn toàn không hữu ích, không liên quan đến vấn đề.
1: Đoạn mã hơi hữu ích, nó chứa thông tin liên quan đến vấn đề, nhưng dễ dàng hơn để viết giải pháp từ đầu.
2: Đoạn mã có phần hữu ích, nó yêu cầu thay đổi đáng kể (so với kích thước của đoạn mã), nhưng vẫn hữu ích.
3: Đoạn mã hữu ích, nhưng cần thay đổi một chút để giải quyết vấn đề.
4: Đoạn mã rất hữu ích, nó giải quyết vấn đề.
Điểm Đúng Chức năng Trung bình: Điểm trung bình về độ đúng chức năng của các đầu ra của mô hình, đánh giá mức độ mà các đầu ra đáp ứng các yêu cầu chức năng, được đánh giá bởi một mô hình LLM.
0 (thất bại tất cả các bài kiểm tra có thể): Đoạn mã hoàn toàn sai và vô nghĩa.
4 (vượt qua tất cả các bài kiểm tra có thể): Đoạn mã hoàn toàn đúng và có thể xử lý tất cả các trường hợp.
Last updated