Informe de Evaluación de LLM
o1-preview
2025-01-28
2243.46
138
0.326023
3.64024
3.62805
o1-mini
2025-01-28
926.343
132
0.343662
3.73171
3.76829
gpt-4o
2025-01-28
285.991
131
0.32075
3.72561
3.70122
gpt-4o-mini
2025-01-28
227.033
124
0.33792
3.68902
3.70122
claude-3-5-sonnet-20240620
2025-01-28
284.383
110
0.296305
3.67683
3.63415
claude-3-5-sonnet-20241022
2025-01-28
303.562
113
0.324985
3.67683
3.64024
gemini-1.5-pro
2025-01-28
510.311
96
0.340366
3.42683
3.45732
gemini-1.5-flash
2025-01-28
768.339
1
0.26343
0.72561
0.835366
Tiempo Total de Respuesta (s): El tiempo total que tomó el modelo para generar todas las salidas.
Pruebas aprobadas: El número de pruebas unitarias que el modelo ha aprobado durante la evaluación, de un total de 164 pruebas.
Media CodeBLEU: Puntuación promedio de CodeBLEU, una métrica para evaluar la calidad de generación de código basada en la corrección sintáctica y semántica.
Media Puntuación de Utilidad: Calificación promedio de la utilidad de la salida del modelo según lo evaluado por un modelo LLM.
0: El fragmento no es útil en absoluto, es irrelevante para el problema.
1: El fragmento es ligeramente útil, contiene información relevante para el problema, pero es más fácil escribir la solución desde cero.
2: El fragmento es algo útil, requiere cambios significativos (en comparación con el tamaño del fragmento), pero sigue siendo útil.
3: El fragmento es útil, pero necesita ser ligeramente modificado para resolver el problema.
4: El fragmento es muy útil, resuelve el problema.
Media Puntuación de Corrección Funcional: Puntuación promedio de la corrección funcional de las salidas del modelo, evaluando qué tan bien las salidas cumplen con los requisitos funcionales, evaluadas por un modelo LLM.
0 (fallando todas las pruebas posibles): El fragmento de código es totalmente incorrecto y sin sentido.
4 (aprobando todas las pruebas posibles): El fragmento de código es totalmente correcto y puede manejar todos los casos.
Última actualización