Informe de Evaluación de LLM
o1-preview
2025-03-09
2233.35
132
0.326404
3.62805
3.64024
o1-mini
2025-03-09
769.593
129
0.340638
3.69512
3.73171
gpt-4o
2025-03-09
273.005
127
0.311165
3.68293
3.68293
gpt-4o-mini
2025-03-09
196.951
120
0.335185
3.64634
3.73171
claude-3-5-sonnet-20240620
2025-03-09
267.896
108
0.295369
3.62805
3.67073
claude-3-5-sonnet-20241022
2025-03-09
386.372
114
0.328682
3.67073
3.70732
gemini-1.5-pro
2025-03-09
486.724
96
0.329534
3.42683
3.47561
gemini-1.5-flash
2025-03-09
763.688
0
0.261828
0.780488
1.03659
Tiempo Total de Respuesta (s): El tiempo total que tomó el modelo para generar todas las salidas.
Pruebas aprobadas: El número de pruebas unitarias que el modelo ha aprobado durante la evaluación, de un total de 164 pruebas.
Media CodeBLEU: Puntuación promedio de CodeBLEU, una métrica para evaluar la calidad de generación de código basada en la corrección sintáctica y semántica.
Media Puntuación de Utilidad: Calificación promedio de la utilidad de la salida del modelo según lo evaluado por un modelo LLM.
0: El fragmento no es útil en absoluto, es irrelevante para el problema.
1: El fragmento es ligeramente útil, contiene información relevante para el problema, pero es más fácil escribir la solución desde cero.
2: El fragmento es algo útil, requiere cambios significativos (en comparación con el tamaño del fragmento), pero sigue siendo útil.
3: El fragmento es útil, pero necesita ser ligeramente modificado para resolver el problema.
4: El fragmento es muy útil, resuelve el problema.
Media Puntuación de Corrección Funcional: Puntuación promedio de la corrección funcional de las salidas del modelo, evaluando qué tan bien las salidas cumplen con los requisitos funcionales, evaluadas por un modelo LLM.
0 (fallando todas las pruebas posibles): El fragmento de código es totalmente incorrecto y sin sentido.
4 (aprobando todas las pruebas posibles): El fragmento de código es totalmente correcto y puede manejar todos los casos.
Última actualización