Relatório de Avaliação de LLM
o1-preview
2025-02-07
2467.7
131
0.331152
3.59756
3.62805
o1-mini
2025-02-07
1147.25
128
0.330887
3.68293
3.7378
gpt-4o
2025-02-07
338.676
123
0.317819
3.70122
3.71951
gpt-4o-mini
2025-02-07
247.232
119
0.32657
3.64634
3.68293
claude-3-5-sonnet-20240620
2025-02-07
310.734
117
0.303339
3.68293
3.65854
claude-3-5-sonnet-20241022
2025-02-07
395.182
118
0.325105
3.7378
3.7378
gemini-1.5-pro
2025-02-07
506.966
97
0.346402
3.54878
3.5061
gemini-1.5-flash
2025-02-07
772.724
0
0.260233
0.609756
0.786585
Tempo Total de Resposta (s): O tempo total levado pelo modelo para gerar todas as saídas.
Testes aprovados: O número de testes unitários que o modelo passou durante a avaliação, de um total de 164 testes.
Média CodeBLEU: Pontuação média do CodeBLEU, uma métrica para avaliar a qualidade da geração de código com base na correção sintática e semântica.
Média Pontuação de Utilidade: Avaliação média da utilidade da saída do modelo, conforme avaliado por um modelo de LLM.
0: O trecho não é útil de forma alguma, é irrelevante para o problema.
1: O trecho é ligeiramente útil, contém informações relevantes para o problema, mas é mais fácil escrever a solução do zero.
2: O trecho é um pouco útil, requer mudanças significativas (comparado ao tamanho do trecho), mas ainda é útil.
3: O trecho é útil, mas precisa ser ligeiramente alterado para resolver o problema.
4: O trecho é muito útil, resolve o problema.
Média Pontuação de Correção Funcional: Pontuação média da correção funcional das saídas do modelo, avaliando quão bem as saídas atendem aos requisitos funcionais, avaliadas por um modelo de LLM.
0 (falhando todos os testes possíveis): O trecho de código é totalmente incorreto e sem sentido.
4 (passando todos os testes possíveis): O trecho de código é totalmente correto e pode lidar com todos os casos.
Last updated