Relatório de Avaliação LLM

ModeloDataTempo Total de Resposta (s)Testes AprovadosMédia CodeBLEU (0-1)Média de Pontuação de Utilidade (0-4)Média de Pontuação de Correção Funcional (0-4)

gpt-4o-mini

2024-10-15

288.593

113

0.336386

3.65854

3.62805

gemini-1.5-pro

2024-10-15

691.622

104

0.342204

3.47561

3.40854

claude-3-5-sonnet-20240620

2024-10-15

369.063

113

0.303837

3.67683

3.59146

gpt-4o

2024-10-15

323.43

127

0.319079

3.73171

3.60976

claude-3-opus-20240229

2024-10-15

1069.89

107

0.307076

3.68902

3.60976

Tempo Total de Resposta (s): O tempo total levado pelo modelo para gerar todas as saídas.

Testes aprovados: O número de testes unitários que o modelo passou durante a avaliação, de um total de 164 testes.

Média CodeBLEU: Pontuação média de CodeBLEU, uma métrica para avaliar a qualidade da geração de código com base na correção sintática e semântica.

Média Pontuação de Utilidade: Avaliação média da utilidade das saídas do modelo, conforme avaliado por um modelo LLM.

  • 0: O trecho não é útil de forma alguma, é irrelevante para o problema.

  • 1: O trecho é ligeiramente útil, contém informações relevantes para o problema, mas é mais fácil escrever a solução do zero.

  • 2: O trecho é um tanto útil, requer mudanças significativas (comparado ao tamanho do trecho), mas ainda é útil.

  • 3: O trecho é útil, mas precisa ser ligeiramente alterado para resolver o problema.

  • 4: O trecho é muito útil, resolve o problema.

Média Pontuação de Correção Funcional: Pontuação média da correção funcional das saídas do modelo, avaliando quão bem as saídas atendem aos requisitos funcionais, avaliadas por um modelo LLM.

  • 0 (falhando todos os testes possíveis): O trecho de código é totalmente incorreto e sem sentido.

  • 4 (passando todos os testes possíveis): O trecho de código é totalmente correto e pode lidar com todos os casos.

Last updated