LLM-Evaluierungsbericht
Modell | Datum | Gesamte Antwortzeit (s) | Bestehende Tests | Durchschnittlicher CodeBLEU (0-1) | Durchschnittlicher Nützlichkeitswert (0-4) | Durchschnittlicher funktionaler Korrektheitswert (0-4) |
---|---|---|---|---|---|---|
o1-preview | 2024-11-21 | 2208.03 | 132 | 0.321908 | 3.60976 | 3.64024 |
o1-mini | 2024-11-21 | 718.012 | 134 | 0.322883 | 3.65244 | 3.7561 |
gpt-4o | 2024-11-21 | 321.525 | 125 | 0.316051 | 3.70732 | 3.7439 |
gpt-4o-mini | 2024-11-21 | 191.192 | 114 | 0.339313 | 3.62805 | 3.69512 |
claude-3-5-sonnet-20240620 | 2024-11-21 | 335.662 | 113 | 0.303122 | 3.60366 | 3.62195 |
claude-3-5-sonnet-20241022 | 2024-11-21 | 351.938 | 110 | 0.321726 | 3.67073 | 3.67683 |
gemini-1.5-pro | 2024-11-21 | 528.459 | 106 | 0.340196 | 3.43293 | 3.5061 |
gemini-1.5-flash | 2024-11-21 | 759.693 | 2 | 0.270065 | 0.670732 | 0.829268 |
Gesamte Antwortzeit (s): Die gesamte Zeit, die das Modell benötigt hat, um alle Ausgaben zu generieren.
Bestehende Tests: Die Anzahl der Unit-Tests, die das Modell während der Bewertung bestanden hat, von insgesamt 164 Tests.
Durchschnittlicher CodeBLEU: Durchschnittlicher CodeBLEU-Wert, ein Maß zur Bewertung der Qualität der Codegenerierung basierend auf syntaktischer und semantischer Korrektheit.
Durchschnittlicher Nützlichkeitswert: Durchschnittliche Bewertung der Nützlichkeit der Ausgaben des Modells, bewertet durch ein LLM-Modell.
0: Snippet ist überhaupt nicht hilfreich, es ist irrelevant für das Problem.
1: Snippet ist leicht hilfreich, es enthält Informationen, die für das Problem relevant sind, aber es ist einfacher, die Lösung von Grund auf neu zu schreiben.
2: Snippet ist etwas hilfreich, es erfordert erhebliche Änderungen (im Vergleich zur Größe des Snippets), ist aber dennoch nützlich.
3: Snippet ist hilfreich, muss jedoch leicht geändert werden, um das Problem zu lösen.
4: Snippet ist sehr hilfreich, es löst das Problem.
Durchschnittlicher funktionaler Korrektheitswert: Durchschnittlicher Wert der funktionalen Korrektheit der Ausgaben des Modells, der bewertet, wie gut die Ausgaben die funktionalen Anforderungen erfüllen, bewertet durch ein LLM-Modell.
0 (alle möglichen Tests nicht bestanden): Der Code-Snippet ist völlig falsch und bedeutungslos.
4 (alle möglichen Tests bestanden): Der Code-Snippet ist völlig korrekt und kann alle Fälle behandeln.
Last updated