Benchmark dei Modelli

Modelli
GPT-4o51.4%66.1%31%60.3%72.09%27%
Claude 3.5 Sonnet18%65%49%76%65.46%55.6%
Claude 3.7 Sonnet23.3%68%62.3%82.2%68.360.4%
GPT-4.536.7%74.1%39%n/a69.94%44.6%
DeepSeek V3 G32458.4%64.9%38.6%81%68.05%58.1%
Claude 3.7 Sonnet [P]61.3%78.2%73.3%86.5%83.3%64.9%
OpenAI o1-mini63.6%60%n/a90%62.2%52.8%
OpenAI o179.2%79.7%46.6%95.4%67.8%67%
OpenAI o1-mini-287.3%79.7%61%97.6%65.12%60.4%
Gemini 2.0 Pro52%84%63.6%n/an/a72.5%
Gemini 3 (Beta)93.3%84.8%n/an/an/an/a
Llama 4 Behemothn/a73.7%n/a95%n/an/a
Llama 4 Scoutn/a87.2%n/an/an/an/a
Llama 4 Maverickn/a88.8%n/an/an/a58.6%
Gemini 3 Pron/a42.4%52.2%69%n/a4.8%
Qwen 2.5-VL-32Bn/a46%18.8%82.2%n/a69.84%
Gemini 2.0 Flashn/a62.1%51.8%83.7%60.4222.2%
Llama 3.1 70bn/a50.5%n/a77%77.561.45%
Nous Pron/a46.8%n/a76.6%68.4%61.38%
Claude 3.5 Haikun/a49.8%40.5%68.4%64.31%28%
Llama 3.1 405bn/a49%n/a73.8%81.1%n/a
GPT-4o-minin/a40.2%n/a70.2%64.13.6%

Dettagli dei Modelli

GPT-4o (OpenAI)

Modello multimodale che eccelle nelle valutazioni accademiche e nel ragionamento matematico. Mostra prestazioni elevate nel ragionamento logico (BFCL 72.09%) ma relativamente più deboli nelle attività del dominio automobilistico.

Claude 3.5 Sonnet (Anthropic)

Modello equilibrato con forti capacità di codifica (SWE Bench 49%) e competenza matematica (MATH 500 76%). Comprensione migliorata del dominio automobilistico rispetto alle versioni precedenti.

Claude 3.7 Sonnet [P] (Anthropic)

Versione migliorata che mostra miglioramenti drastici in tutti i benchmark, in particolare nell’ingegneria del software (SWE Bench 73.3%) e nella logica fondamentale (BFCL 83.3%). Potenziale variante proprietaria.

DeepSeek V3 G324

Modello versatile con prestazioni elevate in MMAE 2024 (58.4%) ed eccellenti capacità matematiche (MATH 500 81%). Mantiene prestazioni costanti in tutti i domini.

OpenAI o1 Series

Modelli di nuova generazione che mostrano prestazioni rivoluzionarie in matematica (o1-mini-2: MATH 500 97.6%). La variante o1-mini-2 è leader nelle valutazioni accademiche (MMAE 87.3%) mantenendo forti capacità di codifica.

Gemini 3 Series (Google)

La versione Beta mostra prestazioni record in MMAE 2024 (93.3%) ma benchmarking incompleto. La variante Pro sembra specializzata per diverse attività con risultati misti.

Llama 4 Series (Meta)

Varianti specializzate con l’edizione Maverick in testa in GPQA (88.8%). Il modello Behemoth mostra un forte ragionamento matematico (MATH 500 95%) mentre la variante Scout eccelle nel questioning accademico.

Qwen 2.5-VL-32B

Modello focalizzato sulla visione artificiale con sorprendenti prestazioni nel dominio automobilistico (Aide Peugeot 69.84%). Mostra discrete capacità matematiche nonostante punteggi più deboli nella programmazione.

Nous Pro

Modello per uso generale con prestazioni costanti di medio livello in tutti i benchmark. Mostra particolare forza nelle applicazioni automobilistiche (61.38%) rispetto a modelli di dimensioni simili.

Llama 3.1 Series

Modelli su larga scala che mostrano forti capacità logiche fondamentali (405b: BFCL 81.1%). La variante 70b mantiene prestazioni equilibrate in più domini.