Références des modèles

Modèles
GPT-4o51.4%66.1%31%60.3%72.09%27%
Claude 3.5 Sonnet18%65%49%76%65.46%55.6%
Claude 3.7 Sonnet23.3%68%62.3%82.2%68.360.4%
GPT-4.536.7%74.1%39%n/a69.94%44.6%
DeepSeek V3 G32458.4%64.9%38.6%81%68.05%58.1%
Claude 3.7 Sonnet [P]61.3%78.2%73.3%86.5%83.3%64.9%
OpenAI o1-mini63.6%60%n/a90%62.2%52.8%
OpenAI o179.2%79.7%46.6%95.4%67.8%67%
OpenAI o1-mini-287.3%79.7%61%97.6%65.12%60.4%
Gemini 2.0 Pro52%84%63.6%n/an/a72.5%
Gemini 3 (Beta)93.3%84.8%n/an/an/an/a
Llama 4 Behemothn/a73.7%n/a95%n/an/a
Llama 4 Scoutn/a87.2%n/an/an/an/a
Llama 4 Maverickn/a88.8%n/an/an/a58.6%
Gemini 3 Pron/a42.4%52.2%69%n/a4.8%
Qwen 2.5-VL-32Bn/a46%18.8%82.2%n/a69.84%
Gemini 2.0 Flashn/a62.1%51.8%83.7%60.4222.2%
Llama 3.1 70bn/a50.5%n/a77%77.561.45%
Nous Pron/a46.8%n/a76.6%68.4%61.38%
Claude 3.5 Haikun/a49.8%40.5%68.4%64.31%28%
Llama 3.1 405bn/a49%n/a73.8%81.1%n/a
GPT-4o-minin/a40.2%n/a70.2%64.13.6%

Détails des modèles

GPT-4o (OpenAI)

Modèle multimodal excellant dans les évaluations académiques et le raisonnement mathématique. Montre une forte performance en raisonnement logique (BFCL 72.09%) mais relativement plus faible dans les tâches du domaine automobile.

Claude 3.5 Sonnet (Anthropic)

Modèle équilibré avec de solides capacités de codage (SWE Bench 49%) et une compétence mathématique (MATH 500 76%). Amélioration de la compréhension du domaine automobile par rapport aux versions précédentes.

Claude 3.7 Sonnet [P] (Anthropic)

Version améliorée montrant des améliorations spectaculaires dans tous les benchmarks, particulièrement en ingénierie logicielle (SWE Bench 73.3%) et en logique fondamentale (BFCL 83.3%). Variante propriétaire potentielle.

DeepSeek V3 G324

Modèle polyvalent avec une performance de premier plan au MMAE 2024 (58.4%) et d’excellentes capacités mathématiques (MATH 500 81%). Maintient une performance constante dans tous les domaines.

Série OpenAI o1

Modèles de nouvelle génération montrant des performances révolutionnaires en mathématiques (o1-mini-2: MATH 500 97.6%). La variante o1-mini-2 est en tête dans les évaluations académiques (MMAE 87.3%) tout en maintenant de solides capacités de codage.

Série Gemini 3 (Google)

La version bêta montre une performance record au MMAE 2024 (93.3%) mais des benchmarks incomplets. La variante Pro semble spécialisée pour différentes tâches avec des résultats mitigés.

Série Llama 4 (Meta)

Variantes spécialisées avec l’édition Maverick en tête pour GPQA (88.8%). Le modèle Behemoth montre un fort raisonnement mathématique (MATH 500 95%) tandis que la variante Scout excelle dans le questionnement académique.

Qwen 2.5-VL-32B

Modèle axé sur la vision par ordinateur avec des performances surprenantes dans le domaine automobile (Aide Peugeot 69,84%). Démontre des capacités mathématiques décentes malgré des scores de programmation plus faibles.

Nous Pro

Modèle à usage général avec des performances moyennes constantes dans tous les benchmarks. Démontre une force particulière dans les applications automobiles (61,38%) par rapport aux modèles de taille similaire.

Llama 3.1 Series

Modèles à grande échelle démontrant de solides capacités logiques fondamentales (405b: BFCL 81,1%). La variante 70b maintient des performances équilibrées dans plusieurs domaines.