Puntos de referencia de modelos

Modelos
GPT-4o51.4%66.1%31%60.3%72.09%27%
Claude 3.5 Sonnet18%65%49%76%65.46%55.6%
Claude 3.7 Sonnet23.3%68%62.3%82.2%68.360.4%
GPT-4.536.7%74.1%39%n/a69.94%44.6%
DeepSeek V3 G32458.4%64.9%38.6%81%68.05%58.1%
Claude 3.7 Sonnet [P]61.3%78.2%73.3%86.5%83.3%64.9%
OpenAI o1-mini63.6%60%n/a90%62.2%52.8%
OpenAI o179.2%79.7%46.6%95.4%67.8%67%
OpenAI o1-mini-287.3%79.7%61%97.6%65.12%60.4%
Gemini 2.0 Pro52%84%63.6%n/an/a72.5%
Gemini 3 (Beta)93.3%84.8%n/an/an/an/a
Llama 4 Behemothn/a73.7%n/a95%n/an/a
Llama 4 Scoutn/a87.2%n/an/an/an/a
Llama 4 Maverickn/a88.8%n/an/an/a58.6%
Gemini 3 Pron/a42.4%52.2%69%n/a4.8%
Qwen 2.5-VL-32Bn/a46%18.8%82.2%n/a69.84%
Gemini 2.0 Flashn/a62.1%51.8%83.7%60.4222.2%
Llama 3.1 70bn/a50.5%n/a77%77.561.45%
Nous Pron/a46.8%n/a76.6%68.4%61.38%
Claude 3.5 Haikun/a49.8%40.5%68.4%64.31%28%
Llama 3.1 405bn/a49%n/a73.8%81.1%n/a
GPT-4o-minin/a40.2%n/a70.2%64.13.6%

Detalles del modelo

GPT-4o (OpenAI)

Modelo multimodal que sobresale en evaluaciones académicas y razonamiento matemático. Muestra un fuerte rendimiento en razonamiento lógico (BFCL 72.09%) pero relativamente más débil en tareas del dominio automotriz.

Claude 3.5 Sonnet (Anthropic)

Modelo equilibrado con fuertes capacidades de codificación (SWE Bench 49%) y competencia matemática (MATH 500 76%). Comprensión mejorada del dominio automotriz en comparación con versiones anteriores.

Claude 3.7 Sonnet [P] (Anthropic)

Versión mejorada que muestra mejoras dramáticas en todos los puntos de referencia, particularmente en ingeniería de software (SWE Bench 73.3%) y lógica fundamental (BFCL 83.3%). Posible variante propietaria.

DeepSeek V3 G324

Modelo versátil con alto rendimiento en MMAE 2024 (58.4%) y excelentes capacidades matemáticas (MATH 500 81%). Mantiene un rendimiento consistente en todos los dominios.

OpenAI o1 Series

Modelos de próxima generación que muestran un rendimiento revolucionario en matemáticas (o1-mini-2: MATH 500 97.6%). La variante o1-mini-2 lidera en evaluaciones académicas (MMAE 87.3%) mientras mantiene fuertes habilidades de codificación.

Gemini 3 Series (Google)

La versión Beta muestra un rendimiento récord en MMAE 2024 (93.3%) pero con evaluación comparativa incompleta. La variante Pro parece especializada para diferentes tareas con resultados mixtos.

Llama 4 Series (Meta)

Variantes especializadas con la edición Maverick liderando en GPQA (88.8%). El modelo Behemoth muestra un fuerte razonamiento matemático (MATH 500 95%) mientras que la variante Scout sobresale en cuestionamiento académico.

Qwen 2.5-VL-32B

Modelo enfocado en visión por computadora con sorprendente rendimiento en el dominio automotriz (Aide Peugeot 69.84%). Muestra capacidades matemáticas decentes a pesar de puntuaciones más débiles en programación.

Nous Pro

Modelo de propósito general con rendimiento consistente de rango medio en todos los benchmarks. Muestra particular fortaleza en aplicaciones automotrices (61.38%) en comparación con modelos de tamaño similar.

Llama 3.1 Series

Modelos a gran escala que muestran fuertes capacidades de lógica fundamental (405b: BFCL 81.1%). La variante de 70b mantiene un rendimiento equilibrado en múltiples dominios.