성능 지표

다음 표는 다양한 모델과 평가 기준에 걸친 종합적인 벤치마킹 결과를 보여줍니다.

평균 수치 점수

모델평균 점수 (%)토큰 수응답 시간 (초)사실적 정확도 (%)환각 비율 (%)논리적 정확성 (%)출처 품질 (%)
Claude87162310484889181
Gemini921050160091929588
Manus79427889173729069
OpenAI93931673793939589
Perplexity88315218086899382
xAI Grok 3 Deep Search8929293983899386
xAI Grok 3 Deeper Search85290522980809278

정성적 평가

모델평가토큰 수응답 시간사실적 정확도실수정확성출처 품질
Claude3253443
Gemini4525555
Manus1311141
OpenAI4525555
Perplexity3254544
xAI Grok 3 Deep Search3253445
xAI Grok 3 Deeper Search2242243

구독 비용

모델비용
OpenAI ChatGPT Deep Research$200/mo (Pro, 250 queries/mo); $20/mo (Plus, Team, Edu, Enterprise, 25 queries/mo)
Anthropic Claude Research$100 or $200/mo (Max tier only, US/JP/BR, early beta)
Gemini 2.5 Pro Deep Research$20/month
Perplexity Deep ResearchFree (5 queries/day) or $20/month
xAI Grok 3 Deep Research$30/month (SuperGrok)
xAI Grok 3 Deeper Research$30/month (SuperGrok - Deeper Mode)
Manus AI$2-10 per task (depending on task intensity & difficulty)