パフォーマンス指標

以下の表は、異なるモデルと評価基準にわたる包括的なベンチマーク結果を示しています。

平均数値スコア

モデル平均スコア(%)トークン数応答時間(秒)事実の正確性(%)ハルシネーション率(%)論理的正確性(%)ソース品質(%)
Claude87162310484889181
Gemini921050160091929588
Manus79427889173729069
OpenAI93931673793939589
Perplexity88315218086899382
xAI Grok 3 Deep Search8929293983899386
xAI Grok 3 Deeper Search85290522980809278

定性的評価

モデル評価トークン数応答時間事実の正確性ミス正確性ソース品質
Claude3253443
Gemini4525555
Manus1311141
OpenAI4525555
Perplexity3254544
xAI Grok 3 Deep Search3253445
xAI Grok 3 Deeper Search2242243

サブスクリプション費用

モデル費用
OpenAI ChatGPT Deep Research$200/mo (Pro, 250 queries/mo); $20/mo (Plus, Team, Edu, Enterprise, 25 queries/mo)
Anthropic Claude Research$100 or $200/mo (Max tier only, US/JP/BR, early beta)
Gemini 2.5 Pro Deep Research$20/month
Perplexity Deep ResearchFree (5 queries/day) or $20/month
xAI Grok 3 Deep Research$30/month (SuperGrok)
xAI Grok 3 Deeper Research$30/month (SuperGrok - Deeper Mode)
Manus AI$2-10 per task (depending on task intensity & difficulty)