DeepSeek、100万トークンコンテキスト対応の次世代AIモデル「V4」を発表:コスト効率とエージェント機能で市場をリード


ADVERTISEMENT

DeepSeek-V4モデル、100万トークンコンテキストとコスト効率を両立

中国のAIスタートアップDeepSeekは、待望の新型人工知能モデル「DeepSeek-V4」をリリースしました。この最新バージョンは、「100万ワード(トークン)の超長コンテキスト」を特徴とし、計算およびメモリコストを「大幅に削減」することで、AI業界に大きなインパクトを与えています。これは、従来の長文コンテキスト処理におけるパフォーマンスと高コストの問題を解決する「転換点」となると専門家は指摘しています。DeepSeek-V4は、「DeepSeek-V4-Pro」と「DeepSeek-V4-Flash」の2つのバージョンで提供されており、後者はより少ないパラメータで「より効率的で経済的な選択肢」とされています。DeepSeekは、この新しいモデルがエージェント能力、世界知識、推論性能において、国内およびオープンソース分野でリーダーシップを確立したと発表しています。

MoEアーキテクチャによる高性能化とエージェント機能の最適化

DeepSeek-V4モデルは、Mixture-of-Experts (MoE) アーキテクチャを採用しており、特に長文コンテキスト処理における効率性に焦点を当てています。DeepSeek-V4-Proは総パラメータ数1.6兆、アクティブパラメータ数490億、DeepSeek-V4-Flashは総パラメータ数2840億、アクティブパラメータ数130億とされています。この効率化は、100万トークンのコンテキスト設定において顕著であり、DeepSeek-V4-Proは旧モデルDeepSeek-V3.2と比較してシングルデートークンの推論FLOPsを27%に、KVキャッシュサイズを10%に削減しています。DeepSeek-V4-Flashではさらに効率が向上し、それぞれ10%と7%にまで抑えられています。この設計は、特にAIエージェント製品向けに最適化されており、Claude Code、OpenClaw、OpenCode、CodeBuddyといった主要なAIエージェント製品で「最適化」されているとDeepSeekは述べています。世界知識に関するベンチマークでは、DeepSeek-V4-Proは他のオープンソースモデルを大きくリードし、トップティアのクローズドソースモデルであるGoogleの「Gemini-Pro-3.1」にわずかに及ばない程度であると報告されています。

ファーウェイ製AIチップへの適応と市場競争の激化

DeepSeek-V4のリリースにおけるもう一つの重要な変化は、ファーウェイの最先端Ascend AIチップへの適応です。以前のDeepSeekのR1モデルやV3モデルはNvidia製チップでトレーニングされていましたが、今回のV4ではファーウェイとの緊密な技術協力により、Ascendスーパーノード製品ライン全体がDeepSeek-V4シリーズモデルをサポートするようになりました。これは、米国による中国へのハイエンドチップ輸出規制が厳格化する中で、中国が国内AIエコシステムの自立性を高める動きの一環と見られています。DeepSeekは、2025年1月に低コストで米国製ライバルモデルに匹敵する性能を持つ推論モデル「R1」をリリースし、世界を驚かせました。今回のV4のリリースは、AI分野における米中間の競争が激化する中で行われ、米国政府は中国企業がAI技術の窃盗を大規模に行っていると非難しています。DeepSeekのシステムはオープンソースであり、これはAlibabaなどの主要な中国AIプレイヤーと同様の戦略であり、OpenAIなどの西洋の競合他社が販売する「クローズド」モデルとは対照的です。

AI開発者・エンジニア視点での考察

  1. 長文コンテキストとコスト効率の変革的影響: DeepSeek-V4が提供する100万トークンの超長コンテキストウィンドウと、計算・メモリコストの大幅な削減は、これまでの長文処理における性能とコストのボトルネックを根本的に解決します。これにより、開発者は、膨大なドキュメントの分析、法的文書のレビュー、長時間の顧客サポート対話など、より複雑で情報密度の高いタスクをAIに任せることが現実的になります。特に、従来のモデルではメモリ制約により困難であった、連続した対話履歴全体に基づいた高度な推論や、大規模なコードベースの理解と生成といった、開発者自身の生産性向上に直結するAIエージェントの構築が加速するでしょう。

  2. 効率的なMoEアーキテクチャと多様なデプロイメント: MoEアーキテクチャの進化と、DeepSeek-V3.2と比較して大幅に削減されたFLOPsおよびKVキャッシュサイズ(V4-ProでFLOPs 27%、KVキャッシュ10%、V4-FlashでFLOPs 10%、KVキャッシュ7%)は、限られたハードウェアリソースでも高性能な大規模AIモデルを効率的に運用できる可能性を広げます。V4-Flashのようなより軽量かつ経済的なモデルの存在は、クラウド環境だけでなく、エッジデバイスや企業内のプライベートサーバーといった、コストとリソースが制約される環境でのAIモデルの展開を加速させます。これは、多様なユースケースに応じたAIアプリケーションの柔軟な設計と実装を可能にし、開発者にとって選択肢を大きく広げるものです。

  3. オープンソース戦略と国内エコシステムへの貢献: DeepSeekのオープンソース戦略とファーウェイ製Ascend AIチップへの適応は、AI技術の民主化を推進し、多様な開発者コミュニティによるイノベーションを促進する重要な動きです。特定のハードウェアベンダーやプラットフォームへの依存度を低減することで、より堅牢で柔軟なAIエコシステムの構築に貢献し、中国国内のAIインフラストラクチャの強化を促します。開発者は、特定のプロプライエタリなエコシステムに縛られることなく、DeepSeekのモデルをベースにカスタマイズされたAIソリューションを自由に開発・展開できるようになり、イノベーションの加速と市場競争の活性化が期待されます。

ADVERTISEMENT