DeepSeek技術解説 Part 2:超巨大AIを動かす「並列処理」の秘密
2025/04/03 AI DeepSeek GPU LLM 並列処理
はじめに
現代の人工知能(AI)、特に大規模言語モデル(LLM)は、人間のようなテキスト生成や対話能力を持つ一方で、その学習には膨大な計算資源を必要とします。この計算の壁を乗り越える鍵となるのが「並列処理(Parallel Processing)」技術です。本シリーズでは、先進的なLLMであるDeepSeekの技術を解説しています。Part1ではモデルアーキテクチャに焦点を当てましたが、Part2となる本記事では、DeepSeekがいかにして巨大なモデルを効率的に学習させているのか、その心臓部とも言える並列処理技術について、背景となる理論から具体的な手法まで、わかりやすく解き明かしていきます。
なぜ「並列処理」の前に「誤差逆伝播法」?
並列処理の詳細に入る前に、ニューラルネットワークの学習における基本的なアルゴリズム「バックプロパゲーション(誤差逆伝播法)」について理解しておく必要があります。なぜなら、この誤差逆伝播法の計算負荷が非常に高く、それをいかに効率化するか(=並列化するか)がLLM開発の大きな課題だからです。誤差逆伝播法は、モデルの予測(出力)と正解(教師データ)のズレ(誤差)を計算し、その誤差をネットワークの層を遡って伝えることで、各接続の重みを調整し、モデルの精度を高めていく手法です。
ニューラルネットワークの数式表現

ニューラルネットワークはよくノードと矢印で図示されますが、行列とベクトルを用いると、その計算を簡潔な数式で表現できます。
ある層が、前の層から n 個の入力値を受け取り、m 個のノード(ニューロン)で構成されているとします。入力値を要素とする n 次元のベクトルを
まず、重み付きの合計とバイアスを加算します。
次に、計算結果
ここで、重み行列
ネットワーク全体が L 層で構成される場合、入力
誤差逆伝播法の詳説
学習の目標は、モデルの出力
この誤差
パラメータ
(バイアス
勾配
連鎖律(簡単に)
y が u の関数で、u が x の関数(y = f(u), u = g(x))のとき、y を x で微分するには
誤差逆伝播法の計算ステップ
計算を簡単にするため、ここでは出力層(L 層目)の活性化関数を恒等関数
出力層 (l=L) の誤差計算:
まず、誤差 E を
出力層の勾配計算:
中間層 (l < L) の誤差計算:
ある層 l の誤差信号
ここで
中間層の勾配計算:
このように、誤差逆伝播法では、まず順方向(Forward Pass)で各層の出力
この一連の計算、特に巨大な行列演算は、LLMのような大規模モデルでは膨大な計算量となります。1回の学習(全データに対する更新)でさえ非常に時間がかかるため、並列処理によって計算を高速化することが不可欠なのです。
3D並列処理とは?
DeepSeekのような最先端のLLMは、学習を高速化し、巨大なモデルを扱えるようにするために「3D並列処理」と呼ばれる高度な技術を採用しています。これは、以下の3つの異なる並列化戦略を巧みに組み合わせるアプローチです。
- データ並列(Data Parallelism): データを分割し、複数のGPUで同時に処理する。
- モデル並列(Model Parallelism): モデル自体を分割し、複数のGPUで分担して計算する。
- パイプライン並列(Pipeline Parallelism): モデルの層を流れ作業のように複数のGPUで処理する。
これらの手法を組み合わせることで、単一の手法だけでは得られない高い効率とスケーラビリティを実現します。それぞれの方法について詳しく見ていきましょう。
データ並列(Data Parallelism)
データ並列は、最も一般的で直感的な並列化手法です。
仕組み:
同じモデルの完全なコピーを複数のGPU(ワーカー)に配置します。学習データを複数のミニバッチに分割し、各GPUがそれぞれ異なるミニバッチを使ってモデルの学習(順伝播、誤差計算、逆伝播による勾配計算)を並行して行います。
勾配の集約:
各GPUで計算された勾配は、すべてのGPU間で集約され(通常は平均を取る)、その平均勾配を使って全GPU上のモデルパラメータが一斉に更新されます。これにより、実質的により大きなバッチサイズで学習しているのと同じ効果が得られ、学習が安定しやすくなります。
利点:
実装が比較的容易で、GPU数を増やすほど学習速度を(理想的には線形に)向上させることができます。
課題:
各GPUがモデル全体のコピーと、学習状態(パラメータ、勾配、オプティマイザ状態)を保持する必要があるため、モデルが巨大になるとGPUメモリが不足しやすくなります。
メモリ効率化: ZeRO (Zero Redundancy Optimizer)
データ並列のメモリ課題を解決するために開発されたのが ZeRO です。特にDeepSeekが採用する ZeRO-1 は、メモリ消費の大きな要因であるオプティマイザ状態 (Optimizer States) に着目します。
オプティマイザ状態とは?
勾配をそのまま使ってパラメータを更新する単純な方法(SGD)もありますが、現在主流のAdamなどの高機能なオプティマイザは、過去の勾配情報(モーメントや分散など)を保持し、それを利用してより効率的にパラメータを更新します。この保持される情報がオプティマイザ状態です。
メモリ消費の内訳(例):
モデルパラメータを16bit浮動小数点数(FP16, 2バイト)、勾配もFP16 (2バイト) で保持する場合でも、Adamオプティマイザは通常、パラメータごとに元のパラメータのコピー(FP32, 4バイト)、モーメント(FP32, 4バイト)、分散(FP32, 4バイト)の計12バイトをFP32で保持します。合計すると、パラメータ1つあたり 2 + 2 + 12 = 16 バイトものメモリが必要になります。
ZeRO-1 のアプローチ:

このメモリ消費の大部分(例では16バイト中12バイト)を占めるオプティマイザ状態を、各GPUで重複して持つのではなく、全GPUに分割して保持します(シャーディング)。パラメータ更新時には、必要なオプティマイザ状態を持つGPUから通信で取得します。これにより、各GPUが必要とするメモリ量を大幅に削減でき、より大きなモデルをデータ並列で学習させることが可能になります。
(補足:ZeROにはさらに進んだ ZeRO-2(勾配も分割)、ZeRO-3(パラメータも分割)がありますが、DeepSeekではZeRO-1が使われていると述べられています。)
モデル並列(Model Parallelism)
モデル並列は、モデル自体が単一GPUのメモリに収まらないほど巨大な場合に不可欠な技術です。
仕組み:
ニューラルネットワークの各層、あるいは層内部の計算(例えば巨大な行列演算)を複数のGPUに分割して割り当てます。各GPUはモデルの一部分のみを担当します。
テンソル並列(Tensor Parallelism):
層内の行列演算 (Wx) を分割する方式です。例えば、行列 W を列方向や行方向に分割し、それぞれの部分行列と入力ベクトル(またはその一部)の計算を異なるGPUで行い、結果を集約します。TransformerモデルのAttention機構やFFN(Feed Forward Network)層など、特定の計算パターンに対して効果的です。
利点:
単一GPUのメモリ制限を超える超巨大モデルの学習を可能にします。
課題:
分割された部分計算の結果をGPU間で頻繁に通信する必要があり、通信オーバーヘッドが性能のボトルネックになりやすいです。また、どのようにモデルを分割するかが複雑になる場合があります。
パイプライン並列(Pipeline Parallelism)
パイプライン並列は、モデルの層(ステージ)を複数のGPUに割り当て、データがGPU間を流れ作業のように処理される方式です。モデル並列の一種とも考えられますが、特に層単位での分割と順次処理に焦点を当てています。
仕組み:
モデルを複数の連続したステージ(通常は複数の層)に分割し、各ステージを異なるGPUに割り当てます。入力データ(ミニバッチ)は最初のステージ(GPU 1)に入力され、その処理結果が次のステージ(GPU 2)に送られ…と、パイプラインのようにデータが流れていきます。
課題:バブル(Bubble)の発生
単純なパイプラインでは、最初のミニバッチが最後のステージに到達するまで、後段のGPUは待機状態になります(Forward Bubble)。
同様に、逆伝播時も、最後のミニバッチの勾配が最初のステージに戻ってくるまで、前段のGPUは待機状態になります(Backward Bubble)。
このGPUが遊んでいる時間(バブル)が、パイプラインの効率を低下させます。
バブル削減のための工夫
このバブル問題を軽減・解消するために、様々なアルゴリズムが考案されてきました。
GPipe:
データをさらに小さなマイクロバッチに分割し、パイプラインに連続的に投入します。あるGPUがマイクロバッチ k の順伝播を終えたら、すぐにマイクロバッチ k+1 の順伝播を開始することで、GPUの遊休時間を減らします。ただし、全マイクロバッチの順伝播が終わってから逆伝播が始まるため、アクティベーション(中間出力)をメモリに保持しておく必要があります。
PipeDream (1F1B スケジューリング):

順伝播(Forward)と逆伝播(Backward)をより密接に組み合わせます。あるマイクロバッチの順伝播が完了したGPUは、後続のマイクロバッチの順伝播だけでなく、先行するマイクロバッチの逆伝播も担当できるようにスケジューリングします(例:マイクロバッチ k の順伝播後、マイクロバッチ k-N の逆伝播を行う)。これにより、アクティベーションの保持期間が短くなり、メモリ効率が向上します。また、バブルも削減されます。
Zero Bubble (ZB):


逆伝播における勾配計算とパラメータ更新を分離します。逆伝播で必要なのは、前の層に伝える誤差信号(
DualPipe(DeepSeek V3):


DeepSeekが開発した独自技術です。Zero Bubble の考え方をさらに推し進め、計算と通信のオーバーラップを最大化します。GPUが計算を行っている間に、バックグラウンドで他のGPUとの間で必要なデータ(アクティベーションや勾配など)を送受信します。これにより、通信にかかる待ち時間を計算処理で「隠蔽」し、パイプライン全体の効率を極限まで高めることを目指します。具体的には、あるGPUが特定のマイクロバッチの順伝播計算、別のマイクロバッチの逆伝播(誤差計算)、さらに別のマイクロバッチのパラメータ更新を、通信と並行して同時に行うような高度なスケジューリングを実現していると考えられます。
まとめ
DeepSeekは、超巨大AIモデルの効率的な学習を実現するために、洗練された3D並列処理技術を駆使しています。
- データ並列: ZeRO-1を活用し、各GPUのメモリ負担を軽減しつつ、処理速度を向上させます。
- モデル並列: 単一GPUに収まらない巨大モデルを分割し、複数のGPUで計算を分担します。
- パイプライン並列: 独自技術「DualPipe」により、計算と通信を高度にオーバーラップさせ、パイプラインの「バブル」を最小化し、GPUの稼働率を最大限に高めます。
これらの技術を組み合わせることで、DeepSeekは計算資源の制約を乗り越え、高性能なLLMの開発を可能にしています。AI、特にLLMのさらなる進化には、このような並列処理技術の発展が不可欠と言えるでしょう。
次回、Part3では「DeepSeekで扱われている強化学習」について解説します。LLMの性能をさらに引き出すための重要な技術ですので、ご期待ください。