2025年8月27日、エヌビディア(NVIDIA)は2026年度第2四半期(FY2026 Q2)の決算を発表しました。
売上は467億ドルと過去最高を更新し、AI事業が依然として主導的役割を果たしています。
この記事では、決算書の中身を投資家目線で読み解き、売上構造・利益率・AI半導体の実態を分かりやすく解説します。
Blackwell世代の台頭とRubinロードマップを踏まえ、NVIDIAの次なる一手を探ります。
用語の意味と基本解説|決算で押さえるべきポイント
NVIDIAの「AI半導体」とは、大規模AIの学習・推論を支えるデータセンター向けGPUを指します。代表的な製品は「Hopper」「Blackwell」「Rubin」などです。
GPUは膨大な並列計算を行うプロセッサで、生成AIや自動運転、HPC(高性能計算)などで利用されます。これらを動かす基盤ソフトウェアが「CUDA」および「CUDA-X」です。
FY2026第2四半期では、最新のBlackwellシリーズが前期比+17%の成長を記録し、データセンター部門の売上を押し上げました。製造はTSMCの4N/4NPプロセスに委託され、次世代Rubinは3nm・HBM4採用が予定されています。
出典:NVIDIA Investor Relations
技術・製品としての背景と登場の経緯
NVIDIAは1999年の「GeForce 256」でGPUを定義し、2006年の「CUDA」登場により汎用計算(GPGPU)時代を切り開きました。
AI時代の幕開けとともに、同社はデータセンターGPUへと軸足を移し、「Hopper」(2022〜)から「Blackwell」(2024〜)へ進化しています。
2026年に登場予定の「Rubin」は3nmプロセス・HBM4メモリを採用し、AI推論性能をさらに拡大する見通しです。Rubin Ultra(2027年)ではFP4演算性能が大幅に強化されるとされています。
これらの進化により、AI半導体市場でNVIDIAは依然として技術的主導権を握っています。
出典:Tom’s Hardware
最新の活用事例と産業別の動向
FY2026第2四半期のデータセンター部門売上は411億ドル(前年比+56%、前期比+5%)に達し、全体の約9割を占めました。
内訳では、GPU計算(Compute)が338億ドル、ネットワーキング(Networking)が72億ドル。特にネットワーク部門は前年比+98%、前期比+46%と急成長しています。
この背景には、クラウド事業者(CSP)が生成AI向けインフラを拡張していることが挙げられます。CSPの売上比率はデータセンター全体の約50%に達しました。
自動車部門も順調で、FY2026 Q2の売上は5億8,600万ドル(前年比+69%)。自動運転用SoC「Drive Thor」が複数OEMに採用されています。
出典:NVIDIA Newsroom
部門 | 売上高(億ドル) | 前年比 | 前期比 |
---|---|---|---|
データセンター | 411.0 | +56% | +5% |
ゲーミング | 42.9 | +15% | +4% |
プロフェッショナル可視化 | 6.0 | +21% | +8% |
自動車 | 5.9 | +69% | +7% |
OEMその他 | 1.7 | +9% | -3% |
この表から、データセンター事業の圧倒的シェアと、Networking成長が全体の牽引役であることが分かります。
競合との比較|AMD・Intelとの技術・戦略差
競合のAMDはMI300シリーズを展開し、次世代MI450ではTSMC 2nmプロセスを採用予定です。一方、NVIDIAのRubinは3nm・HBM4構成で2026年量産を目指します。
両社の大きな違いはソフトウェア生態系とAI対応力です。NVIDIAはCUDA・TensorRT・NIMなどの統合プラットフォームでAI推論から学習までを包括。AMDはまだ開発者エコシステムが限定的です。
また、NVLinkやInfiniBandネットワークを活かしたラックスケール設計もNVIDIAの優位点です。
私は、短期的な競争ではAMDがプロセスで優位を取る可能性がありますが、中長期ではソフトウェア資産がNVIDIAの堀を維持すると考えます。
項目 | NVIDIA(Rubin) | AMD(MI450) |
---|---|---|
製造プロセス | 3nm(TSMC) | 2nm(TSMC) |
メモリ | HBM4 | HBM3e |
AIソフト対応 | CUDA / TensorRT / NIM | ROCm |
ネットワーク連携 | NVLink / Ethernet / IB | Infinity Fabric |
発売予定 | 2026年 | 2025年後半 |
投資家目線で見るNVIDIAの収益構造と評価
FY2026 Q2の売上は467億ドル、純利益264億ドル、EPS1.08ドル。粗利率は72.4%(Non-GAAP 72.7%)と高水準です。
同社は2Qに97億ドルの自社株買いを実施し、追加で600億ドルの枠を新設しました。これは米国株市場でも最大級の規模です。
財務体質は極めて健全で、現金等は568億ドル。在庫は150億ドルに達し、Blackwell期の出荷加速に備えています。
私は、AIサイクルの一時的な鈍化を懸念しつつも、NVIDIAが「設備よりもソフトウェアで稼ぐ企業」に進化している点を高く評価します。
出典:Bloomberg
指標 | FY2026 Q2 | 前年比 |
---|---|---|
売上高 | 467億ドル | +56% |
純利益 | 264億ドル | +68% |
EPS | 1.08ドル | +64% |
粗利率 | 72.4% | +2.5pt |
自社株買い額 | 97億ドル | 新枠+600億ドル |
今後の見通しと注目ポイント
NVIDIAは次期Rubinアーキテクチャを2026年に投入予定です。Rubin/Veraはすでにテープアウトを完了しており、推論効率をさらに高める「Rubin CPX」も計画されています。
FY2026第3四半期の売上ガイダンスは540億ドル±2%、Non-GAAP粗利率73.5%と予想。
今後の注目点は、①Rubinへの移行速度、②クラウド顧客集中リスク(上位2社で売上の39%)、③対中規制による影響です。
私は、Rubin期以降の「推論市場の成熟」をどう収益化するかが最大の焦点だと見ています。AI需要の持続力を確かめる次の決算(2026年度第3四半期)は、株価を左右する重要イベントになるでしょう。
関連記事:NVIDIAのGPUロードマップ完全まとめ|BlackwellからRubinまで
関連記事:NVIDIA DGX Cloud戦略:AWS・Azureと差をつけるAI基盤
関連記事:NVIDIA株価分析2025|今後の見通しと投資判断
関連記事:NVIDIAの株式分割は得か?年表と影響を解説
よくある質問(FAQ)
Q1. BlackwellとRubinの違いは?
Blackwellは2024年投入のAI学習向けGPUで、4NプロセスとHBM3eを採用しています。一方Rubinは2026年登場予定で、3nm・HBM4採用により電力効率と推論性能が大幅に向上します。つまり、Rubinは「学習+推論」両方を高効率で処理する設計へ進化します。
Q2. Networking事業が急成長した理由は?
InfiniBandとEthernet製品の需要が爆発的に増加したためです。生成AIクラスタを構築するCSPが増え、NVLinkスイッチやBlueField DPUなどネットワーク関連製品が売上を押し上げました。
Q3. 顧客集中リスクはどの程度?
FY2026 Q2時点で上位2顧客(主要クラウド事業者)が売上の約39%を占めています。特定顧客への依存度は高いものの、NVIDIAはAI工場(AI Factory)構想で産業横断的に分散を進めています。
Q4. 次の注目イベントは?
2026年度第3四半期決算(2025年11月頃)とGTC 2026(2026年春開催)が焦点です。Rubinチップの正式発表やAIソフト群(NIM・Omniverse)の更新が見込まれます。
まとめ|決算から見えるNVIDIAの現在地
FY2026第2四半期の決算は、NVIDIAが「AI産業の中心」であり続けることを再確認させる内容でした。
データセンターとネットワークの成長が売上の大半を支え、Rubinロードマップが視野に入る中で、企業体質はさらに強固になっています。
私は、AI投資ブームの波が落ち着いた後も、CUDAエコシステムを軸に持続的な収益モデルを築く可能性が高いと見ています。
投資家にとっては、NVIDIAの成長を追う最良の手段は「決算書を読むこと」そのものです。次の四半期も注視しましょう。