---
title: APOLLO_v8_NVIDIA_global_report_technical
tags: 
author: [Rihito Shibayama](https://www.docswell.com/user/shibayamalicht)
site: [Docswell](https://www.docswell.com/)
thumbnail: https://bcdn.docswell.com/page/GE8DDQVYED.jpg?width=480
description: APOLLO_v8のデモです
published: May 02, 26
canonical: https://www.docswell.com/s/shibayamalicht/KR8GQE-2026-05-02-131912
---
# Page. 1

![Page Image](https://bcdn.docswell.com/page/GE8DDQVYED.jpg)

NVIDIA 技術開発の系譜と着目点
創業から Vera Rubin まで — 技術変遷史 × 67 クラスタ × 萌芽領域 — 技術分析版
APOLLO
Advanced Patent &amp; Overall Landscape-analytics Logic Orbiter
2026 年 4 月


# Page. 2

![Page Image](https://bcdn.docswell.com/page/LELMMX597R.jpg)

APOLLO
2
本書の目的と読み方
本書の対象範囲: 本書は Patentfield から抽出された NVIDIA 出願 5,921 件（1997-2025 年、28 年間）を、
(1) 1993 年創業以来の NVIDIA 技術全体の変遷、(2) 9 つの技術領域それぞれの系譜と着目点、(3) ノイズ
2,026 件から抽出した次世代萌芽領域、の 3 視点で整理した技術分析版である。各技術については、それが
何を解決する技術なのか、どう動いているのか、なぜ重要なのかを詳しく解説し、専門知識のない経営層にも
理解できる構成とした。Web 調査で得た外部技術情報も併せて参照する。
本書の構成（4 部構成）
1. NVIDIA 技術変遷史（1993-2026）: 創業から Vera Rubin まで、NVIDIA がどのような技術系
譜を辿ってきたかを 6 期で整理。本対象特許群はこの変遷の特許化された痕跡である。
2. 技術領域別の深掘り（全 9 領域）: 各超領域の (a) 何を解こうとしているか、(b) どのように解いて
いるかの技術的解説、(c) 28 年間の技術系譜（時間軸）、(d) 代表特許 5-9 件の解説。
3. 萌芽領域の精密抽出: ノイズ 2,026 件から 10 種類の萌芽 R&amp;D 領域を抽出し、次に台頭する技術
の方向を予測。
4. 総括: 本対象特許群が示す NVIDIA の技術アイデンティティの本質。
本書の読み方
各章の技術解説は、専門用語を初めて見る読者にも分かるように、以下の構成で書いている。
• 課題の提示: 何が技術的にむずかしいのか、なぜそれを解く必要があるのか
• 基本原理の解説: その技術がどう動いているのかを平易に
• NVIDIA 固有の工夫: NVIDIA がその領域で何を独自に発明したか
• 代表特許: 本対象特許群の中から、その技術を象徴する特許を引用
💡 Key Insight
本書は単なる特許リストではなく、
「技術がどう生まれ、どう進化し、次に何が来るか」を時間軸と
原理解説の 2 軸で追跡する。これにより、本対象特許群が単なるカテゴリの集合体ではなく、明
確な進化の系譜を持つ R&amp;D 戦略であることを示す。


# Page. 3

![Page Image](https://bcdn.docswell.com/page/4JMYYL3VJW.jpg)

APOLLO
3
NVIDIA 技術変遷史（1993-2026） — 創業から
Vera Rubin まで
全体像: 33 年の歩みを 6 期で読む
NVIDIA は 1993 年に Jen-Hsun Huang らによって創業され、当初は PC 向けグラフィックスチッ
プ専業メーカーであった。しかし 33 年の歩みを通じて、(1) グラフィックス会社、(2) 汎用 GPU 計
算プラットフォーム会社、(3) AI コンピューティング会社、(4) AI インフラ会社、(5) フィジカル AI
プラットフォーム会社へとアイデンティティを段階的に拡大してきた。本対象特許群はこの変遷の特許
化された痕跡である。
期
期間
この期に NVIDIA が獲得したアイデンティティ
創業期
1993-1998
PC 向けグラフィックスチップメーカー。RIVA 128（1997）
など 2D/3D 統合チップで存在感を示す
GPU 命名期
1999-2005
GeForce 256（1999）で世界初の “GPU” を命名。固定機能
パイプライン + ハードウェア T&amp;L エンジン搭載で 3D ゲー
ムの主力に
CUDA 黎明期
2006-2011
G80 アーキテクチャと CUDA 1.0（2006）公開。GPU を
「グラフィックス専用」から「汎用並列計算プロセッサ」へ転
換。Tegra（2008）でモバイル参入
DL 計算基盤期
2012-2017
Kepler（2012）→ Maxwell（2014）→ Pascal（2016）→
Volta（2017）。AlexNet（2012）以降の深層学習ブームを
GPU が支える計算基盤として定着。Volta で Tensor Core
初登場
AI コンピューティング
2018-2022
期
Turing（2018）でリアルタイムレイトレ、Ampere（2020）で
AI 推論の MIG（マルチインスタンス GPU）、Hopper（2022）
で Transformer Engine と FP8。Mellanox 買収（2019）
で AI インフラ全体に拡張
AI インフラ + Physical
AI 期
2023-2026
Blackwell（2024 量産）で GB200 NVL72 ラック型液冷シ
ステム、Tensor Core 第 5 世代で FP4 (NVFP4)。Project
GR00T / Cosmos / DRIVE Thor で Physical AI 領域に展
開。Vera Rubin（2026 後半）で HBM4 + 3nm 世代へ
主要 GPU アーキテクチャの技術ハイライト
各 GPU アーキテクチャ世代の技術的画期を以下に解説する。これらは本対象特許群の各クラスタが
「どの世代の技術か」を理解するための文脈となる。


# Page. 4

![Page Image](https://bcdn.docswell.com/page/PJR99KQW79.jpg)

APOLLO
4
Kepler（2012）— SMX とダイナミック並列処理
Kepler は SMX（Streaming Multiprocessor eXtreme）ユニットを導入し、それまでの SM を電
力効率の高い設計に置き換えた。1GPU 上のカーネル（プログラム）がさらに別のカーネルを呼び出せ
る「Dynamic Parallelism（動的並列処理）」が初めて可能になり、CPU を介さない GPU 主導の処理
フローが実現した。GK110 チップを搭載した Tesla K20/K40 は、当時のスーパーコンピュータや科
学計算で広く採用された。本対象特許群の第 II 期（2011-2017）出願の多くがこの世代の R&amp;D 反映
である。
Maxwell（2014）— Unified Memory と省電力
Maxwell は TSMC 28nm プロセスで製造され、CPU と GPU が同じメモリアドレス空間を共有でき
る「Unified Memory（統一メモリ）」を本格導入した。2これにより、プログラマは「データを CPU
から GPU にコピー」という煩雑な処理を意識せずに済むようになり、CUDA プログラミングの生産
性が大幅に向上した。
Pascal（2016）— NVLink と HBM2 で AI 計算基盤化
Pascal の GP100 は、本対象特許群を「AI 計算の本格 R&amp;D 期」へと押し上げた重要世代である。GPU
同士を高速接続する「NVLink」と、広帯域メモリ「HBM2（High Bandwidth Memory 第 2 世代）」
が初めて統合され、深層学習の大規模モデル訓練が現実的に可能になった。
Volta（2017）— Tensor Core 革命
Volta（V100）は、本対象特許群の中で最も重要な転換点の一つである。
「Tensor Core（テンソルコ
ア）」と呼ばれる、行列乗算累算（MMA: Matrix Multiply-Accumulate）専用ハードウェア演算ユニッ
トが初めて搭載された。Tensor Core は FP16（半精度浮動小数点）入力で乗算を行い、FP32（単
精度）で累算する「混合精度演算」をサイクル単位で実行できる。これにより Pascal 比で AI 訓練が
約 12 倍高速化され、深層学習の世界標準ハードウェアとなった。3さらに Volta は「Independent
Thread Scheduling（独立スレッドスケジューリング）」により、warp 内のスレッドが個別に進行で
きるようになり、複雑な制御フローの並列化が可能になった。4
Turing（2018）— リアルタイムレイトレと第 2 世代 Tensor Core
Turing は、リアルタイム光線追跡（レイトレーシング）を世界で初めてゲーム用 GPU で実現した世代
である。専用の「RT Core（Ray Tracing Core）」が、後述する BVH（Bounding Volume Hierarchy）走
査と ray/triangle 交差計算をハードウェア化した。5同時に第 2 世代 Tensor Core では INT8/INT4
精度が追加され、推論用途でのスループットが大幅に向上した。GeForce RTX シリーズの始まり。
1Serversimply「Evolution of NVIDIA Data Center GPUs: From Pascal to Grace Blackwell」 https://www.
serversimply.com/blog/evolution-of-nvidia-data-center-gpus 取得日 2026-04-29
2Whaleflux「The Evolution of NVIDIA GPUs: A Deep Dive」https://www.whaleflux.com/blog/the-evolutionof-nvidia-gpus-a-deep-dive-into-graphics-processing-innovation/ 取得日 2026-04-29
3SemiAnalysis「NVIDIA Tensor Core Evolution: From Volta To Blackwell」 https://newsletter.semianalysis.
com/p/nvidia-tensor-core-evolution-from-volta-to-blackwell 取得日 2026-04-29
4NVIDIA Developer「Using CUDA Warp-Level Primitives」 https://developer.nvidia.com/blog/using-cudawarp-level-primitives/ 取得日 2026-04-29
5AnandTech「The NVIDIA Turing GPU Architecture Deep Dive: Bounding Volume Hierarchy」 https://
www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive/3 取得日 2026-04-29


# Page. 5

![Page Image](https://bcdn.docswell.com/page/PEXQQL5VJX.jpg)

APOLLO
5
Ampere（2020）— BF16/TF32 と MIG
Ampere（A100）は第 3 世代 Tensor Core で、Brain Float 16（BF16）と TensorFloat-32（TF32）
という新しい数値フォーマットをサポートした。さらに「2:4 構造化スパース性」により、4 つの重み
のうち 2 つをゼロにすることで Tensor Core スループットを理論上 2 倍化した。6「Multi-Instance
GPU（MIG）
」では 1 つの A100 を最大 7 つの独立 GPU として分割でき、推論サービスのマルチテ
ナント化が可能になった。HBM2e メモリも採用。
Hopper（2022）— Transformer Engine と FP8
Hopper（H100）は LLM（大規模言語モデル）時代を見据えて設計された世代である。第 4 世代 Tensor
Core では「Transformer Engine」が搭載され、FP8（8bit 浮動小数点）と FP16/BF16 を動的
に切り替えながら混合精度訓練を行うことで、Ampere 比で SM スループットが約 2 倍に向上した。
7NVLink は 4.0 世代（900 GB/s/GPU）に進化し、8ノード規模の GPU クラスタを構築できるよう
になった。HBM3 採用。
Blackwell（2024 量産）— FP4 (NVFP4) と GB200 NVL72
Blackwell（B200/GB200）は本対象特許群の現在進行中の R&amp;D の中核である。第 5 世代 Tensor
Core では、FP4（4bit 浮動小数点、NVIDIA 独自フォーマット NVFP4）と FP6 が新たにネイティ
ブサポートされた。NVFP4 は「マイクロブロックスケール（FP8 E4M3）+ テンソルレベルスケール
（FP32）」の二段階スケーリングで、超低精度でも精度劣化を最小化する技法である。9これにより、1
個の B200 GPU は FP4 モードで 18 ペタフロップス、FP8 で 9 ペタフロップス、FP16/BF16 で
4.5 ペタフロップスを発揮できる（H100 の 2 倍以上）。NVFP4 によりモデルメモリ使用量は FP16
比で約 3.5 倍削減される。GB200 NVL72 は液冷ラック内に 72 個の B200 GPU を統合し、1 ラッ
ク自体が 1 つの巨大 GPU として動作する。HBM3e 採用（8 TB/s/GPU、Hopper の 2.4 倍）。10
Vera Rubin（2026 後半-2027 予定）— HBM4 と 3nm
Vera Rubin（R100）は、TSMC 3nm プロセスで製造され、HBM4 メモリ（13 TB/s/GPU、Blackwell
の 1.6 倍）を採用予定である。トランジスタ数は Blackwell の 208B から 336B（1.6 倍）に増加
し、HBM 容量も 192GB から 288GB に拡大する。FP4 性能は約 50 ペタフロップスに達する見込
みで、NVLink は第 6 世代（3.6 TB/s/GPU、双方向）になる。Rubin NVL144 ラックは 144 個の
R100 を統合し、3.6 エクサフロップス（FP4 dense）に達する。11本対象特許群の最新出願（2025
年）には、すでに Vera Rubin 世代の前駆技術が多数含まれている。
6Wikipedia「Ampere (microarchitecture)」 https://en.wikipedia.org/wiki/Ampere_(microarchitecture) 取
得日 2026-04-29
7NVIDIA Docs「Using FP8 and FP4 with Transformer Engine」 https://docs.nvidia.com/deeplearning/
transformer-engine/user-guide/examples/fp8_primer.html 取得日 2026-04-29
8Fibermall「Understanding Nvidia’s NvLink and NvSwitch Evolution」 https://www.fibermall.com/blog/
nvidia-nvlink-and-nvswitch-evolution.htm 取得日 2026-04-29
9NVIDIA Developer Blog「Introducing NVFP4 for Efficient and Accurate Low-Precision Inference」https://
developer.nvidia.com/blog/introducing-nvfp4-for-efficient-and-accurate-low-precision-inference/ 取 得 日
2026-04-29
10FreeCodeCamp「 The Evolution of Nvidia Blackwell GPU Memory Architecture」 https://www.
freecodecamp.org/news/the-evolution-of-nvidia-blackwell-gpu-memory-architecture/ 取得日 2026-04-29
11Tom’s
Hardware「 Nvidia
announces
Rubin
GPUs
in
2026,
Rubin
Ultra
in
2027」
https://www.tomshardware.com/pc-components/gpus/nvidia-announces-rubin-gpus-in-2026rubin-ultra-in-2027-feynam-after 取得日 2026-04-29


# Page. 6

![Page Image](https://bcdn.docswell.com/page/3EK99L65ED.jpg)

APOLLO
Volta (2017)
12x
6
Hopper FP8
2x
B200 FP4
18 PF
Rubin NVL144
3.6 EF
FP4 dense
1 GPU 単体
AI 訓練 vs Pascal
vs Ampere SM
CUDA プログラミングモデルの基礎
本対象特許群を理解するには、CUDA の基本概念を押さえる必要がある。CUDA は NVIDIA の GPU
上で並列計算を行うための C++ 拡張プログラミングモデルで、2006 年に初公開された。12
階層構造: Grid → Block → Warp → Thread
CUDA プログラム（カーネル）は、多数のスレッド（thread）を並列に実行する。スレッドは「ブロッ
ク（block）」に組織化され、ブロックは「グリッド（grid）」に組織化される。グリッドとブロックは
1D / 2D / 3D の構造を取れる。
Warp（ワープ）と SIMT 実行モデル
ブロック内のスレッドは 32 個ずつ束ねられ、これを「warp（ワープ）」と呼ぶ。1 つの warp に属
する 32 スレッドは、SIMT（Single-Instruction Multiple-Threads）モデルで同じ命令を一斉に実
行する。13SIMD（Single Instruction Multiple Data、ベクトル演算）と似ているが、SIMT では各
スレッドが個別に分岐できる点が異なる。
Warp Divergence と Volta の Independent Thread Scheduling
if 文などで warp 内のスレッドが異なる分岐を取る場合、
「warp divergence」が発生する。Volta よ
り前は、片方の分岐を実行する間、他方のスレッドはマスクされて停止し、両分岐を順次処理する必要
があった。Volta 以降は「Independent Thread Scheduling」により、各スレッドが独立にスケジュー
リングされ、共有データの中間同期が可能になった。これは複雑な制御フローを持つ AI モデルの効率
化に貢献した。
Tensor Core: 行列演算のハードウェア化
Tensor Core は、4×4 や 8×8 などの小行列の乗算累算を 1 サイクルで実行できる専用演算ユニッ
トである。深層学習の中核演算である行列乗算（matmul）を、汎用の浮動小数点演算ユニットの何倍
もの効率で処理できるため、AI 訓練・推論の標準ハードウェアとなった。Volta（FP16/FP32）から
Blackwell（NVFP4/FP6/FP8）まで、世代ごとに対応精度が拡大している。
12NVIDIA「 CUDA Programming Guide: Programming Model」 https://docs.nvidia.com/cuda/cudaprogramming-guide/01-introduction/programming-model.html 取得日 2026-04-29
13Cornell Virtual Workshop「SIMT and Warps」 https://cvw.cac.cornell.edu/gpu-architecture/gpu-chara
cteristics/simt_warp 取得日 2026-04-29


# Page. 7

![Page Image](https://bcdn.docswell.com/page/L73WW36175.jpg)

APOLLO
💡 Key Insight
本対象特許群の SR-1 GPU 演算基盤クラスタ群（[60] スレッド命令行列、[47] メモリ、[46]
キャッシュ、[33] 仮想メモリ、[52] SIMT 並列、[57] 計算資源 API 等）は、これら CUDA プ
ログラミングモデルの 28 年にわたる継続的な拡張の特許化である。各世代の GPU アーキテク
チャが新しい機能（NVLink、Tensor Core、Independent Thread Scheduling、Transformer
Engine、NVFP4 等）を導入するたびに、それを使うための API・コンパイラ・ランタイムの特許
群が積み重なってきた。
7


# Page. 8

![Page Image](https://bcdn.docswell.com/page/87DKK4VKJG.jpg)

APOLLO
8
全体俯瞰と技術系譜年表
規模と構造
総特許件数
有意クラスタ
5,921
ノイズ
2,026
67
超領域数
9
34.2%
28 年を 4 期で読む
本対象特許群を 4 期で区分すると、本対象特許群の R&amp;D 重心の移動が明確に浮かび上がる。これは
前章の「NVIDIA 技術変遷史」とも対応する。
期
期間
期合計
この期の R&amp;D 重心
第 I 期: GPU 黎明
1997-2010
994 件 (16.8%)
グラフィックス処理 ASIC、SIMT 並列処理基盤、
期
第 II 期: CUDA 拡
初期 CUDA、レンダリングパイプライン
2011-2017
張期
1,632
件
(27.5%)
CUDA エコシステム本格化、Tesla / Tegra 投
入、メモリ階層拡張、Kepler/Maxwell/Pascal
世代の特許化加速
第 III 期前期: DL
2018-2022
基盤期
1,820
件
(30.7%)
深層学習基盤、DGX-1/V100/A100、自動運転
R&amp;D 立ち上がり、ロボット学習の最初の集中蓄
積、Turing でレイトレ初導入
第 III 期後期: 生成
2023-2025
AI 期
1,475
(24.9%)
件
Foundation Models、 拡 散 モ デ ル 、 VLM/
VLA、Physical AI、Hopper/Blackwell、GB200
NVL72 ラック量産化
9 超領域の系譜マッピング
各超領域が、どの期にどれだけ出願されたかを示すと、本対象特許群の R&amp;D 重心の移動が可視化され
る。


# Page. 9

![Page Image](https://bcdn.docswell.com/page/VJPKKMV3E8.jpg)

APOLLO
超領域
9
総件数
I期
II 期
III 期前
III 期後
(1997-10)
(2011-17)
(2018-22)
(2023-25)
+ 系譜タイプ
SR-1 GPU 演算基
1,073
221
426
約 220
約 206 / 持続コア
SR-2 AI/ML 中核
481
13
20
約 230
約 218 / 近年急成長
SR-3 自動運転・知
277
2
9
約 175
約 91 / 2018 年新興
420
90
135
約 100
約 95 / 持続継続
133
5
9
約 60
約 59 / 2018 年新興・
盤
覚
SR-4 高速通信・I/
O
SR-5 ロボティク
ス・物理
SR-6 レンダリン
加速中
487
104
162
約 130
約 91 / 持続コア
416
55
135
約 145
約 81 / 持続拡大
323
20
80
約 100
約 123 / 近年加速
186
23
58
約 60
約 45 / 持続
グ
SR-7 半導体・冷
却・電源
SR-8 言語・音声・
UX
SR-9 SoC・コンパ
イラ
系譜タイプによる 3 分類
上記の発展軌跡から、9 超領域は以下 3 タイプに分類できる。
タイプ
該当超領域
特徴
持続コア型
SR-1 / SR-4 / SR-6 /
全期間にわたって出願が継続。NVIDIA の伝統的事業基盤
SR-7 / SR-9
（GPU・通信・レンダリング・物理層・SoC）。第 II 期にピー
クがあるが第 III 期も継続的に厚化
近年急成長型
SR-2 / SR-8
第 II 期まではほぼ存在せず、第 III 期から爆発的に拡大。AI/
ML 中核と言語 UX が該当。生成 AI / Foundation Models /
推論サービスへの重心シフトを直接反映
2018 年新興型
SR-3 / SR-5
第 II 期まではゼロに近く、2018 年以降に立ち上がった新領
域。自動運転とロボティクス。Physical AI 戦略の中核


# Page. 10

![Page Image](https://bcdn.docswell.com/page/2EVVV9ZNEQ.jpg)

APOLLO
10
図 1: 本対象特許群の 28 年間の出願件数推移 — 第 II 期 2012-2013 ピーク後の調整期を経て、第 III 期に再加速、2024 年
731 件で過去最大


# Page. 11

![Page Image](https://bcdn.docswell.com/page/57GLLZ45EL.jpg)

APOLLO
11
図 2: Saturn V TELESCOPE: 67 クラスタの全体ランドスケープ。色分けは技術領域、点が個別特許


# Page. 12

![Page Image](https://bcdn.docswell.com/page/4EQYYLGLJP.jpg)

APOLLO
12
SR-1 GPU 演算基盤 — 並列計算の心臓部
何を解こうとしているか
GPU は数千個の演算コアを持ち、これらを協調動作させて並列計算を行う。しかし「数千個のコアが
同時に動く」ということは、(a) どのコアにどの仕事を割り当てるか、(b) コア間でどうデータをやり
取りするか、(c) どうメモリ階層を効率的に使うか、(d) どう電力を抑えながら最大スループットを出
すか、という複数の難問を同時に解く必要がある。SR-1 GPU 演算基盤領域は、これらすべてに対す
る継続的な R&amp;D 反映である。
主要な技術アプローチ
NVIDIA がこの領域で 28 年にわたって積み重ねてきた解決アプローチは、以下の 6 軸に整理できる。
(1) 行列乗算累算（MMA）演算の専用ハードウェア化
深層学習の中核演算は行列乗算（matmul）である。汎用浮動小数点ユニットで matmul を行うと数
百サイクル必要だが、Tensor Core は 4×4 や 8×8 などの小行列乗算累算を 1 サイクルで処理でき
る。Blackwell の Tensor Core 第 5 世代では NVFP4 という新しい 4bit 浮動小数点フォーマットが
ネイティブサポートされ、メモリ使用量を FP16 比で約 3.5 倍削減しながら推論精度を維持できる。
(2) スレッド・warp の階層管理
CUDA プログラミングモデルは「Grid → Block → Warp → Thread」の階層を持ち、各層で同期・
通信・スケジューリングが必要である。本対象特許群には、warp 内のスレッド特殊化、ブロック間の
協調データ転送、動的負荷分散などの特許が多数含まれる。
(3) メモリ階層の動的管理
GPU には複数のメモリ階層がある: レジスタ（最速、各スレッド専用）、共有メモリ（block 内）、L1/
L2 キャッシュ、HBM（最大容量、最低速）、ホスト DRAM（CPU 側）。これらをどう使い分けるかが
性能を決める。本対象特許群には、Unified Memory、仮想アドレス空間管理、キャッシュコヒーレン
スプロトコル、動的名前空間割り当てなどの特許が含まれる。
(4) マルチ GPU 統合
単一 GPU の性能は物理的に限界がある。Pascal で導入された NVLink、Volta で強化された
NVSwitch、Hopper の NVLink 4.0（900 GB/s/GPU）、Blackwell の GB200 NVL72（72 GPU


# Page. 13

![Page Image](https://bcdn.docswell.com/page/KJ4WWD5571.jpg)

APOLLO
13
を 1 ラック内で液冷統合）と進化している。本対象特許群には、複数ノード GPU クラスタの分散ペー
ジテーブル、メモリマップ、ルーティングテーブル等の特許が含まれる。
(5) 電力管理
GPU は 1 個で数百ワット消費し、データセンタでは数 MW のクラスタになる。マルチチップ電力平
衡、動的電力ゲーティング、温度ベースのクロック調整などが特許化されている。
(6) CUDA API の拡張
CUDA は 1.0（2006）から現在まで継続的に機能拡張されてきた。Dynamic Parallelism、CUDA
Graph、Cooperative Groups、メモリアクセス API、計算資源 API 等の API 設計特許が本対象特許
群に多数含まれる。
技術系譜（時間軸）
期
I 期
この期の SR-1 の重心と対応 GPU 世代
(1997-2010, 約
221 件)
Tesla アーキテクチャ世代（G80、GT200）。SIMT 並列処理の基本特許、固定機
能パイプラインからプログラマブルシェーダーへの移行、初期 CUDA（2006）の
API 整備
II 期 (2011-2017, 約
Fermi → Kepler（2012）→ Maxwell（2014）→ Pascal（2016）→ Volta（2017）
。
426 件)
Tesla 系特許、CUDA 5-9 の機能拡張、Unified Memory、動的並列処理、Tensor
Core 初期導入
III 期前期 (2018-2022, Turing（2018）→ Ampere（2020）→ Hopper（2022）。RT Core、第 2-4 世代
約 220 件)
Tensor Core、HBM2/HBM3 メモリ統合、NVLink 進化、Transformer Engine
導入
III 期後期 (2023-2025, Blackwell B200/GB200 NVL72 ラック対応、第 5 世代 Tensor Core (NVFP4)、
約 206 件)
マルチダイ統合、分散ページテーブル、Vera Rubin 前駆 (HBM4 / 3nm)
代表特許の系譜と技術解説
I 期 (1997-2010) の代表
1. [US2007291038] 入力および出力パラメータに基づいてプログラマブルグラフィックス/オー
ディオプロセッサを調整するためのシステム（出願 2006）— GPU プログラマビリティの初期特
許。固定機能シェーダーからプログラマブルへの移行を支える、CUDA 黎明期の象徴的特許である。
II 期 (2011-2017) の代表
1. [US2015026438] トークンストレージのための両面キューを使用することによってスレッド
ブロック実行中に発散および同期ポイントを管理するためのシステム（出願 2013）— Kepler 世


# Page. 14

![Page Image](https://bcdn.docswell.com/page/LE1YYZW27G.jpg)

APOLLO
14
代対応の SIMT 並列処理特許。warp divergence（先述）が起きた際に、両側の分岐スレッドの
実行順序を「両端キュー（deque）」で管理することで、効率的な発散・収束を実現する。
2. [US2024378035] メトリクスを用いたコンパイル技術（出願 2023）— CUDA コンパイラの
レジスタ割り当て最適化。プロファイリングメトリクスを使って、コンパイル時に各カーネルのレジ
スタ消費を予測・最適化する。
III 期前期 (2018-2022) の代表
1. [US2023140934] 協調データ転送および計算のためのスレッド特殊化（出願 2022）—
Hopper 前駆技術。同じ warp 内のスレッドを「データ転送専用」と「計算専用」に役割分担させ、
メモリと演算をパイプライン化することで全体スループットを向上させる。
III 期後期 (2023-2025) の代表
1. [US2025362910] 行列乗算累算演算の一般化された加速度（出願 2025）— Tensor Core の
汎用化系特許。従来の固定サイズ matmul に加え、可変サイズや疎行列、混合精度行列の汎用加速
を実現する。Vera Rubin 世代の基盤と推察される。
2. [US2026016953] メモリデバイスに動的に名前空間タイプを割り当てる（出願 2025）— GPU
メモリ階層の動的管理。実行時に HBM/GDDR/Unified Memory のどの階層に置くかを動的に切
り替え、アクセス頻度に応じた最適配置を行う。
3. [US2026105008] 複数のノードコンピューティングシステムのための分散ページテーブル、メ
モリマップ、およびルーティングテーブル（出願 2024）— マルチノード GPU クラスタ管理。GB200
NVL72 ラックや AI ファクトリー規模で、多数の GPU が共有する仮想メモリ空間を分散テーブル
で管理する。
4. [US2025307152] キャッシュコヒーレンスのためのスコープツリー一貫性プロトコル（出願
2024）— 階層的キャッシュコヒーレンス。マルチコア・マルチ GPU でのキャッシュ整合性を、ス
コープごとに階層的に維持することで、グローバル同期のオーバーヘッドを削減する。
5. [US2025341880] 複数のチップを電力平衡させる技術（出願 2025）— マルチチップ電力管
理。複数 GPU 間で電力消費を動的に平衡させ、単チップへの過負荷集中による熱・性能低下を防
ぐ。GB200 NVL72 ラック対応。
💡 Key Insight
SR-1 の系譜は「単チップ GPU の並列化（I 期）→ CUDA 拡張による汎用 GPU 化（II 期）→ AI
計算向け Tensor Core 強化（III 期前）→ マルチ GPU/ラック規模統合（III 期後）」と段階的に
進化している。各期で課題は変わるが、底流にある「GPU を中心に並列計算を最大化する」R&amp;D
方向は一貫している。Vera Rubin 世代に向けた次の段階として、HBM4 統合・3nm プロセス対
応・マルチダイ統合の特許化が継続することが予想される。


# Page. 15

![Page Image](https://bcdn.docswell.com/page/GEWGG962J2.jpg)

APOLLO
15
SR-2 AI/ML 中核 — Foundation Models 時
代の特許化
何を解こうとしているか
AI/ML 中核領域は、深層学習モデルそのものの設計・訓練・推論・最適化を扱う。深層学習モデルは
何十億〜数兆個のパラメータを持ち、訓練には数千枚の GPU と数週間〜数ヶ月の計算が必要である。
本対象特許群がこの領域で解こうとしている課題は、(a) どうすれば訓練を高速化できるか、(b) どう
すれば推論時のメモリと計算を削減できるか、(c) どうすれば訓練データを効率的に集めるか、(d) ど
うすれば 1 つのモデルで複数のタスクを解けるか（Foundation Models）、である。
主要な技術アプローチ
(1) 拡散モデル（Diffusion Models）の最適化
拡散モデルは 2020 年以降の生成 AI（Stable Diffusion、DALL-E 等）の中核技術である。原理は「ラ
ンダムノイズから出発し、ノイズ除去を繰り返して画像を生成する」というもの。問題は推論時間が長
い（数十〜数百ステップ必要）こと。本対象特許群には、サンプリングステップ削減、自己ガイダンス
手法、テール部分の品質向上などの最適化特許が多数含まれる。
(2) Foundation Models の事前訓練
Foundation Models（基盤モデル）は、大規模で多様なデータで事前訓練し、後で個別タスクに微調
整（fine-tuning）して使う汎用モデルである。GPT、CLIP、DINO、SAM などが代表例。本対象特許
群には、自己教師あり学習による基盤モデル事前訓練、合成データによる訓練データ自動生成などの特
許が含まれる。
(3) VLM（Vision-Language Model）と量子化
VLM は画像とテキストを同時に処理できるマルチモーダルモデル。CLIP の流れを継ぎ、最近では
Flamingo、LLaVA、GPT-4V などが登場。NVIDIA の Cosmos Reason や Project GR00T で活用
される。量子化は、モデルの数値精度を FP32 → FP16 → INT8 → FP8 → FP4 と下げてメモリと計
算を削減する技術。Blackwell の NVFP4 で 4bit 推論が実用化された。
(4) 4D 生成と 3D 形状アップサンプリング


# Page. 16

![Page Image](https://bcdn.docswell.com/page/47ZLL9Y4J3.jpg)

APOLLO
16
伝統的な生成 AI は 2D 画像を生成するが、Omniverse や Cosmos の発展に伴い、3D 形状や 4D
（時間 + 3D 空間）モデルの生成が重要になっている。本対象特許群には、低解像度 3D 形状から高解
像度を合成する特許や、通常の 2D ビデオから 4D モデルを生成する特許が含まれる。
技術系譜（時間軸）
期
この期の SR-2 の重心
I 期 (1997-2010, 約 13
ほぼ存在せず。AI/ML が NVIDIA の主要 R&amp;D テーマではなかった時代。当時の
件)
AI 研究は SVM やハンドクラフト特徴量が主流で、GPU はまだ AI 計算の標準で
はなかった
II 期 (2011-2017, 約 20
深層学習研究の初期。AlexNet（2012）の ImageNet 優勝で深層学習ブームが始
件)
まり、GAN（2014）や ResNet（2015）等の基盤技術が学術界で発表された時
期に呼応した最初の特許群が出始める
III 期前期 (2018-2022, 深層学習基盤の本格化。物体検出 NN（YOLO 系）、機械学習モデル訓練、合成データ
約 230 件)
生成、ドメインスタイル化（Sim2Real）、訓練データセット自動合成。Transformer
（2017 学術発表）と BERT（2018）の影響で言語 AI も視野に入る
III 期後期 (2023-2025, Foundation Models 期。ChatGPT（2022/11）以降の生成 AI ブーム、拡散モデル
約 218 件)
最適化、4D 生成、自己教師あり基盤モデル事前訓練、VLM、量子化（FP4 NVFP4）、
ML バイアス検出。Project GR00T / Cosmos / Omniverse の R&amp;D 中核
代表特許の系譜と技術解説
III 期前期 (2018-2022) の代表
1. 機械学習モデルを訓練するために関心オブジェクトのデータセットを手続き的に合成するためのシ
ステム（出願 2016）— 合成データ訓練の初期特許。実世界のラベル付きデータ収集はコストが高
いため、シミュレーション環境で自動生成したデータで訓練する Sim2Real アプローチの基盤。
2. ニューラルネットワークモデルを用いたドメインスタイル化（出願 2019）— スタイル変換 NN。
「合
成画像（CG）を実画像のように見せる」変換で、Sim2Real ギャップを埋める。
3. [US2022379484] 不確実性定量化に基づくデータ選択（出願 2021）— モデルが「自信のない
データ」を識別し、それを優先して訓練に使うアクティブラーニング技術。自動運転で安全クリティ
カルな場面の検出精度向上に直結。
III 期後期 (2023-2025) の代表
1. [US2026080250] 高テール拡散モデル（出願 2025）— 拡散モデルのサンプリング分布の裾
（tail）部分を高品質に生成する技術。低頻度パターン（珍しいシーン、稀な物体）の再現性を向上さ
せる。
2. [US2025363330] 自己のバージョンが劣悪な拡散モデルをガイドする方法（出願 2025）—
Self-Guidance 技術。意図的に劣化させた版モデルとの差分を使い、本モデルの生成品質を効率的
に改善する。Classifier-Free Guidance の発展形。


# Page. 17

![Page Image](https://bcdn.docswell.com/page/YJ6WWKDGJV.jpg)

APOLLO
17
3. [US2026099987] 野生型ビデオからの 4D 生成モデル（出願 2025）— 通常の 2D ビデオ（ス
マホ撮影など）から、時間 + 3D 空間の 4D モデルを生成する技術。Omniverse や Cosmos の
R&amp;D 中核で、物理 AI シミュレーション環境の自動構築に貢献する。
4. [US2026030842] 低解像度表現から高解像度 3D 形状を合成すること（出願 2025）— 3D 形
状のアップサンプリング。低品質な入力（粗い 3D スキャン）から高解像度な 3D アセット（ゲー
ムや AR で使える品質）を生成。
5. [US2026080668] 自律型および半自律型システムのための自己教師あり学習を使用した基礎
モデル事前訓練（出願 2025）— Foundation Models の事前訓練手法。Project GR00T や DRIVE
系の基盤モデル開発の R&amp;D 中核と位置付けられる。
6. [US2026065523] マスク拡散モデルのサンプリング装置（出願 2025）— マスク拡散モデル（一
部を隠して生成する）の推論装置。テキスト生成や構造化データ生成に応用可能。
7. [US2026089325] チャネル分割量子化およびマンブラベースのトークナイザモデルを使用す
るビデオトークン化（出願 2025）— ビデオを離散トークン列として量子化する技術。マルチモー
ダル LLM への入力前処理として重要。
「マンブラ」は Mamba（Selective State Space Models、
Transformer の代替アーキテクチャ）系統と推察される。
8. [US2026057652] 機械学習モデルのバイアス検出及び軽減（出願 2024）— ML モデルの公平
性確保技術。性別・人種・年齢等のバイアスを自動検出して軽減する。エンタープライズ AI の倫理
対応。
💡 Key Insight
SR-2 の系譜は「ゼロから 10 年で 481 件」という極めて急峻な発展軌跡を示す。II 期までほぼ存
在しなかった領域が、III 期前期に DL 基盤を立ち上げ、III 期後期に Foundation Models / 拡散
モデル / VLM / 4D 生成へと展開した。本対象特許群の中で最も時代を反映する領域であり、外
部 AI 研究の進展（AlexNet → Transformer → GPT → 拡散モデル → 基盤モデル → Mamba）
と完全に同期した R&amp;D 反映が観察できる。


# Page. 18

![Page Image](https://bcdn.docswell.com/page/GJ5MMP3XJ4.jpg)

APOLLO
18
SR-3 自動運転・知覚 — DRIVE Hyperion /
Thor SoC の中核技術
何を解こうとしているか
自動運転は、車両が周囲環境を認識し、進路を計画し、安全に走行する技術である。本対象特許群では
(a) 周囲の物体（車両、歩行者、標識）をどう正確に検出するか、(b) 路面・車線・信号をどう認識す
るか、(c) 高精度地図をどう自動生成・更新するか、(d) 安全な軌道をどう計画するか、(e) 乗員の状態
（眠気、よそ見）をどう監視するか、(f) 視覚言語モデルで運転判断をどう自然言語化するか、を扱う。
主要な技術アプローチ
(1) 深層 NN によるセマンティックセグメンテーション
セマンティックセグメンテーションは、画像の各ピクセルを「車道」
「歩行者」
「車両」
「標識」などのカ
テゴリに分類する技術。U-Net、DeepLab などのアーキテクチャが代表的。
(2) マルチセンサ融合
カメラ（テクスチャ・色情報）、LiDAR（距離情報）、レーダー（速度・天候耐性）の各センサを統合し、互
いの弱点を補完する。Bird’s Eye View（BEV）変換で統一的な俯瞰表現に変換するアプローチが主流。
(3) HD Map（高精度地図）の自動生成
cm 級精度のベクトル地図を、走行データから自動生成・更新する技術。NVIDIA は DeepMap（2021
買収）由来の技術を統合している。
(4) VLM/VLA（視覚言語アクション）モデル
伝統的な「検出 → 計画 → 制御」の積み上げ方式から、
「画像 + 自然言語 → 直接制御」へとパラダイ
ムシフトしている。VLM は画像と言語の両方を理解できるモデル。VLA はそれにアクション（操作）
を加えたエンドツーエンドモデル。Tesla の FSD v12、Waymo、そして NVIDIA Cosmos Reason
がこの方向。


# Page. 19

![Page Image](https://bcdn.docswell.com/page/9E2996ZQ7R.jpg)

APOLLO
19
技術系譜（時間軸）
期
この期の SR-3 の重心
I-II 期 (1997-2017, 約
ほぼ存在せず。NVIDIA は自動運転を主要 R&amp;D テーマとしていなかった時代。当
11 件)
時の自動運転は Mobileye やトヨタの ADAS 系が主流で、GPU は未だ自動運転
計算の標準ではなかった
III 期前期 (2018-2022, DRIVE PX 系投入と並走して自動運転 R&amp;D が立ち上がる。物体検出 DNN
約 175 件)
（YOLO/SSD 系）、初期 LiDAR 知覚、ML × 車両誘導、不確実性定量化
III 期後期 (2023-2025, DRIVE Hyperion / Thor SoC へのアップデート。VLM × 自動運転への明確な転
約 91 件)
換。マルチビュー LiDAR、地図監視、VLA、ヒートマップ DMS
代表特許の系譜と技術解説
III 期前期 (2018-2022) の代表
1. 機械学習モデルを使用して車両操縦を通して車両を誘導すること（出願 2019）— ML × 自動運転
の最初期の特許の一つ。トリガ信号を受信して、ML モデルが推奨車両軌道を出力する基本フレーム
ワーク。
2. [US2022379484] 不確実性定量化に基づくデータ選択（出願 2021）— 自動運転 ML の不確
実性扱い。モデルが自信を持てないシーンを特定し、それを訓練データに優先追加する。安全性確保
の初期取り組み。
3. [US2024161221] ストリーミングおよびレイテンシに敏感なアプリケーションのためのセン
サデータの細分化された転送（出願 2022）— 自動運転リアルタイム推論基盤。センサデータを「全
体まとめて転送」ではなく「画像の一部を生成したらすぐ転送」と細分化することで、推論レイテン
シを削減する。
III 期後期 (2023-2025) の代表
1. [US2026004430] 道路シーンのセグメンテーションのための深層ニューラルネットワーク（出
願 2025）— セマンティックセグメンテーション用 DNN。物体・道路・歩行者などのピクセルレ
ベル認識で、自動運転知覚の基盤。
2. [US2026079258] 自律マシンおよびアプリケーションのためのモーションキューを有するマ
ルチビューライダー知覚（出願 2024）— 複数の LiDAR センサを統合し、物体の動きを「モーショ
ンキュー（時系列の動きパターン）」として認識する技術。動く物体の検出精度を向上させる。
3. [US2025271576] モーションキューを用いた 3 次元(3D)物体検出及びラベリング（出願
2025）— 3D 空間での動的物体検出と自動ラベリング。訓練データ作成の自動化に貢献する（人手
アノテーション削減）。
4. [US2025334687] 自律システムのための地図作成および位置特定のためのセンサデータ点群
生成（出願 2025）— 高精度地図（HD Map）の自動生成技術。LiDAR 点群から cm 級精度の地
図を生成する。DRIVE Hyperion の前駆。


# Page. 20

![Page Image](https://bcdn.docswell.com/page/D7Y449RYEM.jpg)

APOLLO
20
5. [US2025384695] 言語による自動運転技術（出願 2025）— 自然言語による運転意思決定。
「目
の前を歩行者が横断中、急ブレーキ」のような状況を VLM が言語化し、それを基に判断する。VLM
× 自動運転の代表例。
6. [WO2025227135] 学習済み視覚言語モデルを使用して自律走行車を制御する方法（出願
2025）— VLM を直接自動運転制御に使う革新的アプローチ。Cosmos Reason 系の R&amp;D 反映。
エンドツーエンドの VLA に近い。
7. [US2026043672] 自律システムおよびアプリケーションのための地図監視（出願 2025）— 走
行中の地図と現実の差分監視。建設中の道路や新設信号を自動検出して地図を更新する。
8. [US2026105761] 乗員監視システムのためのヒートマップに基づく顔特徴キーポイント閉塞検
出（出願 2024）— DMS（ドライバー監視）の高度化。マスク・サングラス等で顔特徴が隠れた状
態でも乗員状態（眠気、注意散漫）を推定する。
💡 Key Insight
SR-3 の系譜は「2018 年に立ち上がり、5 年で 277 件」という急峻な発展を見せる。特に III 期
後期では、伝統的な物体検出 DNN から VLM/VLA（視覚言語アクション）モデルへの明確な転
換が観察される。これは Cosmos Reason / Project GR00T / DRIVE Thor の R&amp;D 反映であ
り、自動運転とロボティクスの技術基盤が融合する局面を示している。


# Page. 21

![Page Image](https://bcdn.docswell.com/page/VENYYLDRJ8.jpg)

APOLLO
21
SR-4 高速通信・I/O — AI ファクトリーの神経系
を作る
何を解こうとしているか
AI 訓練・推論には数千〜数万個の GPU を協調動作させる必要がある。GPU 同士、ノード同士、ラッ
ク同士をどう超低レイテンシで結ぶかが性能を決める。本対象特許群がこの領域で解いている課題は、
(a) GPU 間通信（NVLink/NVSwitch）、(b) ノード間通信（InfiniBand/Ethernet）、(c) PCIe 拡張
（CPU-GPU 間）、(d) 5G NR の無線信号 GPU 加速、(e) ネットワークセキュリティ、(f) リモートメ
モリ直接アクセス（RDMA）、(g) フォトニック光通信への移行、である。
主要な技術アプローチ
(1) NVLink: GPU 間超高速接続
NVLink は GPU 同士を直接接続するインターコネクト技術。Pascal で初導入（2016、20 GB/s/
link）、Hopper で第 4 世代 900 GB/s/GPU、Rubin で第 6 世代 3.6 TB/s/GPU と進化している。
CPU を介さず GPU 同士でデータを直接やり取りできるため、AI 訓練の通信オーバーヘッドを激減さ
せる。
(2) NVSwitch: ノードレベルの接続ファブリック
NVSwitch は NVLink を多数結ぶスイッチで、1 つのノード内に最大 8〜16 個の GPU を均一接続
できる。GB200 NVL72 では NVSwitch を使って 72 個の GPU を 1 ラック内で結合し、1 ラック
を 1 つの巨大 GPU として動作させる。
(3) InfiniBand / Ethernet: ノード間通信（Mellanox 由来）
NVIDIA は 2019 年に Mellanox を買収し、データセンタネットワーク技術を獲得した。InfiniBand
（HPC 用）と Ethernet（汎用）の両方を強化し、AI ファクトリーの通信基盤を支配しつつある。
Networking 売上は FY2026 で 314 億ドル（2 年 CAGR 91.3%）に達した。
(4) フォトニック光通信
Vera Rubin 世代以降、銅配線では帯域が頭打ちになるため、光通信（フォトニック）への移行が進む。
本対象特許群の最新出願にフォトニックアーキテクチャ特許が含まれる。


# Page. 22

![Page Image](https://bcdn.docswell.com/page/Y79PP4GZE3.jpg)

APOLLO
22
(5) RDMA（Remote Direct Memory Access）
ある GPU/ノードのメモリを、CPU を介さず別の GPU/ノードから直接アクセスする技術。InfiniBand
や RoCE（RDMA over Converged Ethernet）で実装される。BlueField DPU が RDMA 処理をオ
フロードする。
技術系譜（時間軸）
期
この期の SR-4 の重心
I 期 (1997-2010, 約 90
PCIe 周辺デバイス通信、初期 Tesla 通信スタック、AGP 後の世代の I/O 設計
件)
II 期 (2011-2017, 約
Kepler/Maxwell 世代の周辺機器制御、初期 NVLink (2014 発表 / 2016 Pascal
135 件)
で実装)、PCIe Gen3/4
III 期前期 (2018-2022, Mellanox 買収（2019）後の InfiniBand/Ethernet 統合、5G NR 信号処理
約 100 件)
(Aerial)、NVLink Gen2-3、NVSwitch 拡張
III 期後期 (2023-2025, BlueField DPU 拡張、フォトニック光通信への移行、セキュア鍵配送、RDMA 効
約 95 件)
率化、ピアツーピアルーティング、NVLink 4 (Hopper) と次世代 5/6 への前駆
代表特許の系譜と技術解説
II-III 期前期の代表
1. [US2025061078] 効率的なチップ間通信（出願 2023）— マルチチップ GPU パッケージ内部
の通信効率化。Blackwell の 2 ダイ統合パッケージの基盤と推察。
2. [US2025190390] 2 つの周辺コンポーネント相互接続エクスプレス(PCIe)デバイス間のスト
リーミングデータの同期（出願 2024）— PCIe 接続デバイス間ストリーミング同期。GPU と DPU、
CPU 間の効率的データ転送。
III 期後期 (2023-2025) の代表
1. [US2025358153] 第 5 世代(5G)の新しい無線チャネル等化（出願 2025）— 5G NR 信号処
理。Aerial プラットフォーム（GPU 上で動く 5G 基地局ソフトウェア）の R&amp;D。基地局を専用
ASIC ではなく汎用 GPU で実装することで、ソフトウェア更新による継続的な機能拡張が可能に
なる。
2. [US2024348283] 無線信号のアダマール変換の並列化（出願 2023）— Aerial の核心アルゴ
リズムの 1 つ、Hadamard 変換を GPU で並列化。
3. [US2025310084] セキュア鍵配送方法（出願 2025）— 暗号鍵配布の安全化。AI ファクトリー
のマルチテナント環境におけるセキュリティ。
4. [US2025385939] ネットワークデバイスセキュリティ能力に基づくピアツーピアネットワーク
ルーティング（出願 2024）— 各デバイスのセキュリティ能力に応じて経路を動的に選ぶ。
BlueField DPU の R&amp;D と推察。


# Page. 23

![Page Image](https://bcdn.docswell.com/page/G78DDQ8Y7D.jpg)

APOLLO
23
5. [US2026072770] ディレクトリ順序付きリリース一貫性のための技術（出願 2025）— マルチ
ノード分散システムの一貫性プロトコル。複雑な分散メモリで、いつ書き込みが他ノードから見える
かを定義する。
6. [WO2026069129] 双方向リンクのためのフォトニックアーキテクチャ（出願 2025）— 光通
信。次世代 AI ファクトリーの光インターコネクトへの移行を示唆する。電気信号は数 m を超える
と損失が大きいが、光信号は数 km まで損失なく伝送できる。
7. [US2025102039] DPU を介したリモートメモリへの直接アクセスを実現するための技術（出
願 2024）— BlueField DPU 経由の RDMA 効率化。
8. [US2025102040] プロキシノードを介したリモートメモリへの直接アクセスを実施する際のセ
キュリティリスクを低減するための技法（出願 2024）— RDMA セキュリティ。
💡 Key Insight
SR-4 の系譜は「PCIe 周辺機器制御（I 期）→ NVLink 初期 + Mellanox 統合（II-III 期前）→ DPU
+ フォトニック（III 期後）」と進化している。特に III 期後期のフォトニック特許は、AI ファクト
リーの次世代インターコネクト（光通信化）への移行を示唆する。Networking 売上 314 億ドル
（FY26、2 年 CAGR 91.3%）の事業基盤がこの系譜の延長線上にある。


# Page. 24

![Page Image](https://bcdn.docswell.com/page/L7LMMXR9JR.jpg)

APOLLO
24
SR-5 ロボティクス・物理 — 把持から VLA まで
何を解こうとしているか
ロボティクス・物理領域は、AI を物理世界の動作（ロボット制御、物理シミュレーション、創薬）に
応用する R&amp;D を含む。本対象特許群がこの領域で解いている課題は、(a) どうすれば未知の物体をロ
ボットが正確に把持できるか、(b) どうすれば接触リッチな物理現象（柔軟物の操作、把持、組立）を
高速にシミュレーションできるか、(c) どうすれば視覚言語モデルでロボットの失敗を検出・推論でき
るか、(d) どうすれば大量の合成データでロボット知覚を訓練できるか、(e) 拡散モデルで創薬向けタ
ンパク質を生成できるか、である。
主要な技術アプローチ
(1) 微分可能タスク・モーション計画（Differentiable Task and Motion
Planning）
伝統的なロボット制御は「タスクプランナー」と「モーションプランナー」が分離していた（タスクプ
ランナーが「掴んで運ぶ」と決め、モーションプランナーが具体的軌道を計算）。微分可能化により、両
者をエンドツーエンドで最適化できる。深層学習との統合が可能になり、データから直接学習できる。
(2) 物理シミュレーション（Isaac Sim、Cosmos）
実機ロボットでデータを集めるのは時間と費用がかかる。シミュレーション環境（Isaac Sim）で大量
のデータを生成し、モデルを訓練後、実機にデプロイする「Sim2Real」アプローチが主流。NVIDIA は
接触リッチな物理（柔軟物把持、流体）のシミュレーションを GPU で加速する技術を多数特許化して
いる。
(3) VLM × ロボット（Project GR00T、Cosmos Reason）
CES 2026 で発表された GR00T N1.6 は、視覚情報と言語指示からロボット動作を出力する VLA
（Vision-Language-Action）基盤モデル。たとえば「赤いコップを取って」と言われると、視覚で赤
いコップを認識し、把持位置を計画し、軌道を生成して実行する。
(4) BioNeMo: 生成 AI × 創薬
タンパク質構造予測（AlphaFold 系）と分子生成を、NVIDIA GPU 上で高速化するプラットフォーム。
本対象特許群には拡散モデル × 創薬の特許が含まれる。


# Page. 25

![Page Image](https://bcdn.docswell.com/page/4EMYYLRVEW.jpg)

APOLLO
25
ロボティクス系譜の核心: 把持技術の 5 年集中蓄積（2019-2023）
本対象特許群を「把持」
「マニピュレーション」
「grasp」関連で抽出すると 15 件が得られる。これら
は全て 2019 年以降に出願されており、Project GR00T（2024 発表）への布石として 5 年間で集
中蓄積された系譜が読み取れる。把持技術は Physical AI の中で最も難しい問題の一つで、(a) 物体の
形状・材質を視覚から把握、(b) 安定して掴める把持位置を計画、(c) 把持力を制御、(d) 把持後の運搬
中に落とさないという 4 段階を統合する必要がある。
年
代表特許
技術内容の解説
2019
[US2020061811] ロボット制御システム
初 期 の ロ ボ ッ ト 制 御 フ レ ームワ ー ク。
Isaac SDK（2018 公開）系の R&amp;D 反映
2019
[US2021125052] 触覚把持ポリシーの強化学習
触覚センサからのフィードバック（指先
の圧力分布）を強化学習で利用し、把持ポ
リシー（どう掴めば成功するか）を獲得。
Tactile RL の初期
2020
[US2021138655] クラッタにおける物体の把持
散らかった環境（クラッタ）で目標物を識
判定方法
別し、把持可能かを判定。実世界応用の
基盤
2020
[US2020361083] 変分オートエンコーダを用い
VAE（変分オートエンコーダ、生成モデル
たグリップ生成
の一種）で多様な把持位置候補を生成。生
成モデルとロボティクスの結節点
2020
[US2022032454] オブジェクト引継ぎの機械学
人間-ロボット間のオブジェクト引継ぎ
習制御
（hand-off）制御。協働ロボットの基盤技
術
2021
[US2022288783] クラッタ環境における把持
クラッタ把持を「ML によるポーズ推定
ポーズの機械学習
問題」として定式化。把持位置と角度を
ML モデルが直接出力
2021
[US2022297297] 3D 変形可能物体上のロボッ
変形可能物体（柔軟物、布、食材）の把持
ト把持の品質を評価するための方法
品質評価。剛体把持より格段に難しい領
域への展開
2021
[US2022134537] 機械学習を用いた関節空間座
関節空間（モーター角度）と作業空間（手
標の変換
先位置）の変換 ML。逆運動学を学習で
解く
2022
[US2023294276] 自動化システムのための物理
接 触 リ ッ チ な 物 理 シ ミ ュ レ ー シ ョ ン。
的相互作用のシミュレーション
Isaac Sim 系の R&amp;D。把持・摩擦・押し
引きをリアルタイムでシミュレート
2023
[US2024042601] ロボット制御システム
II 期蓄積を統合する次世代ロボット制御
フレームワーク
2023
[US2023405820] 把持結果の予測
把持成功確率を事前予測。データ効率改
善（失敗するなら試さない）
2023
2023
[US2024009851] クラッタにおける物体の把持
前出特許（2020）の改良版。クラッタ把
判定方法
持の精度向上
[US2024177392] 3D シーン表現を使用したオ
3D シーン表現と衝突回避の統合。倉庫ロ
ブジェクト再配置のための衝突検出
ボット応用


# Page. 26

![Page Image](https://bcdn.docswell.com/page/PER99KRWJ9.jpg)

APOLLO
26
年
代表特許
技術内容の解説
2023
[US2025091207] マルチタスク把持
単 一 モ デル で 複 数 の 把 持 戦 略 を 学 習 。
Foundation Models 化への布石
2023
[US2024123620] グレープポーズ予測
新世代の把持ポーズ予測手法
💡 Key Insight
把持・操作技術 15 件は 2019-2023 の 5 年間に集中している。最初は単純な制御 (2019) から
始まり、強化学習 (2019) → クラッタ環境対応 (2020-2021) → 変形可能物体 (2021) → 物理
シミュレーション統合 (2022) → 把持結果予測・マルチタスク把持 (2023) と段階的に高度化し
ている。これは Project GR00T (2024 発表) の VLA 基盤モデルが「いきなり登場した」もので
はなく、2019 年から 5 年間の地道な特許蓄積の上に構築されていることを示す系譜である。
技術系譜（時間軸 — SR-5 全体）
期
この期の SR-5 の重心
I-II 期 (1997-2017, 約
ほぼ存在せず。ロボティクスは NVIDIA の R&amp;D 対象ではなかった時代
14 件)
III 期前期 (2018-2022, Isaac SDK 公開（2018）と並走して立ち上がる。把持・操作技術の最初の蓄積
約 60 件)
（2019-2022）、初期物理シミュレーション、Sim2Real
III 期後期 (2023-2025, Project GR00T 期（2024 発表）。VLM × ロボット失敗検出、合成データ大規模
約 59 件)
生成、微分可能タスク・モーション計画、BioNeMo タンパク質生成
その他の SR-5 代表特許
1. [US2024127519] スケーラブルな接触リッチシミュレーション（出願 2022）— 物理シミュ
レーションの大規模化。Isaac Sim の R&amp;D。多数の接触点（指と物体、物体と物体）を同時にシ
ミュレート。
2. [CN117632404] シミュレーションタスクをスケジューリングする（出願 2023）— シミュレー
ション計算スケジューリング。GPU リソースの効率配分。
3. [US2026091494] 微分可能なタスク・アンド・モーション計画に基づくロボット制御のための
技術（出願 2025）— ロボット制御の中核。タスク計画とモーション計画を微分可能な形で統合し、
エンドツーエンドで最適化する。
4. [US2026091502] ロボット操作の失敗を検出し推論するための視覚言語モデル（出願 2025）
— VLM をロボット失敗診断に応用。
「なぜ把持に失敗したか」を VLM が言語化する。Isaac GR00T
N1.6 の VLA モデル整合。
5. [WO2025217404] ロボット知覚アプリケーションのための大規模合成データ生成（出願
2025）— Isaac Sim での合成データ生成。実世界データ収集の困難を回避。
6. [US2026066038] 組成タンパク質生成技術（出願 2025）— BioNeMo 系。生成 AI で新規タ
ンパク質配列を設計。


# Page. 27

![Page Image](https://bcdn.docswell.com/page/P7XQQLRVEX.jpg)

APOLLO
27
7. [US2026004873] マルチスケール生成拡散モデルを用いた動的骨格タンパク質-リガンド構造
予測（出願 2025）— 拡散モデル × 創薬。薬剤候補化合物の動的構造予測。
💡 Key Insight
SR-5 の系譜は「Isaac SDK 公開（2018）→ 把持・物理シミュレーションの 5 年間集中蓄積
（2019-2023）→ Project GR00T / Cosmos / VLA への統合（2024-2025）」という明確な
発展軌跡を持つ。本領域は本対象特許群で最も「萌芽から本格化への移行」が鮮明な系譜であり、
今後 1-2 年で大型化する可能性が最も高い。


# Page. 28

![Page Image](https://bcdn.docswell.com/page/37K99LR57D.jpg)

APOLLO
28
SR-6 レンダリング — RT Core と DLSS によ
る AI 統合グラフィックス
何を解こうとしているか
レンダリングは 3D シーンを 2D 画像に変換する技術。本対象特許群がこの領域で解いている課題は、
(a) リアルタイム（毎秒 60 フレーム以上）でリアルな照明・反射・影を計算する、(b) ノイズの多い低
品質レンダリング結果を AI で高品質化する、(c) 動画ストリームを効率的に圧縮する、(d) ガウシアン
スプラッティングのような新しい 3D 表現をハードウェア化する、(e) ディスプレイの応答時間と可変
リフレッシュレートを最適化する、である。
主要な技術アプローチ
(1) RT Core: BVH を使ったレイトレ加速
レイトレーシング（光線追跡）は、各ピクセルから光線を逆方向に追跡し、シーン内の物体に当たった
点での照明を計算する技術。問題は、光線がシーン内のすべてのポリゴン（数百万個）と衝突するかを
チェックするのが極めて重い。BVH（Bounding Volume Hierarchy）は、シーンを階層的バウンディ
ングボックス（包含箱）で囲み、光線が外側のボックスに当たらなければ内側のチェックをスキップす
ることで、計算量を大幅に削減する。14RT Core は BVH 走査と ray/triangle 交差計算をハードウェ
ア化することで、ソフトウェア実装の数十倍速くこれを処理する。
(2) DLSS: AI による超解像とフレーム生成
DLSS（Deep Learning Super Sampling）は、低解像度（例: 1080p）で描画した画像を AI で高解
像度（例: 4K）にアップスケールする技術。DLSS 1（2018）は単純な CNN ベース、DLSS 2 は時系
列情報統合、DLSS 3（2022）は Frame Generation（補間フレーム生成）追加、DLSS 3.5 は Ray
Reconstruction（レイトレ結果のノイズ除去 AI）、DLSS 4（2025）は Multi-Frame Generation
（1 リアル → 3 AI フレーム生成）と Transformer ベースモデルへ進化。15
(3) ガウシアンスプラッティング
14NVIDIA Developer「Ray Tracing」https://developer.nvidia.com/discover/ray-tracing 取得日 2026-04-29
15NVIDIA「 FBC Firebreak Launches With Full Ray Tracing &amp; DLSS 4 Today」 https://www.nvidia.
com/en-us/geforce/news/fbc-firebreak-doom-the-dark-ages-path-tracing-dlss-4-multi-frame-gen/ 取得日
2026-04-29 / NVIDIA「 RTX Technology」 https://www.nvidia.com/en-us/technologies/rtx/ 取 得 日
2026-04-29


# Page. 29

![Page Image](https://bcdn.docswell.com/page/LJ3WW381J5.jpg)

APOLLO
29
NeRF（Neural Radiance Fields、2020）の進化形で、3D シーンを「3D 空間に配置された多数のガ
ウス関数」として表現する。NeRF より圧倒的に速く、リアルタイム描画が可能。NVIDIA は専用ハー
ドウェア加速器を特許化している。
(4) 動画圧縮の AI 化
動画コーデック（H.264、H.265、AV1）は、フレーム間の差分を効率的に符号化することで圧縮する。
本対象特許群には強化学習でビデオレート制御を最適化する特許が含まれる。
技術系譜（時間軸）
期
I 期
この期の SR-6 の重心と対応 GPU 世代
(1997-2010, 約
固定機能パイプライン → プログラマブルシェーダー、初期動画コーデック、3D ラ
104 件)
スタライズ基本特許、GeForce 系の進化
II 期 (2011-2017, 約
Kepler/Maxwell/Pascal 世代のレンダリング機能拡張、Maxwell VR 対応、初期
162 件)
GameWorks（NVIDIA のグラフィックス SDK）、PhysX 物理エンジン
III 期前期 (2018-2022, Turing RTX 世代（2018）でレイトレコア・Tensor Core 統合、初期 DLSS、リ
約 130 件)
アルタイムレイトレーシング BVH 加速、Ampere/Ada Lovelace
III 期後期 (2023-2025, Ada Lovelace / Blackwell 世代、ガウシアンスプラッティング HW 加速、AI ノ
約 91 件)
イズ除去、RL × ビデオ圧縮、DLSS 4、Omniverse 連携
代表特許の系譜と技術解説
I 期 (1997-2010) の代表
1. [US2007291038] 入力および出力パラメータに基づいてプログラマブルグラフィックス/オー
ディオプロセッサを調整するためのシステム（出願 2006）— SR-1 と重なる初期 GPU 特許。レ
ンダリング系の起点。
II-III 期前期の代表
1. [US2015116294] 表示データの電力効率の良い制御（出願 2013）— Maxwell 世代の電力効
率技術。表示データの一部だけを更新することで電力削減。
III 期後期 (2023-2025) の代表
1. [US2026030832] リアルタイム光線追跡のための加速三角視認性試験（出願 2025）— RTX レ
イトレコア最適化。光線が三角形ポリゴンに当たるかの判定を高速化。
2. [US2025104332] ツリートラバーサルのクエリ固有の挙動修正（出願 2024）— BVH ツリー
走査の動的最適化。光線の特性（範囲、向き）に応じて走査順序を変える。


# Page. 30

![Page Image](https://bcdn.docswell.com/page/8JDKK4MKEG.jpg)

APOLLO
30
3. [US2026030840] ガウシアンレンダリング及び再構成のためのハードウェアアクセラレータ
（出願 2025）— ガウシアンスプラッティング（NeRF の発展形）の HW 加速。3D 生成 AI とリ
アルタイムレンダリングの融合。
4. [US2026101046] ビデオレート制御のための強化学習を使用するコンテンツベースのビデオ
圧縮（出願 2025）— RL × ビデオ圧縮。コンテンツ（シーンの複雑さ）に応じてビットレートを
動的調整。クラウドゲーミング・配信での帯域効率化。
5. [US2025292485] 材料非依存性ノイズ除去（出願 2024）— レイトレでのノイズ除去技術。物
体材料（金属、プラスチック、布）に依存しない汎用 denoising。Ray Reconstruction の発展形。
6. [US2025209999] リフレッシュレートが可変な低モーションブラーディスプレイ（出願
2024）— G-SYNC 系の R&amp;D。可変リフレッシュレート（VRR）と低モーションブラーの両立。
💡 Key Insight
SR-6 の系譜は「プログラマブルシェーダー（I 期）→ DirectX 拡張 + GameWorks（II 期）→
Turing RTX レイトレコア + 初期 DLSS（III 期前）→ Blackwell + AI レンダリング統合（III 期
後）」と進化している。特に III 期後期では、伝統的なラスタライズ技術と AI（DLSS、ガウシアン
スプラッティング、RL × 圧縮）が融合する局面に入っている。


# Page. 31

![Page Image](https://bcdn.docswell.com/page/VEPKKMR378.jpg)

APOLLO
31
SR-7 半導体・冷却・電源 — Blackwell GB200
NVL72 を支える物理層
何を解こうとしているか
GPU は 1 個で 1 kW 近くの電力を消費し、その熱を効率的に除去する必要がある。さらに、高帯域
メモリ（HBM）を GPU に統合する高度なパッケージング、複数チップを 1 つのパッケージに統合す
るマルチダイ統合、データセンタ規模のラック型液冷システム、エネルギー貯蔵による電力ピーク制御
等、物理工学的課題が山積する。本対象特許群がこの領域で解いている課題は、これらすべてに対する
継続的な R&amp;D である。
主要な技術アプローチ
(1) HBM（High Bandwidth Memory）統合
HBM は DRAM チップを 8 段〜12 段に積み重ねて 1 パッケージに統合した広帯域メモリ。GPU
と 2.5D パッケージング（CoWoS、Chip-on-Wafer-on-Substrate）で接続される。HBM3（2022、
Hopper）→ HBM3e（2024、Blackwell、8 TB/s/GPU）→ HBM4（2026、Rubin、13 TB/s/
GPU）と世代を重ねる。16
(2) ラック型液冷（GB200 NVL72）
伝統的な空冷では 1 ラック数百 kW が限界。Blackwell GB200 NVL72 は液冷ラックで 120 kW 超
を扱う。冷却液（水ベース）が直接 GPU・CPU の熱を除去する。本対象特許群には液冷コネクタ、冷
却分配ユニット、ハイブリッド材料蓋などの特許が含まれる。
(3) マルチダイ統合
Blackwell B200 は 2 つの GPU ダイを 1 パッケージに統合する初の NVIDIA データセンタ GPU。ダ
イ間は超広帯域インターコネクト（NV-HBI）で接続。これにより単一ダイの限界を超える性能が実現
する。
(4) 電源管理とエネルギー貯蔵
16KAIST TERALAB「HBM Roadmap Ver 1.7 Workshop」 https://aionet.tech/KAIST_HBM_Roadmap.pdf
取得日 2026-04-29 / Wikipedia「High Bandwidth Memory」https://en.wikipedia.org/wiki/High_Bandwidth_
Memory 取得日 2026-04-29


# Page. 32

![Page Image](https://bcdn.docswell.com/page/27VVV9RN7Q.jpg)

APOLLO
32
データセンタ規模では電力ピーク制御が重要。突発的な負荷変動を平滑化するためのエネルギー貯蔵
装置、再生可能エネルギーとの統合などが特許化されている。
技術系譜（時間軸）
期
この期の SR-7 の重心
I 期 (1997-2010, 約 55
初期 GPU パッケージ、Tesla 1U サーバ、初期空冷システム、PCB 基本設計
件)
II 期 (2011-2017, 約
Kepler/Maxwell 世代のヒートシンク、PCB 設計、初期 SXM フォームファクター
135 件)
（GPU をマザーボードに直接装着）
III 期前期 (2018-2022, Volta/Ampere/Hopper 対応の電源・冷却、初期液冷検討、HBM2/HBM3 統合
約 145 件)
パッケージ、ヒートパイプ強化
III 期後期 (2023-2025, Blackwell GB200 NVL72 ラック型液冷システム本格化、ハイブリッド材料蓋、エ
約 81 件)
ネルギー貯蔵装置、銅-グラフェン PCB、HBM3e/HBM4 対応
代表特許の系譜と技術解説
III 期後期の代表
1. [US2025374478] 自在プラガブルデータセンタ冷却システム（出願 2025）— モジュール式の
冷却システム。GB200 NVL72 ラックの冷却拡張性を支える。
2. [US2025354769] 交換可能な構成要素を有するデータセンタ冷却分配ユニット（出願 2024）
— 冷却分配ユニット（CDU、Cooling Distribution Unit）のモジュール化。データセンタ運用の
柔軟性向上。
3. [WO2025176009] 液冷コネクタ装置（出願 2025）— 液冷システム接続部の技術。GB200
NVL72 のラック内液冷ループのコネクタ。
4. [WO2025207334] コンピュータシステムの性能、音響、および温度制御（出願 2025）— 性
能・音響・温度の同時最適化。
5. [US2025343099] 半導体パッケージ用ハイブリッド材料蓋、ヒートシンク、またはコールドプ
レート（出願 2025）— Blackwell パッケージ熱管理。HBM の高熱密度に対応するため、複数材
料を組み合わせる。
6. [WO2026076145] 電気エネルギー貯蔵用データセンター装置（出願 2025）— データセンタ
向けエネルギー貯蔵。再生可能エネルギー対応・電力ピーク制御。
7. [US2025385171] クロストークを抑制するための接地パッド延長部を有する再分配層（出願
2024）— 高速信号配線でのクロストーク抑制。HBM4 高速 I/O への対応の前駆。
8. [US2024397636] 多層 PCB 製造プロセスにおける銅-グラフェン積層体(CGL)の集積方法（出
願 2023）— 次世代 PCB 材料。グラフェンによる熱伝導性向上。
💡 Key Insight


# Page. 33

![Page Image](https://bcdn.docswell.com/page/5JGLLZM57L.jpg)

APOLLO
33
SR-7 の系譜は「空冷ベース（I-II 期）→ 高密度ラック対応（III 期前期）→ 液冷ラック量産化（III
期後期）」と進化し、AI ファクトリー時代の物理基盤を形成している。Vera Rubin 世代に向けた
追加出願（HBM4 / 3nm パッケージ）が継続することが見込まれる。


# Page. 34

![Page Image](https://bcdn.docswell.com/page/47QYYLRLEP.jpg)

APOLLO
34
SR-8 言語・音声・UX — NIM とエンタープライ
ズ AI ユーザー接点
何を解こうとしているか
言語・音声・UX 領域は、GPU 計算と AI モデルを最終ユーザーがどう触れるかの接点を扱う。本対象特
許群がこの領域で解いている課題は、(a) リアルタイム翻訳、(b) LLM による半導体設計自動化（EDA、
Electronic Design Automation）、(c) 自然言語によるゲームログ解析、(d) サーバレス API による
リソース管理（NIM）、(e) 適応的ユーザー UI、(f) 音声合成、である。
主要な技術アプローチ
(1) NIM（NVIDIA Inference Microservice）
NIM は、NVIDIA が提供する事前パッケージ化された AI 推論サービス。コンテナとしてデプロイで
き、API 経由で簡単に LLM や VLM を呼び出せる。エンタープライズが自社環境に AI を組み込むの
を容易にする。
(2) LLM × EDA
半導体設計（チップのレイアウト、ゲートサイジング、配線）に LLM を応用する分野。Siemens（2026
提携拡張）と組んで EDA 高速化を進めている。
(3) ストリーミング機械翻訳
文章全体ではなく、単語が発話されるたびに翻訳を更新する。会議のリアルタイム翻訳に応用。
技術系譜（時間軸）
期
この期の SR-8 の重心
I 期 (1997-2010, 約 20
初期 GeForce 系のゲーム UX、固定ディスプレイ制御
件)
II 期 (2011-2017, 約 80
モバイル UI（Tegra / Shield）、初期音声処理、初期クラウドゲーミング
件)
III 期前期 (2018-2022, GeForce NOW 拡張、初期音声生成 NN、ゲーム解析自動化、初期 LLM 系の探索
約 100 件)


# Page. 35

![Page Image](https://bcdn.docswell.com/page/KE4WWD85J1.jpg)

APOLLO
期
35
この期の SR-8 の重心
III 期後期 (2023-2025, NIM 系推論サービス、LLM × EDA（Siemens 提携）、ストリーミング機械翻訳、
約 123 件)
音声合成 NN、デジタルウェルビーイング
代表特許の系譜と技術解説
III 期後期 (2023-2025) の代表
1. [US2026105265] 言語モデル予測で強化されたストリーミング機械翻訳（出願 2025）— LLM
ベースのストリーミング翻訳。低レイテンシ翻訳サービスの基盤。
2. [US2025315590] スタンダードセルレイアウト設計最適化のための大言語モデル（出願 2025）
— LLM × EDA。Siemens 提携で展開される産業 AI / EDA 領域の R&amp;D。
3. [US2025111112] スタンダードセル設計自動化のためのトランスフォーマモデルベースのクラ
スタリング技術（出願 2024）— Transformer × チップ設計。EDA の AI 化。
4. [US2026024335] 自然言語処理を用いたゲームログからのイベント情報抽出（出願 2025）—
ゲーム解析の AI 化。
5. [US2025370818] サーバレスアプリケーションプログラミングインターフェースを使用した
データセンタ資源オーケストレーション（出願 2024）— サーバレスデータセンタ。NIM の R&amp;D
反映。
6. [US2025252966] 音声を生成するニューラルネットワーク（出願 2024）— 音声合成 NN。NIM
の音声サービスの R&amp;D。
💡 Key Insight
SR-8 の系譜は「GeForce ゲーム UX（I-II 期）→ クラウドゲーミング・初期 AI（III 期前）→ NIM
+ LLM × EDA（III 期後）」と進化し、エンタープライズ AI のユーザー接点へと展開している。LLM
× EDA は Siemens 拡張提携（2026 発表）と直結する R&amp;D であり、本対象特許群の B2B 展
開の前駆と位置付けられる。


# Page. 36

![Page Image](https://bcdn.docswell.com/page/L71YYZ22JG.jpg)

APOLLO
36
SR-9 SoC・コンパイラ・基盤 — Jetson と組込
み AI の蓄積
何を解こうとしているか
SoC（System on Chip）は、CPU・GPU・各種 I/O を 1 チップに統合した組込み向け半導体。NVIDIA
は Tegra（2008）以来、Jetson シリーズで組込み AI 市場を構築してきた。本対象特許群がこの領域
で解いている課題は、(a) Jetson 系組込み AI の処理性能・電力効率、(b) 自律システム向け障害検出
（機能安全）、(c) システム稼働中診断（IST）、(d) コンパイラ最適化、(e) データ転送認証、である。
主要な技術アプローチ
(1) Jetson Thor / T4000
CES 2026 で発表された Jetson Thor は 2,070 FP4 TFLOPS、128 GB メモリ、40-130 W の組
込み AI コンピュータ。Project GR00T を組込みデバイスで動かすための物理基盤。Blackwell ベー
スの Jetson T4000 は AGX Orin 比で 4 倍のエネルギー効率。
(2) 機能安全（ISO 26262）対応
自動車業界の機能安全規格 ISO 26262 への対応。冗長化、障害検出、フォールトトレラントな設計が
必要。
(3) LLM × VLSI 設計
EDA との接点。VLSI ゲートサイジング（各論理ゲートのサイズを最適化してタイミング・電力を改善）
に LLM を応用。
技術系譜（時間軸）
期
この期の SR-9 の重心
I-II 期 (1997-2017, 約
初期 Tegra SoC（2008）、CUDA コンパイラ、Tegra K1/X1 系の組込み GPU
81 件)
III 期前期 (2018-2022, Jetson Xavier / Nano 系、初期自動運転 SoC、初期障害検出
約 60 件)


# Page. 37

![Page Image](https://bcdn.docswell.com/page/G7WGG9R2E2.jpg)

APOLLO
期
37
この期の SR-9 の重心
III 期後期 (2023-2025, Jetson Thor（2026 投入）/ Jetson T4000、LLM × VLSI ゲートサイジング、
約 45 件)
機能安全（ISO 26262）対応の前駆
代表特許の系譜と技術解説
III 期後期 (2023-2025) の代表
1. [US2026087224] 大言語モデルを使用した同時タイミングおよび電力最適化のためのサイン
オフ正確 VLSI ゲートサイジング（出願 2025）— LLM × VLSI 設計最適化。EDA × Jetson の
R&amp;D 接点。
2. [US2025353510] 自律的および半自律的システムおよびアプリケーションのための障害検出
（出願 2025）— 自動運転・組込み AI の安全性。機能安全（ISO 26262）対応の前駆。
3. [US2026067196] 自律システムおよびアプリケーションのためのシステム内テストアーキテク
チャ（出願 2024）— システム内テスト（IST、In-System Test）。組込み AI システムの稼働中診断。
4. [US2026099481] キューエントリ状態の効率的な管理（出願 2025）— ジョブキュー管理。
Slurm / SchedMD 系の R&amp;D との関連可能性。
5. [US2026050453] ホスト実行可能ファイル内の複数の組み込みデバイスリンクのための方法お
よびシステム（出願 2025）— マルチ組込みデバイスのバイナリリンク。Jetson 系の開発体験向上。
6. [US2025342240] データ転送のためのスタガ認証（出願 2025）— 転送中データ認証の効率
化。組込みセキュリティ。
💡 Key Insight
SR-9 の系譜は「Tegra SoC（I-II 期）→ Jetson Xavier 系（III 期前）→ Jetson Thor / LLM ×
EDA × 機能安全（III 期後）」と進化している。組込み AI と機能安全の融合が、Project GR00T
や DRIVE Thor の物理層対応として重要性を増している。


# Page. 38

![Page Image](https://bcdn.docswell.com/page/4JZLL9R4E3.jpg)

APOLLO
38
萌芽領域 — ノイズ 2,026 件から抽出した 10 種
の次世代 R&amp;D
ノイズの意味と急増軌跡
本対象特許群の 67 既存クラスタのいずれにも明確に属さない「ノイズ」が 2,026 件（34.2%）検出
された。これらは「萌芽・黎明期」の試行的 R&amp;D 群であり、年別分布は 2018 年 49 件 → 2024 年
271 件と約 5.5 倍に急増している。
ノイズ件数
2018→2024
2024 年ピーク
抽出萌芽領域
2,026
5.5 倍
271 件
10 種
34.2%
急増
ノイズから抽出した 10 種の萌芽領域
ノイズ 2,026 件を技術キーワードで再分類すると、以下 10 種類の次世代 R&amp;D 領域が浮かび上がる。
これらは現時点では既存 67 クラスタを形成するほどの規模に達していないが、今後 1-2 年で独立ク
ラスタへと成長する可能性が高い。
萌芽領域
件数
代表特許 + 解説
F-1: 生成 AI / 画像生成
170
[US2026105287] エネルギーベースの拡散言語モデル
(2025)、[US2026073590] ポリシーモデルを訓練する
ための意味的に整列された生成的増強 (2025) — 生成 AI
系の継続拡張
F-2: セキュリティ・暗号
20
[US2025148134] 認証された制御シーケンス (2025)、
[US2026050259] 自律システムにおける遠隔支援動作
モードのセキュリティ (2024) — AI ファクトリーのセ
キュア化
F-3: LLM・言語 AI（Mamba 系
含む）
17
[US2026057636] 表現セグメンテーションを参照す
る た め の 拡 張 マル チ モ ー ダル 大 言 語 モ デル (2025)、
[US2025371326] 選択状態空間モデル + Transformer
ハイブリッドビジョンバックボーン (2025) — Mamba
系統合


# Page. 39

![Page Image](https://bcdn.docswell.com/page/YE6WWKRGEV.jpg)

APOLLO
39
萌芽領域
件数
代表特許 + 解説
F-4: VLM・視覚言語マルチモー
15
[US2025384268] ビジョンエンコーダーの混合を用い
ダル
てマルチモーダル大言語モデルを実装するための技術
(2025) — Mixture-of-Experts (MoE) 系
F-5: エッジ AI・組込み
13
[US2026036899] 微分可能なエッジベースの光学近接
効果補正 (2025)、[US2025018970] 自律システムのた
めの階層的エッジ計算 (2023) — エッジ・クラウド連携
F-6: ロボット把持・操作
11
[US2025362686] 自律ロボット機械のための衝突球体
を計算する方法 (2024)、[US2025091207] マルチタス
ク把持 (2023) — SR-5 系の補完
F-7: EDA・チップ設計
8
[US2025111112] トランスフォーマモデルによるスタ
ンダードセル設計自動化 (2024) — Siemens 提携の
R&amp;D 反映
F-8: 気候・エネルギー貯蔵
5
データセンタ電気エネルギー貯蔵装置等の延長線。サステ
ナブル DC 対応
F-9: 光通信・フォトニック
3
[WO2025231193] 偏 光 多 重 化 双 方 向 光 リ ン ク
(2025)、[US2025150193] リング共振器を含む高密度
波長分割多重光リンク (2023) — 次世代インターコネク
ト前駆
F-10: デ ジ タ ル ツ イ ン ・
3
Omniverse 拡張
[US2026030876] デジタルツイン環境のランダム化お
よび増強 (2025)、[US2026017871] シミュレーション
環境のための経路ベース地形テクスチャ生成 (2024)
萌芽領域の戦略的解釈
ノイズから抽出した 10 種の萌芽領域は、3 つのテーマに集約できる。
テーマ
該当萌芽領域
予測される今後の動き
生成 AI 系の精緻化
F-1 生成 AI / F-3 LLM / F-4 VLM
既存の SR-2 AI/ML 中核に統合される
か、独立した「生成 AI スタック」とし
て独立クラスタ化する可能性。Mamba 系
の Selective State Space Models が
Transformer の代替として台頭する可能
性も
Physical AI 系の拡
F-5 エッジ AI / F-6 ロボット把持・操作 /
SR-3 自動運転 / SR-5 ロボティクスの拡
大
F-10 デジタルツイン
大に呼応し、Project GR00T / Cosmos
の R&amp;D に統合される
B2B エンタープラ
F-7 EDA / F-2 セキュリティ / F-9 光通
Siemens 提携・産業 AI・サステナブルデー
イズ系の台頭
信 / F-8 気候・エネルギー
タセンタの R&amp;D 反映として独立クラスタ
化が進む
💡 Key Insight


# Page. 40

![Page Image](https://bcdn.docswell.com/page/GE5MMP8XE4.jpg)

APOLLO
40
ノイズ 34.2% は単なる「分類されなかった残り」ではなく、本対象特許群の次世代 R&amp;D の予兆
である。F-1 生成 AI 170 件、F-2 セキュリティ 20 件、F-3 LLM 17 件、F-4 VLM 15 件 — これ
らの萌芽領域は今後 1-2 年で独立クラスタへ成長し、次の Saturn V TELESCOPE 分析では明
確な領域として検出される可能性が高い。本対象特許群を継続モニタリングする際は、これら 10
萌芽領域の動向追跡が早期警戒シグナルとなる。
図 3: クラスタ動態 4 象限 — 新興象限 18 クラスタ（395 件）が萌芽領域の中核、これに加えてノイズ 2,026 件が試行的
R&amp;D の継続を示す


# Page. 41

![Page Image](https://bcdn.docswell.com/page/972996KQJR.jpg)

APOLLO
41
総括 — 本対象特許群が示す NVIDIA の技術アイ
デンティティ
28 年で何が変わったか — 急上昇キーワードの 3 軸シフト
1997-2011 期と 2012-2025 期の比較で、急上昇キーワード上位 15 件を整理すると、本対象特許
群が向かっている 3 つの方向性が明確に浮かび上がる。
シフト軸
代表キーワードと意味
軸 1: AI モデル基盤への
ニューラルネットワーク (+1,974)、機械学習モデル (+979)、訓練 (+675)、学習
重心シフト
(+240)、MLM (+190)、DNN (+177) — 6 キーワードが急成長。本対象特許群
の重心が「グラフィックス処理装置」から「AI モデル基盤」へと移った
軸 2: Physical AI への戦
センサデータ (+545)、車両 (+503)、ロボット (+210)、自律システム (+202)、
略横展開
軌道 (+196) — 5 キーワード。データセンタの仮想計算から物理世界（自動運転・
ロボット・産業機械）へ R&amp;D を横展開
軸 3: 推論プラットフォー
言語モデル (+230)、データセンタ (+190)、DNN (+177)、推論 (+158) — 4 キー
ム化
ワード。単発の AI モデル開発から、データセンタ規模の推論サービス基盤への展開
系譜が語る技術企業 NVIDIA の本質
本書では NVIDIA 出願 5,921 件を 28 年の時間軸で追跡した。系譜から読み取れる本対象特許群の本
質は以下の 3 点である。
本質 1: 持続コア型 5 領域による厚い基盤
SR-1 GPU 演算基盤・SR-4 高速通信・SR-6 レンダリング・SR-7 半導体物理・SR-9 SoC の
5 つは、I 期から III 期まで全期間にわたって出願が継続している持続コア領域である。各期で技
術課題は変わるが（プログラマブルシェーダー → CUDA → HBM → ラック型液冷）、底流にあ
る「コンピューティング基盤を最大化する」R&amp;D 方向は一貫している。これが NVIDIA の技術
企業としての持続性の構造的基盤である。
本質 2: 近年急成長型 2 領域による重心移動
SR-2 AI/ML 中核と SR-8 言語・音声・UX は、II 期までほぼ存在しなかったが III 期から爆発
的に拡大した。SR-2 はゼロから 481 件への 10 年急増で、AlexNet → Transformer → 拡散
モデル → Foundation Models と外部 AI 研究の進展を完全に同期して取り込んでいる。これが


# Page. 42

![Page Image](https://bcdn.docswell.com/page/DJY449NY7M.jpg)

APOLLO
42
「グラフィックスメーカ」から「AI コンピューティング企業」へのアイデンティティ転換の特許化
である。
本質 3: 2018 年新興型 2 領域 + 萌芽 10 種による未来先取り
SR-3 自動運転と SR-5 ロボティクスは 2018 年に立ち上がった新領域である。特に SR-5 で
は把持技術が 2019-2023 の 5 年間に集中蓄積され、Project GR00T (2024) の VLA 基盤
モデルへと結実している。さらにノイズ 2,026 件から抽出した 10 萌芽領域（生成 AI 精緻化・
Physical AI 拡大・B2B エンタープライズ）が、今後 1-2 年で次の独立クラスタを形成する候補
として観察される。
経営的含意
本書で明らかになった技術系譜の 3 本質は、本対象特許群が「単一企業の単一技術」ではなく「持続
コア + 近年急成長 + 2018 年新興 + 萌芽」という 4 層の時間構造を持つことを示している。経営判
断の観点では、(a) 持続コアの継続的厚化、(b) 近年急成長領域の深堀り、(c) 2018 年新興領域の主流
化加速、(d) 萌芽 10 領域の早期キャッチアップ、の 4 層で R&amp;D 投資の優先順位を設計することが望
ましい。詳細な戦略的提言・推奨アクションは本編の戦略的提言章および経営層向け要約版を参照され
たい。


# Page. 43

![Page Image](https://bcdn.docswell.com/page/V7NYYLXRE8.jpg)

APOLLO
43
付録: 参考にした Web 出典一覧
本書の NVIDIA 技術変遷史および各技術解説で参照した Web 出典を以下にまとめる。すべて 2026 年
4 月時点で取得可能な情報源である。本対象特許群の解釈は本対象の特許データ（Patentfield 抽出）
が一次情報源であり、本付録の Web 出典は技術原理の理解と外部市場文脈の補完のために参照した。
A. NVIDIA GPU アーキテクチャ世代の変遷
• Serversimply「Evolution of NVIDIA Data Center GPUs: From Pascal to Grace Blackwell」
https://www.serversimply.com/blog/evolution-of-nvidia-data-center-gpus
• Whaleflux「 The Evolution of NVIDIA GPUs: A Deep Dive into Graphics Processing
Innovation」 https://www.whaleflux.com/blog/the-evolution-of-nvidia-gpus-a-deep-diveinto-graphics-processing-innovation/
• Wolf Advanced Technology「NVIDIA GPU Architecture: From Pascal to Turing to Ampere」
https://wolfadvancedtechnology.com/nvidia-gpu-architecture/
• Cloudfleet「Comparison of Different NVIDIA GPU Architectures」 https://cloudfleet.ai/
blog/cloud-native-how-to/2023-03-comparison-of-different-nvidia-gpu-rchitectures/
• Techovedas「How NVIDIA GPUs have Evolved From Tesla to Ampere to Hopper」https://
techovedas.com/how-nvidia-gpus-have-evolved-from-tesla-to-ampere-to-hopper/
• Wikipedia「 Ampere
(microarchitecture)」
https://en.wikipedia.org/wiki/Ampere_
(microarchitecture)
• Tom’s Hardware「Nvidia announces Rubin GPUs in 2026, Rubin Ultra in 2027, Feynman
also added to roadmap」 https://www.tomshardware.com/pc-components/gpus/nvidiaannounces-rubin-gpus-in-2026-rubin-ultra-in-2027-feynam-after
B. Tensor Core / 混合精度演算
• SemiAnalysis「 NVIDIA Tensor Core Evolution: From Volta To Blackwell」 https://
newsletter.semianalysis.com/p/nvidia-tensor-core-evolution-from-volta-to-blackwell
• IntuitionLabs「Blackwell vs Hopper: A Deep Dive GPU Architecture Comparison」https://
intuitionlabs.ai/articles/blackwell-vs-hopper-gpu-architecture-comparison
• NVIDIA Developer Blog「Inside NVIDIA Blackwell Ultra: The Chip Powering the AI Factory
Era」 https://developer.nvidia.com/blog/inside-nvidia-blackwell-ultra-the-chip-poweringthe-ai-factory-era/
• NVIDIA Docs「Using FP8 and FP4 with Transformer Engine」 https://docs.nvidia.com/
deeplearning/transformer-engine/user-guide/examples/fp8_primer.html
• NVIDIA
Developer
Blog「 Introducing
NVFP4
for
Efficient
and
Accurate
Low-
Precision Inference」 https://developer.nvidia.com/blog/introducing-nvfp4-for-efficientand-accurate-low-precision-inference/


# Page. 44

![Page Image](https://bcdn.docswell.com/page/YJ9PP48Z73.jpg)

APOLLO
44
• arXiv「Dissecting the NVIDIA Blackwell Architecture with Microbenchmarks」 https://
arxiv.org/html/2507.10789v2
C. CUDA プログラミングモデル / SIMT / Warp
• NVIDIA「CUDA Programming Guide: Programming Model」https://docs.nvidia.com/cuda/
cuda-programming-guide/01-introduction/programming-model.html
• NVIDIA Developer Blog「Using CUDA Warp-Level Primitives」 https://developer.nvidia.
com/blog/using-cuda-warp-level-primitives/
• Cornell Virtual Workshop「Understanding GPU Architecture: SIMT and Warps」 https://
cvw.cac.cornell.edu/gpu-architecture/gpu-characteristics/simt_warp
• Modal「 GPU Glossary: What is a Warp?」 https://modal.com/gpu-glossary/devicesoftware/warp
• Intro to CUDA「Understanding Warps in CUDA」 https://intro-to-cuda.readthedocs.io/
en/latest/tutorial/warps.html
D. NVLink / NVSwitch / HBM
• Fibermall「Understanding Nvidia’s NvLink and NvSwitch Evolution: Topology and Rates」
https://www.fibermall.com/blog/nvidia-nvlink-and-nvswitch-evolution.htm
• KAIST TERALAB「HBM Roadmap Ver 1.7 Workshop」 https://aionet.tech/KAIST_HBM_
Roadmap.pdf
• FreeCodeCamp「 The Evolution of Nvidia Blackwell GPU Memory Architecture」
https://www.freecodecamp.org/news/the-evolution-of-nvidia-blackwell-gpu-memoryarchitecture/
• Wikipedia「High Bandwidth Memory」 https://en.wikipedia.org/wiki/High_Bandwidth_
Memory
• Wevolver「High Bandwidth Memory: Concepts, Architecture, and Applications」 https://
www.wevolver.com/article/high-bandwidth-memory
• Naddod「 Hardware
Topology
and
Bandwidth
Considerations
for
Large-Scale
GPU Training」 https://www.naddod.com/blog/high-performance-gpu-server-hardwaretopology-and-cluster-networking-1
• SemiAnalysis「 NVIDIA GTC 2025: Vera Rubin, Kyber, CPO, Dynamo Inference」
https://newsletter.semianalysis.com/p/nvidia-gtc-2025-built-for-reasoning-vera-rubinkyber-cpo-dynamo-inference-jensen-math-feynman
E. RT Core / BVH / DLSS
• NVIDIA Developer「Ray Tracing」 https://developer.nvidia.com/discover/ray-tracing
• AnandTech「 The NVIDIA Turing GPU Architecture Deep Dive: Bounding Volume
Hierarchy」 https://www.anandtech.com/show/13282/nvidia-turing-architecture-deepdive/3


# Page. 45

![Page Image](https://bcdn.docswell.com/page/GJ8DDQZYJD.jpg)

APOLLO
45
• NVIDIA「RTX Technology: Redefining Performance and Visual Computing」 https://www.
nvidia.com/en-us/technologies/rtx/
• NVIDIA「FBC Firebreak Launches With Full Ray Tracing &amp; DLSS 4 Today」 https://
www.nvidia.com/en-us/geforce/news/fbc-firebreak-doom-the-dark-ages-path-tracingdlss-4-multi-frame-gen/
• LaptopOutlet「How DLSS 4 &amp; Ray Tracing Impact High-End GPU Performance」 https://
www.laptopoutlet.co.uk/blog/dlss-and-ray-tracing-impact-on-gpus.html
• NVIDIA「 Ray Tracing, Your Questions Answered」
https://www.nvidia.com/en-us/
geforce/news/geforce-gtx-dxr-ray-tracing-available-now/
F. AI ASIC 競合・市場文脈
• CNBC「 Nvidia
chips」
Blackwell,
Google
TPUs,
AWS
Trainium:
Comparing
top
AI
https://www.cnbc.com/2025/11/21/nvidia-gpus-google-tpus-aws-trainium-
comparing-the-top-ai-chips.html
• Tom’s Hardware「Inside the AI accelerator arms race: AMD, Nvidia, and hyperscalers
commit to annual releases」 https://www.tomshardware.com/tech-industry/artificialintelligence/inside-the-ai-accelerator-arms-race-amd-nvidia-and-hyperscalers-committo-annual-releases-through-the-decade
• Introl Blog「Custom Silicon Inflection 2026: Hyperscaler ASICs vs. Nvidia GPU」 https://
introl.com/blog/custom-silicon-inflection-2026-hyperscaler-asics-nvidia-gpu
• Cloud News「 Meta accelerates MTIA and joins the race for proprietary chips
for inference」
https://cloudnews.tech/meta-accelerates-mtia-and-joins-the-race-for-
proprietary-chips-for-inference/
G. NVIDIA M&amp;A・戦略アクション
• NVIDIA Blog「NVIDIA Acquires Open-Source Workload Management Provider SchedMD」
https://blogs.nvidia.com/blog/nvidia-acquires-schedmd/
• The Next Platform「 Nvidia Nearly Completes Its Control Freakery With Slurm
Acquisition」 https://www.nextplatform.com/2025/12/18/nvidia-nearly-completes-itscontrol-freakery-with-slurm-acquisition/
• Network
World「 Nvidia
acquisition」
moves
deeper
into
AI
infrastructure
with
SchedMD
https://www.networkworld.com/article/4106930/nvidia-moves-deeper-
into-ai-infrastructure-with-schedmd-acquisition.html


# Page. 46

![Page Image](https://bcdn.docswell.com/page/LJLMMXD9ER.jpg)

APOLLO
46
H. NVIDIA Robotics（Project GR00T / Cosmos / Jetson
Thor）
• NVIDIA
Newsroom「 NVIDIA
Humanoid
Robots」
Announces
Project
GR00T
Foundation
Model
for
https://nvidianews.nvidia.com/news/foundation-model-isaac-
robotics-platform
• NVIDIA Developer「Isaac GR00T - Generalist Robot 00 Technology」 https://developer.
nvidia.com/isaac/gr00t
• TechCrunch「Nvidia wants to be the Android of generalist robotics」 https://techcrunch.
com/2026/01/05/nvidia-wants-to-be-the-android-of-generalist-robotics/
• NVIDIA「Jetson Thor: Advanced AI for Physical Robotics」 https://www.nvidia.com/enus/autonomous-machines/embedded-systems/jetson-thor/
• The Robot Report「NVIDIA releases new physical AI models, plus autonomous vehicle
tools」
https://www.therobotreport.com/nvidia-releases-new-physical-ai-models-plus-
autonomous-vehicle-tools/
I. 中国輸出規制・H20/B30
• Tom’s Hardware「 Nvidia H20 AI GPU inventory is limited — but Nvidia is making
a new B30 model for China」 https://www.tomshardware.com/pc-components/gpus/
nvidia-h20-ai-gpu-inventory-is-limited-but-nvidia-is-making-a-new-b30-model-for-chinato-comply-with-export-restrictions
• Built In「Trump Lifted the AI Chip Ban on China, Clearing Nvidia and AMD to Resume
Sales」 https://builtin.com/articles/trump-lifts-ai-chip-ban-china-nvidia
• CNBC「Nvidia still hasn’t sold its U.S.-approved China AI chips」 https://www.cnbc.com/
2026/02/26/nvidia-china-chip-sales-export-controls-ai-competition.html
• Council
on
Foreign
Catch
Nvidia」
Relations「 China’s
AI
Chip
Deficit:
Why
Huawei
Can’t
https://www.cfr.org/articles/chinas-ai-chip-deficit-why-huawei-cant-
catch-nvidia-and-u-s-export-controls-should-remain
本書は技術領域別の代表特許と系譜の追跡を主眼としており、競合との比較・市場ポジショニング・財務的含
意は本編・要約版で扱う。本書の内容は本編 76 ページ版および経営層向け要約版 11 ページ版と整合する形
で凝縮されたものである。本書の付加価値は、(1) 1993 年創業以来の NVIDIA 技術変遷史を 6 期で整理し
た点、(2) Tensor Core / CUDA / SIMT / BVH / DLSS / HBM 等の主要技術を平易に解説した点、(3) ノ
イズ 2,026 件から 10 種の萌芽領域を抽出し次世代 R&amp;D の方向を予測した点、(4) 把持技術 15 件の 5 年
間集中蓄積を Project GR00T への布石として SR-5 内に統合した点にある。


