FPT AI Factory x Claude Code で 開発効率 UP する方法とは - FPT AI Factory で実現するプライベート AI -

128 Views

February 03, 26

スライド概要

https://scj2026.supercomputing-japan.org/index.php/program_2/
FPTスマートクラウドジャパンは、ハイエンドGPU「NVIDIA H200/H100」を数千規模で備えた高性能GPUクラウドを提供し、AIモデル開発から運用までを包括的に支援します。
今回は、現在大注目のAIコーディングアシスト「Clade Code」をFPT AI Factory上で活用した、コーディング最大効率化の手法をご紹介します。ぜひご覧ください。

profile-image

FPT ジャパン FPT データ& AI インテグレーション エグゼクティブエバンジェリスト 独立行政法人 国立印刷局 デジタル統括アドバイザー兼最高情報セキュリティアドバイザー AI 駆動開発勉強会主催。Microsoft エバンジェリスト時代から、Dell、Accenture、Elastic、VMware を経て現職まで一貫して開発者向けに最新技術を啓発。GPU クラウド技術訴求、AI 駆動開発推進。  政府の仕事は、内閣官房 政府 CIO 補佐官、 デジタル庁 PM を経て、現職を兼務。 Locofy.ai Regional Developer Advocate Google Cloud Partner All Certifications Engineer 2025

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

ダウンロード

関連スライド

各ページのテキスト
1.

2026年2⽉3⽇ Supercomputing Japan 2026 FPT AI Factory x Claude Code で 開発効率 UP する⽅法とは FPT AI Factory で実現するプライベート AI 鈴⽊章太郎 エグゼクティブエバンジェリスト FPT ジャパン データ& AI インテグレーション

2.

鈴⽊ 章太郎 X (Twitter) : @shosuz https://www.docswell.com/user/shosuz FPT ジャパン FPT データ & AI インテグレーション エグゼクティブエバンジェリスト 独⽴⾏政法⼈ 国⽴印刷局 デジタル統括アドバイザー兼最⾼情報セキュリティアドバイザー 略歴︓ AI 駆動開発勉強会主催。 AI 駆動開発コンソーシアム副座⻑。 Microsoft エバンジェリスト時代から、Dell、Accenture、Elastic、 VMware を経て現職まで20年に渡り⼀貫して開発者向けに最新 技術啓発活動を実施。現在は NVIDIA GPU クラウド技術を訴求。 政府の仕事は、内閣官房 政府 CIO 補佐官、 デジタル庁 PM を 経て、現職を兼務。DX 推進、CISO 補佐、デジタル庁連携等。

3.

エンタープライズ AI の3つの壁 ❌ 機密データをクラウド LLM API に送れない ❌ ローカル環境では⼤規模モデルが動かない ❌ 推論速度が遅い(57秒〜)

4.

プライベート AI 基盤の3つの選択肢 クラウド LLM API FPT AI Factory GPU Cloud + 閉域網 ✅ 完全オンプレ •FPT AI Factory ⽇本サイト︓ https://aifactory.fptcloud.jp/ •FPT Cloud ⽇本サイト︓ https://fptcloud.com/ja/ •FPT AI Factory グローバルサイト︓ https://ai.fptcloud.jp

5.

AI 時代に必要な計算リソース 処理時間の現実: 技術的要件: 🔥GPU 並列処理: 動画‧⾳声‧画像の同時⽣成 💾 ⼤容量メモリ: 1M トークン + マルチメディア 🔄 統合環境: 複数 AI モデルの連携 6時間 従来環境 従来環境 必要環境 処理時間の⽐率(24倍の差) 📈 スケーラビリティ: 需要に応じたリソース調整 パブリッククラウドの課題: ⚠ AWS/GCP H100 待ち時間: GPU 不⾜危機: パブリッククラウドで A100/H100 /H200 が枯渇状態 15分 必要環境 Azure A100 時間単価: 8 GPU 構成の⽉額: 3〜6ヶ⽉ 約$4.1/時間 約300万円 ⼆重の課題: GPU 不⾜と⾼額コストが、マルチモーダル AI 開発の最⼤の障壁に

6.

FPT AI FACTORY ベトナム2地域と⽇本1地域 お客様む向けサービス AI/ML 開発エコシステム NVIDIA 認定システムアーキテクチャ 物理インフラ クラウド インフラ &プラットフォーム AI プラットフォーム AI 製品 FPT AI アプリケーション AI メンター デジタル顧客 オンボーディング エージェント スタジオ AI ノートブック 計画 モデル ハブ インテリジェント ドキュメント処理 Marketplace AI コンタクトセンター 強化 FPT AIエージェント メモリ ツール FPT AIスタジオ AI のための モデルファイン データ処理 チューニング 管理者 会話型 AI と AI エージェント ガードレール モデルの事前 トレーニング AI Marketplace NVIDIA AI Enterprise NVIDIA NGC AI Solution Workflows, Frameworks & Pretrained models 微調整された LLM モデル NVIDIA NeMo FPT AI 推論 AI & Data Science Development Tools モデル Model as-a-Service サービング NVIDIA Inference Microservices Cloud Native Management & Orchestration データベースプラットフォーム ベクターデータベース NVIDIA H100/H200 FPT AI インフラストラクチャ GPU コンテナ GPU 仮想マシン ハイエンドネットワーク マネージド GPU クラスター ハイエンド CPU NVIDIA Base Command Manager メタル クラウド ファイル ストレージ ⾼性能ストレージ Infrastructure Optimization Infrastructure Management

7.

FPT AI Factory アーキテクチャーは NVIDIA 認定 • • FPT AI Factory サービスは、ベトナムと⽇本の複数の地域で展開 FPT AI Factory のアーキテクチャは NVIDIA のグローバル標準に準拠し、NVIDIA によって実装および検証済み • ⼤規模要件に対応するスーパーコンピューティング クラスター • 数千台の NVIDIA Hopper GPU (H200) • 超⾼速ネットワークに包含︓⾮ブロッキング InfiniBand ファブリック、組み込みハードウェア アクセラレーション⽤のデータ処理ユニット (DPU) 2つの新しい地域をリリース (合計7ゾーン、3地域) • 各クラスターの計算能⼒は最⼤ 69 PFLOPS • 100 以上のフレームワーク、事前トレーニング済みモデル、 ライブラリを提供する NVIDIA AI Enterprise ソフト ウェアプラットフォームとの統合 NVIDIA AI Enterprise NVIDIA NGC NVIDIA 推論マイクロサービス NVIDIA NeMo NVIDIA ベースコマンドマネージャー ネットワーキング ⽇本 ペタビット、ノンブロッキング NVIDIA Infiniband ファブリック ノード1 NVIDIA HGX H200 SXM*8 400Gbps インフィニバンド 400Gbps I nfi niband グローバル ネットワーキングパートナー グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ JPN-01 GPUクラウド G P あ な た グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ グ ラ フ ィ ッ ク プ ロ セ ッ サ 400Gbps インフィニバンド 400Gbps インフィニバンド 400Gbps I nfi niband 400Gbps インフィニバンド 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband 400Gbps I nfi niband ベトナム - ハノイ 波⻑多重 HNI-02 GPU クラウド HCM-03 冗⻑性 負荷分散 HCM-01 HCM-02 災害復旧 ストレージ同期 HNI-01 HNI-03 。 。 。 DPU 。 FPTクラウドサービス GPUサーバー 監視サービス グ ラ フ ィ ッ ク プ G P ロ U セ ッ サ グ ラ フ ィ ッ ク プ G P ロ U セ ッ サ グ ラ フ ィ ッ ク プ G P ロ U セ ッ サ グ ラ フ ィ ッ ク プ G P ロ U セ ッ サ 900 GB/秒の NVSwitch GPU から GPUへ 900 GB/秒の NVSwitch GPU からGPUへ ベトナム - ホーチミン ノードN NVIDIA HGX H200 SXM*8 ⾼性能ストレージ クラウドサーバー AI 開発カタログ 安全サービス コンテナサービス サイバーセキュリティ サービス 。 。 DPU

8.

マルチクラウド - SCSK Cloud netXchange サービスの利⽤ • FPT データセンター内 ExpressRoute / Direct Connect / FastConnect クラウド接続点により、 Google Cloud /Azure / AWS / OCI と構内接続することで FPT AI Factory に閉域接続が可能 • FPT AI Factory ⽤に、新たに Express Route のような閉域接続回線を⽤意する必要がないため、 コストと接続開始時期が⼤幅に短縮可能 ExpressRoute Microsoft Azure Cloud Interconnect Google Cloud FPT データセンター Direct Connect FPT AI Factory Direct Connect AWS Fast Connect OCI Direct Link IBM Cloud Cloud Interconnect (既 存) お客様拠点 Secure Flexible Reliable Convenient 閉域接続で⾼い安定性と セキュリティを確保 接続⽅法と帯域を柔軟に 選べるサービスメニュー 冗⻑構成を標準とした ⾼可⽤性を実現 接続に必要な BGP ルータを フルマネージドで提供

9.

OpenClaw︓プロアクティブ AI アシスタント 📁 ローカルファースト 🧠 永続メモリ 🔄 ⾃⼰増殖 🔗 既存ワークフロー統合 OpenClaw 公式サイト︓ https://openclaw.ai/blog/introducing-openclaw ⚡ プロアクティブ通知

10.

OpenClaw × FPT GPU チャット型 AI アシスタント https://openclaw.ai/blog/introducing-openclaw

11.

マルチエージェント統合(ntm) 🤖 Claude Code / Codex / Gemini を同時管理 🎯 OpenClaw がオーケストレーター 🔍 全 AI 履歴横断検索

12.

デモ︓Claude Code × FPT GPU コーディングエージェント タスク: LoginForm.tsx というファイルを作成して、 TypeScript と React で ログインフォームコンポーネントを実装して、等々… 推論速度⽐較: ・ローカル(Mac mini + 14B): 57秒 ・FPT GPU(H200 + 120B x 1): 42秒 Claude Code 公式サイト︓ https://code.claude.com/ How to Run Claude Code Locally (100% Free & Fully Private) ︓ https://x.com/dr_cintas/status/2014380662300533180

13.

DEMO : gpt-oss-120b ログインフォーム 他2つ

14.

•⼩さいモデルと同等の速度で、8倍⼤きいモデルが動く •ネットワーク越しでも実⽤的な速度 •閉域網で機密データ保護 gpt-oss-64k:120b

16.

まとめ ✅ GPU 購⼊不要・従量課⾦ ✅ 閉域網運⽤で機密データ保護 ✅ Claude Code によりマルチモーダルアプリまで閉域内部で完成︕ ✅ FPT AI Factory の価値 ︓ 今回の H200 x 1 + 120B を 8つ 稼働できる Managed Cluster など多数のインフラを⽤意

17.

Developer Summit 2026 (Day2, 2/20) https://event.shoeisha.jp/devsumi/20260218/session/6491

18.

Thank you for your attention!