データセクションが本日3日目のストップ高。このままいくと明日値幅4倍戦に突入する状況です。きっかけは四季報で更新された2027年度の売上予想です。そこでEPS331.5円とされたことにより、株価水準の大幅な見直しが起こっているのが今回の急騰の背景だと思います。
では、その売り上げの急激な拡大の根拠は何なんでしょうか。このレポートでは、データセクションが発表している直近決算資料に基づいて、より詳細な内容を考察してみました。
NVIDIA Blackwell世代GPUサーバーのエンドユーザー価格(2025年前半)
直近の決算資料に出ている案件に関する記述で、B200×5000台規模の案件と言うのがあります。それも、2つも記載があります。このB200とはNVIDIA製の最新型スーパーチップの事で、この価格や、またもうひとつ記述があるGB200についても、実際の価格や、そのシステム構築にかかる費用がどれくらいになるのかを調べてみました。
NVIDIA B200 GPUサーバー(8基のBlackwell GPU搭載)のエンドユーザー向け価格は、前世代H100搭載システムに比べて大幅に上昇しています。前世代のDGX H100(Hopper世代、GPU 8基搭載)の販売価格は約46万ドル(約6600万円)で、そのうち約10万ドルが3年間のサポート費用でした。
一方、最新世代のDGX B200(Blackwell世代GPU 8基搭載)のリスト価格は約51.5万ドルと報じられており、H100世代から約40~50%の価格増となっています。
実際、NVIDIA認定販売店での構成例では**DGX B200が約57.9万ドル(約8億円弱)からと表示されています。この価格には8基のBlackwell GPU(合計1.44TBのHBM3eメモリ搭載)に加え、高性能CPU(Xeon Platinum 8570 x2)や最大4TBのDDR5メモリ、NVMeストレージ、そしてNVIDIA AI Enterpriseソフトウェアスイート(Base Commandなど)と3年間のサポートが含まれています。
以上より、2025年前半時点でのB200サーバー1台あたりの市場価格は概ね0.5~0.6百万ドル(約7,000~8,500万円)と推測されます。
NVIDIA GB200 GPUサーバーについては、Blackwell GPUとGrace CPUを統合した次世代プラットフォームを指します。
GB200は1つのGrace CPUと2基のBlackwell GPU (B200 Tensor Core GPU)をNVLinkチップ間直結した「Grace Blackwell」スーパーチップです。NVIDIAはこのGB200スーパーチップを用いたラックスケール製品GB200 NVL72を発表しており、36基のGrace-Blackwellスーパーチップ(= Grace CPU 36基 + Blackwell GPU 72基)をNVLinkで相互接続した液冷ラックシステムとして提供します。この大規模システムは単一の巨大GPUのように動作し、最大30倍の推論性能向上(H100世代比)を謳います。
GB200スーパーチップ自体の単体価格は非常に高額で、1ユニットあたり6万~7万ドル(約900万~1050万円)に達するとの予測があります。NVIDIAはGB200単体よりもこれを組み込んだ完全サーバー/ラック製品として販売する戦略を取るとされており、たとえばGB200 NVL72ラック(Blackwell GPU 72基搭載)の価格は約300万ドル(約42億~45億円)にも達する見込みです。
半分規模のGB200 NVL36(GPU 36基)構成でも約180万ドル(約25億円)程度とされています。このようにGB200を用いたシステムは桁違いの価格帯となります。もっとも、2025年前半時点ではBlackwell世代GPUは需要過多で供給が極めて逼迫しており、今後12か月分の生産は既に主要顧客(AWSやGoogle、Metaなど)により完売状態だと報じられています。したがって一般エンドユーザーがGB200搭載サーバーを購入できるのはごく限定的であり、市場価格も理論値に留まる可能性があります。実際、初期出荷分は2024年末に一部AI企業(OpenAIなど)に納入され、広範な市販供給は2025年以降になる見通しです。
以上を踏まえると、2025年前半時点の想定市場価格は以下の通りです:
- DGX H100 (参考):約46万ドル(約6600万~6700万円)
- DGX B200(Blackwell 8GPU, x86サーバー):約52~58万ドル(約7500万~8500万円)
- GB200 NVL36ラック(Grace-Blackwell 18スーパーチップ=GPU36基):約180万ドル(約25億円)
- GB200 NVL72ラック(Grace-Blackwell 36スーパーチップ=GPU72基):約300万ドル(約42億~45億円)
(※円換算は1ドル=140~150円程度として試算)
GPUサーバー導入後のシステム構築要素と5,000台運用時のコスト試算
大規模にGPUサーバー(B200クラス)を5000台導入して運用するには、サーバー本体以外にも電源設備、冷却インフラ、ラック筐体、ネットワーク、NIC/インターコネクト、ソフトウェア環境など多岐にわたる構成要素が必要です。それぞれについて必要な構成と台数規模における費用を試算し、代表的な構成例をまとめます(建屋建設費用は除外します)。
前提条件と構成の前提: 本試算では、NVIDIA HGX/DGX B200相当の8GPUサーバーを5000台(GPU計4万基)運用するケースを想定します。各サーバーは最大14.3kW程度の消費電力があり、最適な性能を引き出すためにNVLinkスイッチによるGPU間高速接続(サーバー内部で8基GPUが1.8TB/sで相互接続)および高速ネットワーク(サーバーあたり8ポートの400Gbpsネットワークインタフェース)を利用します。冷却は空冷では非現実的な熱密度となるため、ダイレクト液冷方式(コールドプレートによる冷却)を前提とします。以下、各構成要素ごとに詳細と費用を示します。
- GPUサーバー本体(5000台): 8GPU搭載のB200サーバー5000台分の費用です。1台あたり約0.55百万ドル(先述の中央値、約8000万円)とすると、計約27.5億ドル(約3800~4200億円)となります。大口発注による多少のボリュームディスカウントがある可能性もありますが、Blackwell世代は供給逼迫のため割引は限定的でしょう。また、5000台全てにNVIDIA AI Enterprise(Base Commandなど)ソフトウェアのライセンスと初期数年間のサポートが含まれており、これだけで各サーバーあたり年間3万ドル強の価値があります(初年度は本体価格に含む)。なお各サーバーにはOS用ストレージ(NVMe SSD)や基本管理用ネットワークポート(オンボード10GbEなど)も備わっています。
- ラック筐体および電源設備: 5000台のサーバーを収容するためのラックと電源系統です。B200サーバーは1台あたり高さ約10Uであるため、1ラック(42U~52U想定)に約8~12台搭載可能です。液冷マニホールドの配置によっては52Uラックに12台(96GPU)まで収容しうる例もあります。5000台では約417~625本のラックが必要になります。ここでは高密度液冷対応ラックとして約417ラック(52Uラックに12台配置想定)とし、各ラックに冗長電源分配(3相高圧対応PDU x2など)を備える想定です。ラック本体とPDU等電源配線の費用はラックあたり数万ドル規模です。仮に1ラックあたり約5万ドル(約700万円)とすれば、ラック&電源設備合計で約2.1億ドル(約300億円)となります。実際にはラック単価はもう少し安価ですが、大電流対応のブレーカー盤・配線工事やラック数に見合ったUPS・変電設備(建屋に付随、ここでは除外)も必要です。各ラックは最大で約150~200kW級の負荷に耐える設計とし、バックボーンとなる電源供給(バスバーや配電盤)はラックあたり数百kW×ラック数分を賄う容量が求められます。
- 冷却設備(液冷システム): 全システムで最大70MWを超える熱を除去する必要があるため、冷却は専用の液冷インフラが不可欠です。各ラックにはコールドプレート式の液冷クーラント供給マニホールドが組み込まれ、1ラックあたり最大250kWの熱除去能力を持つクーラント分配ユニット(CDU)が付随します。最新の液冷ソリューションでは、垂直配置のクーラント分配マニホールドによりラック内スペースを有効活用しつつ、前世代の2倍以上の冷却容量を実現しています。本規模ではラックごとに1基のCDU(250kW級)を設置し、ラック内配管・ポンプを含めた液冷キット費用はラックあたり約10万ドル(約1400万円)程度と見積もります。これにより全ラックの冷却設備費用は約4.17億ドル(約580億円)となります。さらに、これらCDUに冷却水を供給・熱交換するための二次側設備(チラーや冷却塔、配管)はデータセンター建屋側の設備となります(本試算では除外)。液冷導入には初期費用は嵩みますが、空冷では対処不能な熱密度に対応し、また高温水冷却により冷却効率を高めることでランニングコスト低減にも寄与します。
- ネットワーク設備(スイッチ・ケーブル): GPUサーバー間を高速接続するネットワークは、訓練用クラスターの性能を左右する重要要素です。Blackwell世代ではGPUあたり1ポートの400Gbpsネットワークが推奨されており、8GPUサーバーには8ポートのNDR InfiniBand (400Gb/s)あるいは400GbEが搭載されます。5000台で計4万ポートにもなる大量のネットワークを収容するには、2層または3層のクロスバーネットワーク(リーフ・スパイン構成)が必要です。例えば各ラックにリーフスイッチを2台配置し(冗長性と帯域のため各サーバーのNICを分散接続)、全リーフを数段のスパインスイッチ/ディレクタで相互接続するファットツリー型Closネットワークを構築します。具体的な機器としてはNVIDIA Quantum-2 InfiniBandスイッチ(NDR 400Gbps, 64ポート)や同等の400/800Gb Ethernetスイッチが想定されます。スイッチ台数の一例として、リーフスイッチ834台(417ラック×2)と大規模スパインスイッチ(数十筐体)が必要になります。ネットワークスイッチは高速ポート密度ゆえ高価であり、小型64ポートスイッチで数万ドル、大型ディレクタ級スイッチ筐体は1台数十万~数百万ドルに達します。さらに数万本規模の高速ケーブル(アクティブ光ケーブルやDACケーブル)も必要です。全体としてネットワーク機器と配線の初期費用は概算で1億~1.5億ドル規模(約140~210億円)に上る可能性があります。この内訳の一例は、リーフスイッチ類に0.8億ドル、スパイン用ディレクタスイッチに0.3億ドル、ケーブル類に~0.1億ドルといった割合です。高額ではありますが、この高速ネットワークによりサーバー5000台全体が低遅延で結合され、分散学習時に大規模モデルを効率良く訓練・推論できる環境が実現されます。
- NIC・インターコネクト: 各サーバーには標準で8基の400Gbps対応NIC(NVIDIA ConnectX-7あるいはBlueField-3 SuperNIC)と、2基のBlueField-3 DPUが搭載済みです。そのため別途NICカードを購入する必要はありません(費用はサーバー本体価格に含まれています)。8ポートの高速NIC構成はGPU毎に1対1のネットワーク帯域を確保するベストプラクティスであり、5000台全体で見れば約4万ポート分のNICハードウェアが内蔵されている計算です。仮にNICを別途手配するとすれば1ポートあたり数千ドル(高性能DPU搭載NICなら1枚数万ドル級)となり、全体では数千万ドル規模になる計算ですが、今回は上記ネットワーク設備費用に含めて考えるものとします。NVLink等によるGPU間直結はサーバー内部(8基単位)で完結するため、サーバー間についてはこの高速NIC+スイッチ網がスケーラブルな相互接続を提供します。
- ソフトウェア環境: ハードウェアを稼働させるためのソフトウェアスタック構築も重要です。基本的にはDGX B200購入時にNVIDIA AI Enterprise(AI用ソフトウェアスイート)およびBase Command(オーケストレーション・クラスタ管理ソフト)が付属しており、各サーバーに最適化済みのUbuntuベースDGX OSやGPUドライバ、各種AIフレームワークが整備されています。したがって初期導入段階で追加購入すべき商用ソフトウェアは基本的にありません。ただし、大規模運用にあたってはスケジューラ/オーケストレーション(例: Kubernetes+KubeflowやSlurm)、監視ツール(Prometheus+Grafanaや商用ツール)、高度なリソース管理(NVIDIA Base Command Manager拡張機能やサードパーティ製クラスタマネージャ)などを導入することが推奨されます。これらはオープンソースで構築可能ですが、エンタープライズサポートを求める場合はソフトウェアライセンス費用が発生します。NVIDIA AI Enterpriseスイート自体もサブスクリプション方式で提供されており、Broadberry社の試算ではDGXクラスのシステムあたり年間32,400ドル程度(約450万円)のソフトウェアサポート費用が示唆されています。5000台規模では初年度分は本体価格に含まれるものの、継続サポートを契約する場合年間約1.62億ドル(約230億円)にもなり得る計算であり、ベストプラクティスとしては大口契約による割引やサイトライセンス契約を検討する必要があります。また、ソフトウェア面では各サーバーに対するプロビジョニングやファームウェア管理、クラスタ全体のヘルスモニタリングの仕組みも重要です。NVIDIAはBase Command Managerや新発表のMission ControlなどによりAIインフラ運用を効率化するソフトウェアも提供しています。これらを活用しつつ、自社要件に合わせた統合運用基盤を構築するための人件費(専門エンジニアリング)も無視できませんが、ここでは設備費用のみにフォーカスします。
コスト試算まとめ
上記の試算をまとめると、B200 GPUサーバー5000台による大規模AIクラスタの構築には初期投資ベースで総額およそ30億ドル規模(≒4500億円前後)の費用が見込まれます。
内訳の大半を占めるのはサーバー本体費用(約27~29億ドル)であり、それに付随するラック・電源・冷却・ネットワークインフラで追加の1~2億ドル程度、ソフトウェア環境整備費用は初期では数百万ドル規模(主に人件費)にとどまるものの、運用期間中のサポート契約費用まで含めると年数億ドル規模となります。このようにGPUクラスタの構築にはハードウェア購入費だけでなく、周辺インフラと運用ソフトウェアへの投資が不可欠であり、特に数千台規模の「AIファクトリー」を支えるには従来のデータセンターを凌駕する設備・予算が必要となります。しかしながら、適切に設計・投資されたインフラはモデル開発の生産性を飛躍的に向上させ、企業にもたらす価値(巨大言語モデルの訓練や高度な生成AIサービスの実現)はそのコストを正当化し得るものと言えるでしょう。
CUDO社のB200 GPUサーバーのエンドユーザー販売可否
データセクションが提携しているCUDO社は、どんな会社なのでしょうか。というのも、日本国内にもNVIDIAを扱える企業は実は多数あります。そこよりもCUDO社のほうがアドバンテージが無いと、流石に資本が入っているとはいえ、データセクションではなくてもいいんじゃないかと思う訳です。
そこで、以下ではCUDO社について調べてみました。
英国のCUDO Compute社(Cudo Ventures)は、NVIDIAのPreferred Partner(優先パートナー)として最新GPUハードウェアへの早期アクセス権を持ち、B200を含む最先端のGPUサーバーを取り扱っています。同社は専用GPUサーバーの提供も行っており、例えば「8 × NVIDIA B200(各180GBメモリ)」を搭載した高性能サーバー構成をラインナップし、エンドユーザー向けに リクエストに応じて提供可能 としています。実際、CUDO Computeは必要なハードウェアを2~4週間程度のリードタイムで調達できると述べており、ユーザーの要件に応じてB200サーバーの購入代理・調達が可能であることが示唆されています。つまり、CUDO社はエンドユーザーに対しB200 GPUサーバーを販売(または調達代行)できる能力を有しています。
2. B200 GPUクラスタのオンプレミス設計・構築サービス
CUDO Computeはエンタープライズ向けにオンプレミス含むGPUクラスタの設計・構築サービスを提供しています。公式サイトによれば、同社は小規模なHGXクラスタから大規模なDGX SuperPODに至るまで、ユーザーのワークロードに合わせたクラスタを設計し構築することが可能です。特に「カスタム設計と導入」として、コロケーション(データセンター)環境から完全統合型AIクラスタまで、要求に合わせて一貫して設計・ビルドし、6ヶ月以内という短期間でデプロイできると謳っています。設計にあたっては電源・冷却・ネットワークといったインフラ要件も考慮しており、最新のAIハードウェア(NVIDIA H100/H200やB200/GB200など)の高密度実装に対応可能なデータセンター設備(ラックあたり150~200kW対応、液体冷却オプションあり)を用意しています。高速なInfiniBandネットワーキングや大容量ストレージ(VAST DataやWekaIO社製のAI向けストレージ)とも連携し、GPUクラスタ全体の設計に反映することができます。以上より、CUDO社はB200を用いたオンプレミス向けGPUクラスタについて、電源・冷却・ネットワーク設計を含むシステム構築サービスを提供可能だと考えられます。
3. 保守運用(監視・障害対応・アップデート)サポート
CUDO Compute社はクラスタ導入後の包括的な保守運用サービスも提供しています。同社は「クラスタの運用管理」として、専門チームがシステムの稼働監視やインフラ管理を担当し、常に高いパフォーマンスを維持できるよう支援すると明言しています。さらに「マネージドサービス」の一環で、ベースイメージの管理、ファームウェア更新、セキュリティパッチ適用、最適化に至るまで包括的に対応し、ユーザー企業の負担を軽減します。障害発生時の対応やソフトウェアアップデート支援も契約に含めることで、導入後も安心してクラスタを運用できる体制を整えています。以上から、監視・障害対応・アップデート支援まで含めた一貫サポートをCUDO社が提供していることが確認できます。
4. CUDO Computeの主力サービス:クラウド型GPU IaaSとオンプレミス支援の位置付け
CUDO Compute社の主力事業はクラウド型のGPUインフラ(GPU IaaS)サービスです。同社は世界中の提携データセンターに分散した高性能GPUのプールを擁し、ユーザーはオンデマンドでAI計算リソースを利用できます。実際に、NVIDIA HGX B200を含む最新GPUを「リザーブドクラスタ」経由で提供するクラウドサービスを開始しており、需要に応じて柔軟にスケール可能なGPUインスタンスを展開できます。このようにGPUクラウド(IaaS)が同社サービスの中心となっていますが、同時にエンタープライズ向けにハイブリッド/オンプレミス環境の支援も手厚く行っています。前述のとおり、ユーザー専用のGPUクラスタを設計・構築し、データセンターへのコロケーション設置や運用代行までワンストップで請け負う体制を整えており、クラウドとオンプレミスの両面に対応可能です。
主な実績・パートナー企業: CUDO Compute社はNVIDIAからPreferred Partner for Computeに認定されており、H100やB200/GB200といった最新GPUをいち早く取り扱う実績があります。またハードウェアおよびインフラ分野の複数企業とパートナーシップを結んでおり、例えばAMD社をはじめ主要ベンダー各社から信頼を得ています。ストレージ分野ではVAST Data社やWekaIO社と協業してAI向け高性能ストレージソリューションを統合提供するなど、包括的なGPUコンピューティング基盤を支える体制を構築しています。こうした取り組みにより、CUDO Computeは新興スタートアップからFortune 500企業の研究所まで世界各地のユーザーに利用されるGPU基盤となっています。
これらのことから、CUDO社が他社よりもアドバンテージがあるとすれば、NVIDIA製品の優先パートナーという立ち位置と、製品確保までのリードタイム短縮にあるのかもしれません。
まとめ
データセクションはCUDO社との提携関係の中で、製品調達及びシステム構築をしていくことになると思います。また、その際自社製品のTAIZAを組み込み、且つ、B200の調達面、システム構築面でのサポート業務、完成後も保守運用業務を行っていくものと推測されます。
データセクション社長による決算説明動画では、2%程度からそれ以上の収益を見込むとしているため、4500億のシステムが堺データセンターに誕生するということであれば、イニシャルで90億円+TAIZA使用料+保守運営費、ということになり、それであれば2027年度の売上が300億円という数字になる事にはそれほど無理があるようにはないのではないかと推測できると考えています。
また、スペイン案件、その他案件の進捗があればその都度堺データセンター規模のビジネスが生まれていくことになるわけで、、、個人的には、シャープ堺工場跡地にSBが入るという部分が気になっており、データセクションのビジネスにSB案件もも関わってくるとなると、マジでどえらいことになる可能性はあるのかもしれないと考えたりもしています。
いずれにせよ、B200×5,000台規模の4,500億円と言う投資規模(これには建屋や人件費はそもそも入っていない)をデータセクションが現場で構築運用するということがホントであれば、今後の国内案件ではAIデータセンターのトップランナーの仲間入りをすることは確実です。当然その後に続く案件はデータセクションに相談が行く確率が高まるでしょう。
株価的にもストップ高が続く今、出遅れていると言われる日本のAI施策の行く末も含めて、今回の急騰劇は固唾をのんで見守っています。
★この記事は個人の株取引のメモであり、登場する銘柄は売買を推奨するものではありません。