テクノロジー 2025年11月5日

Text by SPARK Daily

「2030年代に実現」Google宇宙データセンター計画の未知数

「2030年代に実現」Google宇宙データセンター計画の未知数

Googleが2027年に宇宙AIデータセンターの試験機を打ち上げると発表した。2030年代には地上データセンターと同等のコストになるという。太陽光は豊富だが、放射線は?スペースは無限だが、デブリは?「宇宙ならすべて解決」という楽観論の裏で、実証されていないリスクが静かに積み上がっている。

Googleの「Project Suncatcher」が描く未来

2025年11月4日、Googleが公式研究論文で公表した計画は衝撃的だった。地球上空約640km(400マイル)に、約80機の太陽光発電衛星を配置し、AI処理用のTPU(Tensor Processing Unit)を搭載する。光学リンクで地上とデータをやり取りし、24時間365日稼働するデータセンターを宇宙に構築する構想だ。

Googleによれば、宇宙の太陽光発電は地上の最大8倍の効率を誇り、真空環境では冷却システムも不要になる。地上データセンターが直面する土地不足、水資源の枯渇、電力供給の限界といった問題から解放される。

さらに、SpaceXなどによるロケット打ち上げコストの急速な低下により、2030年代半ばには「宇宙データセンターの運用コストが地上と同等になる」とGoogleは予測する。

しかし、論文の最後にはこう記されている。「重大な工学的課題が残されている。熱管理、高帯域幅の地上通信、軌道上システムの信頼性などだ」

この一文が示唆するのは、宇宙データセンターがまだ「わからないこと」だらけの領域だという事実だ。

実証済みの失敗:HPEの宇宙実験が示した現実

宇宙でのコンピューター運用は、すでに試されている。2017年、HPE(Hewlett Packard Enterprise)は国際宇宙ステーション(ISS)にスーパーコンピューターを送り込み、標準的なハードウェアが宇宙環境で機能するかを検証した。

結果は厳しいものだった。TechTargetの報道によれば、システムは1年半オンライン状態を維持したものの、20個のSSD(ソリッドステートドライブ)のうち9個が故障した。故障率45%という数字だ。

原因は「宇宙放射線」による「ビットフリップ」現象だ。銀河宇宙線や太陽フレアから放出される高エネルギー粒子が電子機器に衝突すると、メモリビットが「0」から「1」へ、あるいはその逆に反転してしまう。これを「シングルイベントアップセット(SEU)」と呼ぶ。

Physics Worldの研究報告によれば、地上の海面レベルでも256MBのRAMで月に1回のペースでSEUが発生するが、宇宙では数百倍の頻度になる。2008年にはカンタス航空の旅客機がSEUによって突然降下し、12人が重傷を負う事故も起きた。

対策として「放射線耐性チップ(Rad-hard)」が存在するが、Data Center Knowledgeの分析によれば、そのコストは通常のプロセッサの約8倍、1個あたり20万ドル(地上では300ドル)に達する。

ここで疑問が生じる。チップコストが8倍なら、本当に2030年代に「地上と同等のコスト」は実現可能なのか?

未解決の課題①:デブリとの衝突リスク

宇宙は、見た目ほど空っぽではない。NASAのデータによれば、現在、低軌道(LEO)には10cm以上の物体が約3万4000個、1-10cmが90万個、1mm以上が1億2800万個存在する。これらはすべて平均速度10km/s(時速3万6000km)、つまり弾丸の10倍以上の速度で飛行している。

IEEE Spectrumの報道によれば、SpaceXのStarlink衛星は2025年前半だけで14万4404回の衝突回避機動を実行した。6ヶ月で数分に1回のペースだ。

さらに深刻なのは「ケスラー症候群」と呼ばれるリスクだ。ウィキペディアの解説によれば、これは軌道上の物体密度が臨界点を超えると、衝突が連鎖反応を起こし、特定の軌道帯が使用不能になる現象を指す。2024年8月には、中国のロケットが軌道上で分解し700個以上の破片を生成。このような事象が積み重なれば、軌道環境は急速に悪化する。

Googleが計画する80機の衛星データセンターは、どれだけの頻度で衝突回避機動を行う必要があるのか?その燃料コストは?データセンター自体が破損した場合、さらなるデブリを生成し、問題を悪化させるのではないか?

これらの問いに対する明確な答えは、まだ存在しない。

未解決の課題②:メンテナンスの経済性

地上のデータセンターでは、日常的なメンテナンスが不可欠だ。ホコリを掃除し、故障したハードディスクを交換し、ケーブルを点検する。これらの作業なしに、データセンターは長期間稼働できない。

しかし、宇宙ではこれらすべてが不可能だ。

MIT Technology Reviewの分析によれば、「宇宙での修理は極めて困難だ。ロボット技術や自動化技術があっても、遠隔で修理できることには限界がある」という。修理クルーを派遣する選択肢もあるが、「複雑でコストも高く、数十年先まで大きな負担となる」と専門家は指摘する。

このため、宇宙データセンターの設計では、The Next Zoneの報告によれば、10倍の冗長性(バックアップシステム)が必要とされる。つまり、同じ処理能力を得るために、10倍のハードウェアを打ち上げなければならない。

ここでまた疑問が浮かぶ。打ち上げコスト、放射線耐性チップのコスト、10倍の冗長性を含めた総所有コスト(TCO)は、本当に地上データセンターより安くなるのか?

Advertisement

300x250

答えは出ていない。

未解決の課題③:極端な温度変化と熱管理

宇宙環境のもう一つの厄介な特性が、極端な温度変化だ。

TechTargetの技術解説によれば、宇宙では日光が当たる場所と影の間で数百度の温度差が生じる。具体的には-168°C(-270°F)から+121°C(+250°F)の間で変動する。

さらに、無重力環境では対流が機能しないため、通常の冷却システムは使えない。国際宇宙ステーション(ISS)では、アンモニアを充填したラジエーターで熱を放出する方式を採用している。

AI処理を担うTPUやGPUは、膨大な熱を発生する。この熱を、真空環境でどう効率的に放出するのか?Google自身も論文で「熱管理」を「重大な工学的課題」として明記しているが、具体的な解決策は示されていない。

「わからない」を前提に進むべき理由

Googleだけではない。元記事によれば、Elon MuskのSpaceXとStarlink、Nvidiaとスタートアップ企業Starcloudも宇宙データセンター計画を進めている。各社は「実現可能だ」と主張するが、実証データは限定的だ。

技術革新は急速に進んでいる。SpaceXはロケット打ち上げコストを劇的に削減し、再利用可能なロケットを実現した。しかし、宇宙環境の予測不可能性は変わらない。放射線、デブリ、温度変化、メンテナンス不能という条件は、今も昔も変わらず存在する。

冷静な検証なしに巨額投資を進めれば、壮大な失敗に終わる可能性がある。必要なのは、実証データの透明な公開と、リスクを正直に評価する姿勢だ。

宇宙データセンターは「夢物語」ではなく、実現可能な未来かもしれない。しかし、楽観論だけで突き進むには、あまりにも多くの未知が残されている。

技術的ブレークスルーか、予想外の壁か?答えが出るのは、2027年のGoogleの試験機打ち上げ後だ。

Source: The Guardian ほか

Share: