

PCパーツ・ガジェット専門
自作PCパーツやガジェットの最新情報を発信中。実測データに基づいた公平なランキングをお届けします。
2026年現在、自宅でのサーバー構築(ホームラボ)は、単なる実験の場を超え、エンジニアのスキルアップや、プライベートクラウドの構築、あるいはAI学習用リソースの管理といった、実用的なインフラ基盤へと進化しています。その中核を担うのが、オープンソースの仮想化プラットフォーム「Proxmox Virtual Environment (Proxm/VE)」です。
かつては、サーバーを複数台用意して冗長構成(冗長化)を組むには、莫大なコストとネットワーク知識が必要でした。しかし、中古のワークステーションや、低消費電力なミニPC、そして進化を遂げた高速なネットワークインターフェース(NIC)の普及により、個人レベルでも「3ノード構成のHA(High Availability:高可用性)クラスタ」を構築することが現実的となっています。
本記事では、Proxmox VE 8.4から次世代の9系を見据えた、3ノードクラスタ構築の完全ガイドをお届けします。Ceph(セフ)を用いた分散共有ストレージの構築、ZFS(ゼットエフエス)によるデータ保護、そして、運用コストを左右する消費電力の試算まで、プロフェッショナルな視点で詳細に解説します。
Proxmox VEで「クラスタ」を構築する最大の目的は、特定の物理サーバーが故障しても、その上で動いていた仮想マシン(VM)やコンテナ(LXC)を、他の生きているノードで自動的に再起動させる「HA(High エー・エイチ)」を実現することにあります。この仕組みを実現するためには、ノード間の「合意」が不可欠です。
ここで重要となるのが「クォーラム(Quorum:定足数)」という概念です。クラスタ内のノードが、自分たちが「正常なネットワークに属しているか」を判断するための投票権を指します。3ノード構成の場合、過半数である「2ノード」が生存していれば、クラスタは継続可能と判断されます。もし、ノードが2台に減り、さらに1台が停止して1台のみになると、クォーラムが失われ、スプリットブレイン(Split-brain:ネットワーク分断により、どちらのノードが正解か分からなくなる状態)を防ぐために、残ったノードもサービスを停止させる挙動をとります。
そのため、自宅構築において「なぜ3ノードなのか」という問いへの答えは、このクォーラムを維持し、かつ、1台がメンテナンスや故障で停止しても、残り2台で「過半数」を維持できる最小構成だから、という技術的な必然性に基づいています。2ノード構成では、1台が落ちるとクォーラムが維持できなくなるため、別途「QDevice」と呼ばれる仲裁用の軽量なデバイス(Rasp社製 Raspberry Pi 5など)を用意する必要があります。
3ノードクラスタの価値を決定づけるのは、ストレージの設計です。主に「Cephを用いた共有ストレージ構成」と「ZFSレプリケーションを用いたローカルストレージ構成」の2つのアプローチがあります。
Cephは、各ノードのローカルディスク(OSD:Object Storage Daemon)をネットワーク越しに束ね、仮想的な一つの巨大な共有ストレージを作る技術です。Cephの最大の特徴は、データの複製(レプリカ)をノード間で自動的に保持することです。例えば、3レプリカ設定にすれば、1台のノードのディスクが物理的に破壊されても、他の2台にデータが残っているため、サービスを停止することなく復旧が可能です。ただし、Cephの運用には、最低でも10GbE(10ギガビットイーテルネット)クラスの高速なネットワーク帯域が必須となります。
一方で、ネットワーク帯域を節約したい、あるいは安価な構成にしたい場合は、ZFSレプリケーションが有効です。これは、各ノードのローカルディスク(ZFSファイルシステム)に対し、定期的にスナップショットを作成し、他のノードへ差分を転送する仕組みです。Cephのような「常に全ノードが同期している」状態ではありませんが、設定したスケジュール(例:5分ごと)に基づいた同期が行われるため、運用負荷は低くなります。
以下の表に、それぞれのストレージ方式の特性をまとめました。
| 特徴 | Ceph (Distributed Storage) | ZFS Replication (Local Storage) |
|---|---|---|
| データの一貫性 | リアルタイム(強い整合性) | スケジュールに基づく(最終的な整合性) |
| 必要ネットワーク | 10GbE以上を強く推奨 | 1GbE〜2.5GbEでも運用可能 |
| 故障時の挙動 | 瞬時に自動フェイルオーバー | 最後に同期された時点までデータが戻る |
| 構成の複雑さ | 高い(OSD、MON、MGRの管理が必要) | 低い(Proxmox標準機能で完結) |
| 推奨ディスク | NVMe/SSD (書き込み耐性が重要) | HDD/SSD (容量重視でも可) |
| スケーラビリティ | ノード追加により容量・性能が向上 | ノードごとにディスク容量が独立 |
自宅ラボの構築には、予算に応じた戦略的なパーツ選びが求められます。ここでは、コストを抑えた「エントリー構成(30-50万円帯)」と、性能を追求した「ハイエンド構成(100万円帯)」の2つの具体例を提示します。
エントリー構成では、中古のサーバー機(Dell PowerEdge R640やHP ProLiant DL380 Gen10など)を活用し、ネットワークは2.5GbEやSFP+ 10GbEの安価なパーツを組み合わせます。CPUはIntel Xeon Scalable(第1世代/第2世代)やAMD EPYCの旧世代を使用することで、メモリ容量を確保しつつコストを抑えますなえます。
ハイエンド構成では、最新のAMD EPYC 9004シリーズ(Genoa)や、Intel Xeon Sapphire Rapidsを搭載した、電力効率と計算能力に優れた新世代サーバーを構築します。ストレージには、Samsung PM9A3などのエンタープライズ向けNVMe SSDを大量に投入し、ネットワークは25GbE(SFP28)を採用することで、Cephの再構築(Rebalance)時でもIOPSの低下を最小限に抑えることが可能です。
| コンポーネント | エントリー構成 (30-50万円) | ハイエンド構成 (100万円〜) |
|---|---|---|
| CPU (Node数×3) | Intel Xeon Silver 4114 (10C/20T) | AMD EPYC 9354 (32C/64T) |
| RAM (Node数×3) | 64GB DDR4 ECC Registered | 256GB DDR5 ECC Registered |
| Storage (Ceph OSD) | 1.92TB SATA SSD (3基/Node) | 3.84TB NVMe Gen5 SSD (4基/Node) |
| Network (NIC) | Intel X550-T2 (10GbE RJ4SO) | Mellanox ConnectX-6 (25GbE SFP28) |
| Switch | MikroTik CRS317-1G-16S+RM | Ubiquiti UniFi EnterpriseXG 24 |
| Chassis/Server | 中古 Dell R640 / R740 | 自作 EPYC搭載ワークステーション |
| 推定総予算 | 約450,000円 | 約1,250,000円 |
Cephクラスタにおいて、ネットワークは「バックエンド・ストレージ・ネットワーク」と「フロントエンド・クライアント・ネットワーク」に分けて考える必要があります。
バックエンド・ネットワーク(Ceph Replicated Traffic)は、ノード間でデータのレプリカを同期するための通信路です。ここに遅延(レイテンシー)が発生すると、書き込み操作(Write I/O)の完了待ちが発生し、仮想マシンのパフォーマンスが劇的に低下します。2026年の標準としては、最低でも10GbE、できれば25GbEの帯域を、専用の物理スイッチまたはVLANで分離することが推奨されます。
フロントエンド・ネットワークは、ユーザーが仮想マシンにアクセスするための通信路です。こちらは2.5GbEや10GbEで十分な場合が多いですが、バックエンドとの帯域競合を避けるため、LACP(Link Aggregation Control Protocol)を用いたボンディング設定、あるいは物理的なNICの分離が理想的です。
以下の表に、使用するネットワークインターフェースのスペック比較をまとめました。
| インターフェース規格 | 実効帯域 (目安) | レイテンシ特性 | コスト感 | 推奨用途 |
|---|---|---|---|---|
| 1GbE (RJ45) | ~940 Mbps | 高い | 極めて低い | 管理用(Management)のみ |
| 2.5GbE (RJ45) | ~2.3 Gbps | 中程度 | 低い | ZFSレプリケーション用 |
| 10GbE (SFP+/RJ45) | ~9.4 Gbps | 低い | 中程度 | Ceph OSD/Client用 |
| 25GbE (SFP28) | ~23 Gbps | 極めて低い | 高い | 大規模Ceph/NVMe-oF用 |
3ノード構成を24時間365日稼働させる場合、最も懸念されるのが電気代です。サーバーはアイドル時でも一定の電力を消費するため、構成によっては月額の電気代が無視できない金額になります。
一般的な中古サーバー(Dell R640等)を3台稼働させる場合、1台あたりのアイドル消費電力は、CPUやディスク構成によりますが、約60W〜10着程度を見込む必要があります。負荷がかかった状態(Load時)では、150W〜250W程度まで上昇します。
以下の条件で試算します。
| 構成タイプ | 1台あたりの平均消費電力 | 3台合計の月間消費電力量 | 3台合計の月間電気代 |
|---|---|---|---|
| 省電力構成 (ミニPC/NUC) | 25W | 54 kWh | 約 1,674 円 |
| 標準構成 (中古サーバー) | 120W | 259.2 kWh | 約 8,035 円 |
| ハイパフォーマンス構成 | 250W | 540 kWh | 約 16,740 円 |
※注意:この試算には、ネットワークスイッチやルーター、エアコンによる冷却コストは含まれていません。実際の家庭での運用では、サーバーの熱が室温を上昇させるため、空調コストを含めると、上記の金額の1.5倍〜2倍程度を見込んでおくのが安全です(特に夏場)。
ここからは、具体的な構築手順の概要を解説します。
まず、3台のノードにそれぞれOSD(ディスク)を搭載し、物理的に接続します。NICは、管理用(Management)とCeph用(Corosync/Cluster)の2系統を確保します。各ノードのBIOS/UEDR設定では、ECCメモリの有効化、Virtualization Technology (VT-x/AMD-V) の有効化、およびPCIeのGen設定を適切に行いますってください。
各ノードにProxmox VEのISOイメージを使用してインストールを行います。この際、各ノードに固定IPアドレスを割り当てることが極めて重要です。IPアドレスの設計例は以下の通りです。
192.168.10.11192.168.10.12192.168.10.13192.168.20.x19GB.168.30.x1台目のノードで「Create Cluster」を実行し、クラスタ名を定義します。その後、作成された「Join Information」をコピーし、残りの2台のノードのWeb GUIから「Join Cluster」を選択して、認証情報を入力することで、3ノードの物理的な連結が完了します。
ProxmoxのGUIからCephサービスをインストールします。
db/wal(書き込みログ)を高速なNVMe上に配置し、データ本体を大容量のSSDに配置する「Hybrid構成」にすると、コストとパフォーマンスのバランスが良くなります。Q1: ノードを2台だけで構築することは可能ですか? A: 技術的には可能ですが、推奨しません。2台構成では、1台が停止した際にクォーラム(過半数)を維持できず、残った1台も「孤立」と判断されて停止してしまいます。2台構成にする場合は、別途Raspberry Piなどの軽量なデバイスを「QDevice」として用意し、3つ目の投票権を持たせる必要があります。
Q2: 家庭用SSD(Samsung EVOシリーズ等)をCephに使っても大丈夫ですか? A: 短期的には動作しますが、長期的には推奨しません。Cephは頻繁に書き込みが発生するため、コンシューマー向けSSDでは「書き込み寿命(TBW)」を早期に使い果たす恐لةがあります。可能な限り、Samsung PM9A3やMicron 7450 PROなどの、エンタープライズ向け(書き込み耐性が高い)SSDを使用してください。
Q3: 1GbEのネットワークだけでCephは動きますか? A: 動作はしますが、非常に低速です。Cephはノード間でのデータ同期(Replication)に大量の帯域を消費します。1GbEでは、1台のノードが故障した際の「データの再構築(Rebalancing)」に数日を要し、その間、全体のシステムパフォーマンスが極端に低下します。最低でも10GbEの導入を強く推奨します。
Q4: ZFSレプリケーションとCeph、どちらを選ぶべきですか? A: 予算とネットワーク環境に依存します。10GbE以上の高速なネットワークがあり、予算に余裕があるなら、可用性の高いCephが最適です。一方、1GbE/2.5GbE環境で、コストを抑えつつ、数分〜数十分程度のデータ損失(RPO)を許容できるのであれば、ZFSレプリケーションの方が構築・運用ともに容易です。
Q5: ECCメモリは必須ですか? A: データの整合性を重視するサーバー用途では、強く推奨します。特にZFSやCephのような、メモリ上のキャッシュを頻繁にディスクへ書き出すファイルシステムを使用する場合、宇宙線などの影響によるビット反転(Bit Flip)が、ファイルシステムの破損やデータの消失に直結するリスクがあるためです。
Q6: バックアップはどうすればよいですか? A: 「Proxmox Backup Server (PBS)」の導入を検討してください。PBSは、重複排除(Deduplication)機能に優れており、大量のVMバックアップを効率的に保存できます。クラスタとは別の物理的なマシン(またはNAS)に構築することで、クラスタ全体の障害に備えることができます。
Q7: 構築にどれくらいの学習コストがかかりますか? A: Linuxの基礎知識(コマンドライン操作、ネットワーク設定、ストレージ管理)がある程度あれば、ProxmoxのGUIは非常に直感的であるため、数週間で基本操作は習得可能です。ただし、Cephのトラブルシューティングや、ネットワークの高度な設計には、数ヶ月から数年の経験が必要となる場合があります。
Proxmoxを用いた3ノードクラスタの構築は、家庭内に究極の可用性と柔軟性を持つプライベートクラウドを構築する、エンジニアにとって最高のプロジェクトです。
本記事の要点は以下の通りです:
このガイドを参考に、ぜひあなただけの強力なホームラボを構築してください。
Proxmox VEのクラスターHA(High Availability)構成ガイド。3ノードクラスター構築、Ceph共有ストレージ、フェイルオーバー設定、監視方法を解説。
無料の仮想化プラットフォームProxmox VEのインストールと基本設定を解説。VM・LXCコンテナの使い分け、ストレージ構成を紹介。
Ceph分散ストレージを自宅ラボで構築する方法。アーキテクチャ解説から3ノード構成のセットアップまで。
複数の仮想マシンを同時稼働させるホームラボPC構成を提案。Proxmox VE/VMware ESXi向けのCPU・メモリ・ストレージ選定とネットワーク設計を詳しく解説。
自宅サーバー向けPC。Proxmox VE、Unraid、TrueNAS、Docker、Portainer、Traefik、Authelia、CrowdSec、Tailscale構成を解説。
TerraformでホームラボのインフラをIaC管理するガイド。Proxmox VM/LXC、Docker、DNS設定をコードで自動構築・管理する方法を実践的に解説。
コスパノートPC
UGREEN NAS DH4300 Plus 4ベイNASバンドル、2.5Gbps USB LAN変換アダプター付属 、 8GB LPDDR4X メモリ(拡張不可) 2.5GbE 自動バックアップ NFCワンタッチ接続 AIアルバム 家庭/オフィス向け ネットワークストレージ2年保証( ハードドライブ付属なし)
¥56,123nas
Seagate IronWolf 3TB NAS 内蔵ハードドライブ CMR 3.5インチ SATA 6GB/秒 5,400RPM 256MBキャッシュ RAIDネットワーク接続ストレージ用 3年間のレスキューサービス (ST3000VN006)
¥38,107nas
QNAP(キューナップ) TS-h686 ZFSベースのQuTS hero OSを搭載 リアルタイムバックアップと仮想マシンアプリ用に設計されたXeonプロセッサ採用の企業向け4ベイ+2ベイNAS
¥260,690SSD
Aiffro K100 All-SSD NASストレージ | Intel N100 | 8GB LPDDR5 4800MHz | 4ベイ 2280 M.2 SSD 最大16TB | 2.5GbE RJ45 | ミニポケットNAS | Truenas Freena Unraid Windows OMV
¥87,129nas
【Amazon.co.jp 限定】QNAP (キューナップ) NAS キット 8ベイ 中小企業向け TS-873A /AZ 2.5GbE対応 PCIeスロット搭載 6ヵ月延長保証 /国内正規代理店品
¥263,435ガジェット
UGREEN NAS DH4300 Plus 4ベイNASバンド M.2 SSD 外付けケース付属 8GB LPDDR4X メモリ(拡張不可)2.5GbE 自動バックアップ NFCワンタッチ接続 AIアルバム 家庭/オフィス向け 2年製品保証(HDD付属なし)
¥56,214この記事に関連するミニPC(ホームラボ向け)の人気商品をランキング形式でご紹介。価格・評価・レビュー数を比較して、最適な製品を見つけましょう。
📝 レビュー募集中
ミニPC(ホームラボ向け)をAmazonでチェック。Prime会員なら送料無料&お急ぎ便対応!
※ 価格・在庫状況は変動する場合があります。最新情報はAmazonでご確認ください。
※ 当サイトはAmazonアソシエイト・プログラムの参加者です。