


PCパーツ・ガジェット専門
自作PCパーツやガジェットの最新情報を発信中。実測データに基づいた公平なランキングをお届けします。
近年、自宅サーバーや小規模事業所(SME)におけるネットワーク環境は劇的な進化を遂げています。2025 年以降、一般的なオフィス PC や NAS に 2.5GbE ポートが標準搭載されるようになり、10GbE の利用もかつてないほど身近な存在となりました。しかし、単に高速な NIC(ネットワークインタフェースカード)を搭載しただけでは、ボトルネックは解消されないケースが多々あります。例えば、Intel I226-V を 1 枚装着したとしても、理論上限である 2.5Gbps の帯域をフル活用して複数の同時接続処理を行うことは困難です。また、単一リンクの物理的障害に対し、従来のネットワーク設定では復旧に数分を要するリスクがありました。
このような課題を解決するのが「ネットワークボンディング(Network Bonding)」、通称リンクアグリゲーションです。これは複数の物理的な Ethernet ポートを 1 つの論理的なポートとして機能させる技術であり、帯域幅を集約して高速化を図るだけでなく、冗長性を持たせてシステム全体の信頼性を担保します。特に LACP(Link Aggregation Control Protocol)に対応した設定は、スイッチ側と協調して最適なリンク状態を維持できるため、現代のネットワークインフラにおいて必須スキルとなっています。
本記事では、自作 PC やホームラボ、小規模サーバー環境を構築する中級者向けに、LACP を用いたネットワークボンディングの完全な設定ガイドを提供します。2026 年時点での最新規格やハードウェアを考慮し、Intel I226-V(2.5GbE)や Intel X710-DA2(10GbE SFP+)、そして Mellanox ConnectX-4 Lx のような高性能 NIC を対象機器として選定しました。また、Ubiquiti USW-Pro-24-PoE や TP-Link TL-SG3428X といった人気マネージドスイッチとの連携設定も詳述します。Linux(Netplan, systemd-networkd)から Windows の NIC Teaming まで、主要 OS での実装手順を段階的に解説し、Proxmox VE における VLAN ブリッジとの共存設定についても言及します。
ネットワークボンディングは、複数の物理ネットワークインターフェースを論理的に結合し、単一の IP アドレスとして動作させる技術です。この仕組みを理解するためには、従来の単一リンク構成との違いを明確にする必要があります。通常、PC は 1 つの LAN ケーブルを介いてスイッチまたはルーターと通信しますが、ボンディングを行うことで、2 本以上のケーブルが同時にデータ転送に利用されるようになります。これにより、理論上のスループットは各リンクの速度を合算した値まで向上します。例えば、Intel I226-V のポートを 2 枚使用して LACP モードで結合すれば、最大で 5Gbps(2.5GbE × 2)のスループットが期待可能です。
もう一つの重要な要素は冗長化です。通常、1 つの NIC またはケーブルに物理的な損傷が生じるとネットワーク接続は切断されます。しかし、ボンディング設定を施せば、1 つのリンクが障害を起こしても、残りのリンクに通信が自動的に切り替わります。これを「フォールトトレランス」と呼びます。これにより、サーバーの稼働率(Uptime)を最大化でき、運用上のリスクを劇的に低減できます。特に 2026 年現在、ネットワーク機器の更新サイクルが早まっている中、メンテナンス中の接続断を防ぐ意味でもこの機能は不可欠です。
しかし、単なるケーブルの束ねではなく、適切なプロトコルと設定が必要です。LACP(802.3ad)は動的なリンクアグリゲーションプロトコルであり、端点間で自動的なネゴシエーションを行います。これに対して静的なアグリーレーション(Active-Backup や Mode 4 の非 LACP 設定など)とは異なり、スイッチ側でポートグループを認識させる必要があります。設定ミスが生じると、ループエラーやパケットロスが発生し、ネットワーク全体が不安定化するリスクがあります。そのため、本ガイドでは安全かつ確実な設定手順と、トラブルシューティングのための検証コマンドについても重点的に解説します。
高品質なネットワークボンディングを実現するためには、対応する NIC とスイッチの選定が極めて重要です。2026 年時点でのホームラボや小規模環境で一般的かつ推奨される構成を以下にまとめます。まず NIC(ネットワークインタフェースカード)についてですが、Intel I226-V はコストパフォーマンスに優れ、第 13/14 世代 Core プロセッサや Xeon E-2000 シリーズに内蔵されていることが多いため、最も手軽な導入先です。ただし、2.5GbE のみという点には注意が必要です。
より高い帯域を要求される環境では、Intel X710-DA2(10GbE SFP+ デュアルポート)が推奨されます。この NIC は 10Gbps を 2 本持っており、LACP で結合すれば最大 20Gbps のスループットが可能ですが、SFP+ スイッチや SFP+ トランスシーバが必要です。また、Mellanox ConnectX-4 Lx も高性能な選択肢です。これは RDMA(Remote Direct Memory Access)にも対応しており、仮想化環境におけるオーバーヘッドを削減できますが、ドライバの互換性確認が必要となります。
スイッチ側では、LACP(IEEE 802.3ad)をネイティブにサポートし、かつ管理機能(Web GUI や CLI)が充実しているモデルを選ぶべきです。Ubiquiti の USW-Pro-24-PoE は、Pro- シリーズとして L2/L3 機能を備え、LACP グループの作成や VLAN 設定が直感的に行えます。TP-Link の TL-SG3428X はコストパフォーマンスが高く、L2+ マネージドスイッチとして LACP を安価に実現できます。NETGEAR の GS724TPv3 も PoE 供給機能を備えつつ LACP に対応しており、IP カメラや AP の給電が必要な環境で有用です。
| ハードウェア種別 | 推奨モデル (2026 年版) | スループット特性 | 適合する用途 |
|---|---|---|---|
| NIC (PCIe) | Intel I226-V | 2.5GbE x 2 = 5Gbps | ホーム NAS、一般的なファイルサーバー |
| NIC (PCIe) | Intel X710-DA2 | 10GbE SFP+ x 2 = 20Gbps | 高負荷データベース、動画編集用ストレージ |
| NIC (PCIe) | Mellanox ConnectX-4 Lx | 10/25GbE SFP28 | 仮想化クラスタ、RDMA対応アプリケーション |
| Switch | Ubiquiti USW-Pro-24-PoE | PoE+ / L2/L3 / LACP | 小規模オフィス、AP 給電兼用環境 |
| Switch | TP-Link TL-SG3428X | L2+ マネージド / LACP | コスト重視のホームラボ、ファイル転送専用 |
| Switch | NETGEAR GS724TPv3 | PoE / LACP / Web 管理 | IP カメラ監視システム兼用ネットワーク |
このように、予算と性能要求に応じてハードウェアを組み合わせることが、安定した LACP 環境構築の第一歩となります。特に X710-DA2 を使用する際は、SFP+ モジュールとして Finisar や Intel 純正の 10G SFP+ トランスシーバを使用することで、信号品質の劣化を防ぎ、エラー率を最小限に抑えることができます。また、Mellanox ConnectX-4 Lx の場合、OpenFabrics Enterprise Distribution (OFED) ドライバのインストールが必須となるため、OS 選定時にこれを考慮する必要があります。
Linux におけるネットワークボンディングには、複数のモード(設定方法)が存在します。それぞれに特性があり、用途によって最適な選択が異なります。初心者にとって最も重要なのは「帯域幅集約」と「冗長性」のバランスです。ここでは主要な 6 つのモードについて、技術的な詳細を交えて解説します。
Mode 0 (balance-rr) はラウンドロビン方式で、パケットを順に各リンクに送出します。最も帯域集約効果が高い理論値ですが、スイッチ側での順序制御が難しく、実環境ではパケットの入れ替わりが発生しやすく、TCP セッションにおいて再送エラーの原因となる可能性があります。そのため、2026 年現在でもこのモードを使用する場合は、スイッチ側で特定のハッシュポリシーを設定する必要があります。
Mode 1 (active-backup) は冗長化に特化したモードです。通常はアクティブなリンクが 1 つのみ動作し、障害発生時にバックアップリンクへ自動的に切り替わります。帯域幅の集約効果はありませんが、安定性は極めて高く、スイッチ側の設定を必要としない(非 LACP)ため、接続先が不明確な環境でも即座に利用可能です。
Mode 2 (balance-xor) は送信元/宛先の MAC アドレスまたは IP アドレスに基づいてリンクを選択します。同じ通信フローは常に同一のリンクを使用するため、順序制御の問題を回避しつつ、複数の同時接続に対して帯域幅を集約できます。ただし、特定の通信フローが集中すると負荷偏りが生じる可能性があります。
Mode 4 (802.3ad LACP) は動的アグリゲーションモードであり、本ガイドの主軸となります。LACP プロトコルによってスイッチと NIC が協調してリンクを管理します。帯域集約と冗長性を両立し、かつ順序制御も適切に行えるため、最も汎用性が高い設定です。ただし、必ず対応するスイッチの LACP ポートチャネル設定が必要です。
Mode 5 (balance-tlb) と Mode 6 (balance-alb) は、LACP を使用しないロードバランディング方式です。Mode 5 は受信側の負荷分散を行いず、Mode 6 は送信・受信双方を制御します。これらはスイッチとの連携が不要な点がメリットですが、現代の管理されたネットワーク環境では Mode 4 (802.3ad) が標準的なベストプラクティスとされています。
| ボンディングモード | LACP 必要 | 帯域幅集約 | 冗長性 | ハッシュポリシー依存度 | 推奨用途 |
|---|---|---|---|---|---|
| Mode 0 (balance-rr) | いいえ | ◎ | ○ | 高 | バッチ処理専用サーバー |
| Mode 1 (active-backup) | いいえ | × | ◎ | なし | 高可用性クラスタ、単一リンク優先 |
| Mode 2 (balance-xor) | いいえ | ◯ | ◎ | 中 | 特定のフロー集中を避ける環境 |
| Mode 4 (802.3ad LACP) | 必須 | ◎ | ◎ | 低 | 汎用、NAS、仮想化ホスト(推奨) |
| Mode 5 (balance-tlb) | いいえ | ◯ | ◎ | 高 | スイッチ非対応時の代替手段 |
| Mode 6 (balance-alb) | いいえ | ◯ | ◎ | 中 | 送信・受信同時分散が必要な場合 |
この表からも明らかなように、LACP を使用できる環境では Mode 4 が最もバランスが良く、スイッチ側との連携により安定した通信フローを維持できます。逆に、スイッチの LACP サポートが不明確な場合は、Mode 1 で安全を優先するか、または switch-side の設定を確認してから進める必要があります。また、Bonding モードは OS 側の設定だけでなく、NIC ドライバやファームウェアとの相性にも影響を受けるため、Intel I226-V や X710 などの特定モデルでは、最新のドライバーがインストールされた状態でテストを行うことを強く推奨します。
Linux 環境での LACP ボンディングは、ディストリビューションによって設定ファイルの形式が異なります。U[bun](/glossary/bun-runtime)tu 24.04 LTS や Debian 12 以降では Netplan がデフォルトの設定管理ツールとして採用されています。Netplan を使用して bond0(論理インターフェース)を作成し、物理インタフェース enp3s0 と enp4s0 をアタッチする設定例を以下に示します。
まず、/etc/netplan/50-bonding.yaml というファイルを作成し、以下の YAML 形式で記述します。ここで重要なのは interfaces の階層構造と、bond-mode: 802.3ad(Mode 4)を指定することです。また、LACP を有効にするには lacp: active を設定する必要があります。
network:
version: 2
renderer: networkd
ethernets:
enp3s0:
dhcp4: no
match:
macaddress: AA:BB:CC:DD:EE:F1
set-name: enp3s0
enp4s0:
dhcp4: no
match:
macaddress: AA:BB:CC:DD:EE:F2
set-name: enp4s0
bonds:
bond0:
interfaces: [enp3s0, enp4s0]
addresses:
- 192.168.1.50/24
nameservers:
addresses: [8.8.8.8, 1.1.1.1]
parameters:
mode: 802.3ad
lacp_rate: fast
mii-monitor-interval: 100
transmit-hash-policy: layer3+4
fail-over-mac-policy: active
この設定では、LACP の伝送速度を fast(1 秒毎)に設定し、応答遅延を検知しやすくしています。また、mii-monitor-interval はリンク状態の監視間隔であり、デフォルトの 10ms から 100ms に変更して負荷を減らした例です。transmit-hash-policy に layer3+4 を指定することで、IP アドレスと TCP/UDP ポート番号を基にパケットを分散させ、フローごとの順序性を保ちつつ帯域を集約します。
設定ファイルを保存後、sudo netplan apply コマンドを実行して適用します。ただし、遠隔接続中に設定ミスが生じるとネットワークが切断されるリスクがあるため、ローカルコンソールアクセスまたは IPMI/BMC 経由での確認が必須です。Netplan の構成が正しく反映されたかを確認するには ip link show bond0 を実行し、ステータスが BONDING であることを確認します。
一方、Red Hat Enterprise Linux (RHEL) や CentOS Stream 9 では systemd-networkd がデフォルトとなるケースがありますが、NetworkManager 経由でも設定可能です。その場合、nmcli connection add type bond コマンドを用いて直接コマンドラインから作成することもできます。Netplan と同様に bond-mode: active-backup または 802.3ad を指定し、リンクをアタッチします。特に systemd-networkd の場合は .netdev ファイルと .network ファイルを分けて設定する必要がありますが、Netplan の YAML 形式の方が可読性が高く、バージョン管理との親和性も高いため、本ガイドでは Netplan ベースの解説を主軸としています。
Windows 環境でのネットワークボンディングは「NIC Teaming(NIC チーミング)」と呼ばれます。標準機能として組み込まれており、PowerShell コマンドや GUI を通じて設定可能です。特に PowerShel を利用することで、スクリプトによる一括管理が可能となり、サーバー運用において効率的です。
まず、PowerShell 管理者権限で実行する New-NetLbfoTeam コマンドを用いてチームを作成します。以下は、Intel I226-V のポートを 2 つ使用して LACP チーム(Mode 4)を構築する例です。
# チーム作成 (名前は Team01)
New-NetLbfoTeam -Name "Team01" -TeamingMode SwitchIndependent -LoadBalancingAlgorithm HyperVPort -NicInterfaceIndex @(2,3) -Confirm:$false
# LACP 有効化とチームメンバー追加(別コマンド)
Add-NetLbfoTeamMember -Team "Team01" -Name "Ethernet 1"
Add-NetLbfoTeamMember -Team "Team01" -Name "Ethernet 2"
# チームの LACP ポリメント設定(スウィッチ依存モード)
Set-NetLbfoTeam -Name "Team01" -TeamingMode SwitchDependent -LoadBalancingAlgorithm HyperVPort
このコマンド列では、まず SwitchIndependent モードで作成し、その後で SwitchDependent に変更することで LACP 設定を有効化しています。ただし、実際の運用ではスイッチ側と NIC ドライバ側の相性を考慮して開始モードを決める必要があります。Intel の NIC の場合、「Intel PROSet for Windows Device Manager」を使用すると、GUI から直感的にチームを設定できます。「チーム名」を入力し、「LACP」を選択し、物理ポートをドラッグ&ドロップでグループ化します。
Windows 11 や Server 2025/2026 では、Hyper-V の仮想スイッチとの連携も強化されています。NIC チーミングを行うことで、仮想マシン間でのトラフィック分散がスムーズに行われ、ホスト OS のネットワークスループット向上に寄与します。また、Windows の NIC チーミングでは「Dynamic」ハッシュアルゴリズム(ポート ID、IP アドレスなどに基づく)を採用しており、Linux とは異なる実装ですが、結果的な動作は類似しています。
設定完了後、Get-NetLbfoTeam コマンドでチーム状態を確認します。ステータスが「Healthy」であることを確認し、各メンバーのリンク速度が 2.5Gbps または 10Gbps で合致しているか確認します。もしエラーが発生する場合、Windows のイベントビューアー(イベントログ > アプリケーションとサービスログ > Microsoft > Windows > Lbfo)を確認することで、原因を特定できます。具体的には「LACP パケットの非同期」や「リンク速度不一致」といったエラーメッセージが出力されるため、これらの情報を元にハードウェア設定を見直す必要があります。
ネットワークボンディングを正しく機能させるためには、PC 側だけでなく、接続先のスイッチ側での LACP ポートチャネル設定が不可欠です。ここでは代表的な 3 つのマネージドスイッチにおける具体的な設定手順を解説します。
Ubiquiti USW-Pro-24-PoE の場合:
Ubiquiti の UniFi Network Application(または Web UI)を使用します。「Settings」>「Networks」>「Bonding」から新しいグループを作成します。ポートチャネル ID を任意に設定し、タイプを「802.3ad (LACP)」に選択します。対象となる物理ポート(例えば Port 1 と Port 2)を追加します。この際、スイッチ側の LACP タイムアウト設定も確認が必要です。デフォルトはスローモードですが、応答待ち時間を短縮したい場合はファストモードに変更可能です。また、ハッシュポリシーとして「src-dst-ip」や「port-id」を選択でき、Linux 側で設定した layer3+4 と整合させることで最適化されます。
TP-Link TL-SG3428X の場合: このスイッチは Web GUI が標準です。「LACP」メニューから「Port Aggregation Group」に移動します。新しいグループを作成し、ポートを指定して追加します。TP-Link の特徴として、LACP のスロー/ファスト設定が明確に切り替え可能な点が挙げられます。また、「Static LAG」というモードも存在しますが、動的なネゴシエーションが必要な場合は必ず「Dynamic LACP」を選択してください。スイッチの CPU リソースとの兼ね合いで、LACP パケット処理負荷が極端になることは稀ですが、ポート数が膨大な場合でも 802.3ad は安定して動作します。
NETGEAR GS724TPv3 の場合: このスイッチは Smart Wizard を使用します。「Link Aggregation」>「Setup」から設定を行います。ポートペアを指定し、「LACP Mode」にチェックを入れます。NETGEAR 製品では、PoE 供給が必要なポートであっても LACP に影響しない設計となっており、IP カメラや AP の給電とデータ転送を同時にサポート可能です。ただし、Netgear の場合、特定のファームウェアバージョンで LACP フラグメントの処理にバグが存在するケースがあるため、最新ファームウェアへの更新が推奨されます。
| スイッチモデル | 設定 UI 名称 | LACP タイプ指定場所 | ハッシュポリシー調整 | PoE 影響度 |
|---|---|---|---|---|
| Ubiquiti USW-Pro-24-PoE | UniFi Network App / Web | Settings > Networks > Bonding | Advanced Tab (Hash Policy) | 低 (自動検知) |
| TP-Link TL-SG3428X | Web GUI (LACP Menu) | Port Aggregation Group | Dynamic/LAG Type Select | 中 (VLAN 設定要確認) |
| NETGEAR GS724TPv3 | Smart Wizard | Link Aggregation Setup | Auto / Manual Selection | 低 (ポート分離可) |
これらのスイッチ設定は、PC 側の bond0 インターフェース設定と対応させる必要があります。例えば、Linux で lacp_rate: fast を指定した場合、スイッチ側も同様に LACP パケット送信間隔を短く設定することで、リンク障害の検知を高速化できます。また、ポートチャネルに属するすべてのリンクが同じ速度(2.5GbE または 10GbE)であることが必須です。異なる速度の NIC を同一チームに含めると、スループット低下やエラーの原因となります。
Proxmox VE は、ホームラボや中小企業向け仮想化環境として非常に人気があります。しかし、この環境ではネットワーク設定が複雑になりがちです。特に物理 NIC を直接使用するのではなく、Linux Bridge や OVS(Open vSwitch)を介して仮想マシンに割り当てる構成において、ボンディングをどう扱うかが鍵となります。
Proxmox での標準的なベストプラクティスは、「ボンダリングされたインターフェースを作成し、その上にブリッジを構築する」または「ブリッジ上でボンダリング設定を行う」のどちらかです。ただし、2026 年時点では、Netplan または /etc/network/interfaces で物理 NIC を bonded にしてから、Proxmox の Web UI で「Linux Bridge」を作成し、そのブリッジを VM へ割り当てる構成が最も安定しています。
具体的には、まず Proxmox ホスト上で Linux の bond0 インターフェース(Mode 4 LACP)を設定します。この bond0 に IP アドレスを付与せず、IP は VM や管理ネットワークに任せる設定が可能です。次に、Proxmox Web UI の「Datacenter」>「Node」>「Network」で新しいブリッジインターフェースを作成し、「Linux Bridge」と選択します。このブリッジの親デバイスとして、先ほど作成した bond0 を指定します。
さらに、VLAN 対応が必要な場合、bond0 の上に VLAN ブリッジを追加するか、VM のネットワーク設定で VLAN ID を指定するかの選択肢があります。近年の環境では、L2 トンネリングや VXLAN など高度な仮想化技術も普及しています。しかし、シンプルに VLAN 分離を行いたい場合は、Proxmox のブリッジ設定で tag: 10 のようなタグを付与し、スイッチ側でも同じ VLAN ポートを LACP チームとして構成することで、論理的なネットワークセグメントを維持できます。
この構成により、物理的な NIC 故障時には bond0 が自動的に切り替わり、ブリッジ上の VM 接続も継続されます。ただし、Proxmox のアップデートや再起動時にネットワーク設定が破損するリスクがあるため、Netplan や /etc/network/interfaces のバックアップを常に保持しておくことが推奨されます。また、LACP を使用する場合、VM 間の通信はすべて bond0 を経由するため、物理 NIC の負荷分散ロジックに依存します。
設定完了後も、ネットワークが正常に動作しているかを確認する必要があります。Linux 環境では ip link コマンドや cat /proc/net/bonding/bond0 が最も強力な診断ツールです。/proc/net/bonding/bond0 を実行すると、bond0 の現在のステータス、各メンバーのリンク状態(Up/Down)、LACP パケット受信数などがテキスト形式で表示されます。
例えば、以下のような出力が得られた場合、両方の NIC が正常に LACP に参加していることを示します。
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer3+4 (1)
MII Status: up
...
Link Failure Count: 0
Port Status: Up
Speed: 2500 Mb/s
LACP State: Master
この出力から、Link Failure Count がゼロであることが確認できれば、リンク障害は発生していないと判断できます。もし Slave Interface のステータスが Link failure と表示されている場合、NIC ドライバの問題やケーブルの接続不良が疑われます。
Windows 環境では Get-NetLbfoTeam コマンドでチームの状態を把握します。また、Get-NetAdapter -Name "Team01" | Get-NetAdapterBinding を使用して、各チームメンバーのバインディング状態を確認できます。エラーログに関しては、イベントビューアーの「システム」および「アプリケーション」ログの中に「Lbfo」カテゴリで記録されたイベントを精査します。
ネットワークパケットのトラフィック分散が正しく行われているか確認するには iftop や nload などのツールを使用し、各 NIC の RX/TX 量が均等に振り分けられているか監視します。もし特定の NIC にのみ負荷が集中している場合、ハッシュポリシーの設定を見直す必要があります。さらに、スイッチ側ではポートチャネルのステータスを確認するコマンド(例:Ubiquiti の show lag)を実行し、LACP 接続が確立されているか、そしてすべてのリンクが「Up」であるか確認します。
2026 年現在では、ネットワーク診断のための AI ツールやクラウド監視サービスも普及していますが、基本的な CLI コマンドによる手動確認は依然として不可欠です。特に LACP のネゴシエーション失敗時、スイッチ側のログと OS 側のログを照合することで、問題の所在を特定できます。「スイッチ側のポートがシャットされている」あるいは「LACP タイムアウト設定の不整合」といったエラーは、CLI で詳細を確認しない限り表面化しません。
本記事では、ネットワークボンディングと LACP の完全なガイドとして、概念から具体的な設定手順までを網羅的に解説しました。2026 年時点のネットワークインフラにおいて、帯域幅集約と冗長化は単なる「オプション」ではなく、「必須機能」として確立されています。
以下に記事全体の要点を箇条書きでまとめます:
lacp_rate: fast の使用が推奨される。New-NetLbfoTeam コマンドまたは Intel PROSet GUI を活用して NIC チーミングを実現する。Hyper-V との連携を考慮すること。cat /proc/net/bonding/ や Get-NetLbfoTeam コマンド、およびイベントログの確認により、リンクステータスとエラーを常に監視するべきである。このガイドに基づき、自身の環境に合わせて適切な設定を行うことで、高速かつ堅牢なネットワークインフラの構築が可能となります。特に 2.5GbE や 10GbE の普及が進む中、単一リンクの限界を超えるための知見として、本記事をぜひ参考にしてください。
Q1: LACP を設定すると PC が再起動する必要がありますか?
A: 基本的には不要ですが、Netplan や systemd-networkd を変更した直後は sudo netplan apply で設定を反映させる必要があります。Windows の場合は NIC チーミング作成後に「有効化」状態になるまで数秒の待ち時間が必要になる場合があります。
Q2: Intel I226-V と X710-DA2 を同じチームにできますか? A: 理論上は可能ですが、推奨されません。速度が異なる(2.5GbE vs 10GbE)ため、スループットが低い方の NIC に制限され、設定の複雑さが増すだけでメリットがありません。同種の NIC で設定してください。
Q3: LACP を使用しない「Mode 1 (active-backup)」との違いは何ですか? A: Mode 1 は冗長性のみを重視し、帯域幅は集約されません。一方、LACP(Mode 4)は両者を同時に実現します。スイッチが LACP に未対応の場合や、設定を簡略化したい場合に Mode 1 を使用します。
Q4: Ubiquiti USW-Pro-24-PoE で LACP が認識されない場合どうすれば? A: UniFi Network アプリケーションのバージョンを確認し、最新に更新してください。また、ポートチャネル作成時に両側で「802.3ad」を指定しているか再確認してください。
Q5: Proxmox VE 上で bond0 を使った場合、VM の IP アドレスはどう設定します? A: bond0 自体には IP を付与せず、bond0 に接続された Linux Bridge に IP を割り当てるのが一般的です。VM はそのブリッジから DHCP または静的 IP を取得します。
Q6: LACP パケットが受信されないエラーが出ます。 A: スイッチ側で「LACP 非対応(Static LAG)」になっている可能性があります。スイッチ側のポート設定を必ず「Dynamic LACP」に変更してください。また、NIC ドライバのバージョン確認も推奨します。
Q7: TP-Link TL-SG3428X で VLAN を使って LACP する際、注意点は? A: ポートチャネルに属するすべてのポートで同じ VLAN ID が設定されている必要があります。スイッチ側の「Native VLAN」設定が不一致だと[パケット](/glossary/パケット)ロスが発生します。
Q8: Intel PROSet の GUI からチームを作成しましたが、Linux とは異なりますか? A: Windows 固有の NIC チーミングドライバを使用するため、Linux の Bonding モードとは内部実装が異なります。ただし、OS からは「1 つのインターフェース」として認識されます。
Q9: 2.5GbE ポートが 3 本ある場合、すべて LACP にできますか? A: 可能です。ただし、スイッチ側も 3 ポートの LACP グループを支持している必要があります。通常は 2 の倍数ポートで構成することが多いですが、理論上は 3 つ以上でも対応可能です。
Q10: ネットワークボンディング中にケーブルを抜くと接続が切れますか? A: Mode 4 (LACP) や Mode 1 (active-backup) を正しく設定していれば、残りのリンクに自動的に切り替わるため、接続は維持されます。モードによっては数秒の通信断が発生する場合があります。
自宅に10GbEネットワークを構築する方法を解説。必要な機材、NIC選び、スイッチ、LANケーブル、NASとの連携を紹介。
2つのNICを使ったネットワーク分離設定ガイド。管理ネットワークとデータネットワークの分離、VLAN設定、ルーティング、セキュリティ強化を解説。
10GbEの導入効果/注意点を解説。Cat6a配線、SFP+ vs RJ45、マルチギガ、スイッチ/NAS選び、発熱/騒音対策、LAN内転送の実測も掲載。
自宅の1Gbpsネットワークを2.5GbEにアップグレードする方法。必要機器、配線、設定手順をステップバイステップで解説。
Linuxネットワークブリッジ・TAPデバイスの設定方法を解説。KVM/QEMU仮想マシンへのブリッジ接続、Open vSwitch連携、VLANトランク構成まで仮想化ネットワーク基盤を構築。
その他
Binardat 4ポート 2.5G スイッチ 2x10G SFP 4x2.5ギガビットイーサネットポート ウルトラミニサイズ Vlan対応 金属製 非マネージドマルチギガビット デスクトップ/ウォールマウントネットワークスイッチ
¥6,4882.5インチ HDD
keepLiNK 8ポート 2.5G ハブ スマート 1つの10GbE SFP+ポート ウェブ管理コンソール付き 金属筐体 壁掛け 静音ファンレス
¥12,270コスパノートPC
WALNEW USB-C 2.5GB イーサネットアダプター USBCからRJ45 LANコネクター 2.5ギガビットネットワークケーブルコンバーター Thunderbolt 3 NASサーバー Mac iMac/MacBook/iPad Pro Air/Dell XPS 17 15/Surface Laptop Chromebook用
¥6,192OSソフト
10Gtek 10G PCI-E NIC ネットワークカード, Intel X520-DA1/X520-SR1互換, シングルSFP+ポート, Intel 82599EN コントローラ, PCI Express イーサネット LANアダプター Windows Server/Linux/VMwareをサポート, PCI-E2.0 X 8, PCサーバ用
¥7,599OSソフト
UGREEN 有線LAN アダプター 5Gbps Type C LAN 変換アダプター Thunderbolt 5/4/3には適用 アルミ素材 放熱性 USB C to RJ45 イーサネット アダプター ラップトップ Nas MacBook/XPS/Windowsには適用
¥5,249食品・飲料
2.5Gbpsの高速PCIe拡張LANカード、RTL8125Bチップセット、2500/1000/100Mbpsイーサネット、RJ45ポート、Windows/Linux/Mac対応(1個)
¥1,850この記事で紹介したネットワークをAmazonで確認できます。Prime対象商品なら翌日届きます。
Q: さらに詳しい情報はどこで?
A: 自作.comコミュニティで質問してみましょう!