

2026 年現在、セキュリティカメラ市場はクラウド依存から、プライバシー重視のセルフホスト型へ大きくシフトしています。Frigeate NVR は、この潮流を象徴するオープンソースのネットワークビデオレコーダーであり、AI 物体検知機能を組み込むことで、従来の監視システムとは一線を画す性能を発揮します。従来のモーション検出は動きそのものを探知するだけで、猫が動いただけでアラートが鳴るなどの誤検知が多く、運用上のストレスとなっていました。しかし、Frigate が搭載する YOLO 系列の物体検知モデルを用いることで、「人」「車」「犬」といった特定のクラスを識別し、真偽を見極めることが可能になります。これにより、必要な時のみ通知が送られるようになり、監視担当者の負担を劇的に軽減します。
このシステムを構築するためには、サーバーとして動作するハードウェアと、接続する IP カメラが必要です。クラウドサービスのような月額費用が発生せず、すべてのデータは自宅の NAS や SSD に保存されるため、プライバシーリスクを最小限に抑えられます。また、Frigeate は Docker コンテナ上で稼働するため、OS への依存が低く、インストールやアップデートが非常に容易です。特に近年、Intel の N100 や新世代プロセッサである N305 が登場し、これらと Coral TPU を組み合わせることで、驚異的な省電力かつ高性能な監視環境を構築することが可能になりました。
本記事では、2026 年 4 月時点の最新情報を踏まえ、Frigate NVR 0.15 バージョン以降の機能を中心に解説します。Coral USB Accelerator の導入から、Home Assistant との連携によるスマートホーム化まで、初心者から中級者レベルの方々が実践できるよう、具体的な設定値や製品名を挙げていきます。また、RTSP ストリーミングの仕組みや、異なるカメラプロバイダーとの相性問題に対する解決策(go2rtc の活用)についても詳述します。最終的には、他の監視システム(Shinobi や Blue Iris など)と比較し、なぜ Frigate が現在の決定版なのかを論理的に示します。
Frigate NVR を安定して稼働させるためには、適切なハードウェア選びが不可欠です。特に重要なのは、映像処理を担当する CPU の能力と、AI 推論を行うためのアクセラレーター(TPU や GPU)の有無です。2026 年の標準的な構成として推奨されるのは、Intel N100 または N305 プロセッサを搭載した PC です。これらのプロセッサは低功耗で高効率であり、4K 解像度の H.265 デコードをハードウェア支援で行えるため、CPU リソースを AI 処理に回す余裕を生みます。消費電力はアイドル時で約 8W〜10W と非常に低く、24 時間稼働しても電気代がほぼゼロに近いという経済性を誇ります。
AI の物体検知において最大のボトルネックとなるのが推論速度です。CPU のみで YOLO モデルを実行すると、多くの場合フレームレートが低下し、リアルタイム性が損なわれます。これを解決するのが Coral TPU(Tensor Processing Unit)です。Coral USB Accelerator は USB 3.0 を介して接続され、Frigate と連携することで推論をオフロードします。これにより、Intel N100 のような低消費電力 CPU でも、複数のカメラストリームに対して同時検知が可能になります。2026 年時点では、より高速な Coral 製品も登場しており、USB 3.0 Gen 1 または Gen 2 対応モデルが標準となり、転送帯域の制約による遅延問題が解消されています。
メモリとストレージの選定においても注意点があります。Frigate は Docker コンテナとして動作するため、システム全体で少なくとも 4GB の RAM が推奨されます。ただし、AI モデルの読み込みやキャッシュを考慮すると、8GB あれば余裕を持って運用できます。ストレージについては、録画データを保存する HDD または SSD を用意する必要があります。SSD の場合、高速な書き込みが可能ですが、24 時間録画では書き換え寿命が気になるため、HDD と SSD を使い分けるハイブリッド構成も有効です。また、Frigate はクリップ(動画スニペット)を生成するため、SSD にキャッシュ用として割り当てるのも一般的な手法です。
| ハードウェア構成 | CPU 種類 | AI アクセラレーター | 推奨カメラ数 | 消費電力 (約) | 推論遅延 |
|---|---|---|---|---|---|
| ベーシック | Intel N100 | Coral USB | 4〜8 台 | 15W | 30ms 程度 |
| エンタープライズ | AMD Ryzen | NVIDIA GPU | 8 台以上 | 60W+ | 10ms 未満 |
| プロフェッショナル | Intel N305 | M.2 Coral | 16 台 | 12W | 20ms 程度 |
| CPU Only | AMD APU | なし (CPU) | 4 台以下 | 35W | 100ms+ |
この表のように、用途に応じてハードウェアを切り替える必要があります。Coral USB はコストパフォーマンスに優れ、最も人気がありますが、物理的な接続が USB コネクタ一つに限られるため、拡張性を求める場合は Coral M.2 モジュール(Intel N305 等)や NVIDIA GPU を使用する方法もあります。特に NVIDIA GPU を使用する場合は TensorRT を用いることで、さらに高速な推論が可能ですが、設定の複雑さが増す点に注意が必要です。最終的には、予算と必要カメラ台数のバランスを見て決定することをお勧めします。
Frigate NVR の核心は、対応する IP カメラからの映像ストリームを受信し、解析を行うことです。主要なカメラブランドとして Reolink、Amcrest、Dahua、Hikvision などが挙げられますが、それぞれ標準プロトコルやコーデックに違いがあります。多くの高機能カメラは H.265(HEVC)形式の映像を出力しますが、Frigate は H.264 の再生に最も最適化されています。また、Unifi Protect や Tapo、Wyze などのクラウド寄りのブランドは、標準的な RTSP ストリームを提供していない、あるいは制限が厳しい場合があります。
こうした接続課題に対する解決策として、go2rtc が極めて重要な役割を果たします。go2rtc は、Frigate と連携してプロキシサーバーとして動作するソフトウェアです。特に Wyze や Tapo のように、RTSP URL を直接取得できないカメラや、独自の暗号化プロトコルを使用しているカメラにおいて必須となります。Docker コンテナ内で go2rtc を起動し、Frigate が RTSP URL として指定できる形式に変換して渡すことで、互換性のないカメラも Frigate で監視下に置くことが可能になります。これにより、既存のカメラ資産をそのまま活用でき、システム全体の導入コストを抑えられます。
設定においては、各カメラのカメラ固有のユーザー名とパスワード、そして RTSP URL を正確に把握する必要があります。例えば、Dahua カメラでは /live/1 や /h264Preview_01_main といったパスが一般的です。また、Hikvision の場合、ポート番号がデフォルトで 554 でないケースがあるため、確認が必要です。Frigate はこれらのストリームを WebSocket を介してブラウザに表示するため、セキュリティ面での考慮も必要となります。外部からアクセスする場合、リバースプロキシ(Nginx や Caddy)を介することで、SSL/TLS 暗号化通信を実現し、中間者攻撃を防ぐことが推奨されます。
| カメラブランド | RTSP URL の例 | 標準コーデック | go2rtc 対応状況 | 備考 |
|---|---|---|---|---|
| Reolink | rtsp://IP:554/h264Preview... | H.264/H.265 | 不要 (標準) | 高品質なストリーム |
| Hikvision | rtsp://admin:[email protected]/Streaming... | H.264/H.265 | 推奨 | パスワード設定が重要 |
| Dahua | rtsp://IP/livestream/0 | H.264 | 不要 (標準) | 認証情報の入力が必須 |
| Wyze Cam v3 | rtsp://stream.wyzecam.com/v1... | H.265 | 必須 | RTSP プロキシ経由必須 |
| Unifi Protect | N/A (API 限定) | H.264/H.265 | 推奨 | UDM-Pro と連携 |
Frigate 側での設定では、rtsp_url に上記の URL を指定し、ffmpeg output args でコーデックを変換するオプションを設けることもあります。例えば、カメラが H.265 を出力している場合、AI 推論エンジンが H.264 のみをサポートしている場合に限り、CPU で H.265 から H.264 への変換(トランスコード)を行う設定が可能です。ただし、この変換処理は CPU リソースを大きく消費するため、可能な限りカメラ側で H.264 を出力するよう設定変更するか、Coral のような専用ハードウェアを活用して回避することが望ましいです。
Frigate NVR を構築するための最も一般的かつ推奨される方法は、Docker コンテナのデプロイです。Linux ベースの OS(Ubuntu, Debian, OpenWrt など)上で Docker Engine が動作していることが前提となります。まずは、システムに Docker と Docker Compose をインストールする必要があります。2026 年時点では、多くの Linux ディストリビューションが標準パッケージとして最新バージョンを含んでいるため、sudo apt install docker.io docker-compose-plugin のようなコマンドで容易に導入できます。また、root ユーザーではなく一般ユーザーを docker グループに追加することで、セキュリティ向上を図ります。
インストールの準備が整ったら、Frigate の設定ファイル (docker-compose.yml) を作成します。このファイルには、Frigate コンテナの定義、go2rtc コントローラの定義、そしてデータベース用の SQLite データ領域のマウント情報が記述されます。ボリューム(Volume)のマウントは非常に重要で、/config ディレクトリに設定ファイルを保存し、/media ディレクトリに録画データを保存します。これにより、コンテナを削除・再作成してもデータが消失しないようになります。また、Coral TPU をコンテナ内部で使用するには、デバイスパス /dev/bus/usb/001/00X のマウントと、権限付与(privileged: true または devices 指定)が必要です。
具体的な設定例では、Frigate コンテナに FRIGATE_RTSP_PASSWORD 環境変数を設定し、RTSP URL に含まれるパスワードを安全に管理します。また、MQTT 通信を行う場合、Mosquitto サーバーのコンテナも同時に起動する必要があります。MQTT は軽量なメッセージプロトコルであり、Frigate が検知イベントを Home Assistant や他のデバイスへ通知するために使用されます。Docker Compose ファイル内では、depends_on を用いて依存関係(MQTT が先に起動すること)を設定し、コンテナの立ち上げ順序を制御します。
version: '3.8'
services:
frigate:
container_name: frigate
image: ghcr.io/blakeblackshear/frigate:stable-arm64 # アーキテクチャに応じて変更
shm_size: "1gb"
devices:
- /dev/bus/usb:/dev/bus/usb
volumes:
- /etc/localtime:/etc/localtime:ro
- ./config:/config
- /mnt/ssd_media/clips:/media/frigate/clips
- /mnt/ssd_media/camera1:/media/frigate/camera1
ports:
- "5000:5000" # Web UI
- "8554:8554" # RTSP (go2rtc)
environment:
FRIGATE_RTSP_PASSWORD: "your_password"
この設定において、shm_size: "1gb" は共有メモリを確保し、画像処理の速度向上に寄与します。また、devices セクションで USB デバイスをマウントすることで、Coral TPU がコンテナ内から認識されます。もし Coral M.2 を使用している場合は、/dev/coral0 などのデバイスパスを指定する必要があります。さらに、録画保存先として /mnt/ssd_media/clips のように外部ボリュームを指定することで、SSD のパフォーマンスを活かしつつ、データの永続性を確保します。この Docker Compose ファイルをホストマシンに保存し、docker-compose up -d コマンドを実行すると、Frigate が起動を開始します。
AI 物体検知の性能は、使用する推論エンジンによって大きく異なります。Frigate は複数のエンジンに対応しており、ハードウェア環境に合わせて最適な選択が可能です。最も一般的なのは Google Coral です。Coral TPU は、特定の行列乗算演算を高速に処理する ASIC であり、低消費電力で高い効率を発揮します。USB エクセラレーターは手軽ですが、M.2 モジュール(Intel N305 など)としてボードに直接実装されるタイプの方が、より安定的な速度と接続性を提供します。Coral を使用すると、CPU の負荷を大幅に下げつつ、複数のカメラストリームに対してリアルタイムでの物体検知が可能になります。
次に NVIDIA GPU です。NVIDIA のグラフィックカードを使用している場合、TensorRT エンジンを介して推論を行うことができます。TensorRT は、GPU 上で最適化された深層学習推論エンジンであり、Coral に比べて圧倒的な処理速度を誇ります。特に YOLOv8 や YOLO-NAS などの最新モデルを高速に実行できるため、高フレームレートでの検知や、解像度の高い映像解析に適しています。ただし、GPU を使用する場合は電力消費と発熱が増加し、システム全体の設計が複雑になるというデメリットがあります。また、Frigate+ の一部機能との親和性も考慮する必要があります。
Hailo-8 は、近年注目されている AI アクセラレーターです。これは PCIe 形式でマザーボードに接続され、CPU や GPU に代わる専用演算单元として動作します。Hailo-8 は非常に高い効率を持ち、特定の用途では Coral や NVIDIA よりも優れた性能を示す場合があります。特に、低電力かつ高性能な計算が必要とされるエッジデバイスや、組み込みシステムとの相性が良いです。Frigate の設定ファイルでは、detectors セクションで type: hailo を指定することで利用可能です。
| エンジン | ハードウェア要件 | 推論速度 (ms/フレーム) | CPU 消費 | 初期コスト | 推奨用途 |
|---|---|---|---|---|---|
| Coral USB | Google Coral USB | 30〜50ms | 低 | ¥4,000〜6,000 | 小規模監視、予算重視 |
| Coral M.2 | Intel N100/N305 + M.2 | 10〜20ms | 中 | ¥8,000〜12,000 | 家庭用、省電力重視 |
| TensorRT | NVIDIA GPU (GTX/RTX) | <10ms | 高 | ¥20,000〜 | 多カメラ、高性能重視 |
| Hailo-8 | PCIe Card / M.2 Key E | 15〜30ms | 低 | ¥15,000〜 | エッジ AI、組み込み用途 |
| CPU Fallback | Intel/AMD CPU | 100ms+ | 高 | ¥0 (追加なし) | 簡易テスト、非推奨 |
CPU のみで動作させる場合(Fallback)、Yolo モデルを CPU で実行することになります。これは設定が簡単ですが、検知の遅延が大きくなり、リアルタイム性が損なわれます。また、カメラ数が多いと CPU が飽和し、他の処理に支障をきたす可能性があります。そのため、2026 年時点では Coral または GPU の導入が事実上の標準と言えます。各エンジンの選択は、予算、設置環境の電源状況、そして検知精度への要求によって決定されます。
デフォルトで提供される物体検知モデル(人、車、動物など)では不十分な場合があります。例えば、「特定のペット」「近隣住民」「特定の商品」などを識別したい場合、カスタムモデルの作成が必要になります。Frigate は YOLOv8 や YOLO-NAS などの最新アーキテクチャに対応しており、ユーザーが独自のデータセットで学習させたモデルを読み込むことができます。このプロセスは、データの収集からトレーニング、そして Frigate への適用までを含みます。
まず必要なのは、対象物の画像データです。監視カメラの映像をキャプチャし、該当するオブジェクトが含まれるフレームを選択します。次に、CVAT(Computer Vision Annotation Tool)や Roboflow などのツールを使用して、これらの画像にバウンディングボックスを描画し、ラベル付けを行います。「犬」「猫」「郵便配達員」など、検知したいクラスを定義します。データ量は 100〜500 枚程度あれば学習を開始できますが、精度向上のためには数千枚の画像が必要になることもあります。
学習プロセスは Google Colab やローカルの GPU サーバー上で行われます。Frigate の公式リポジトリやコミュニティ提供のスクリプトを利用することで、YOLOv8 モデルを訓練し、.tflite 形式(Coral 用)または .engine 形式(TensorRT 用)に変換します。変換されたモデルファイルを Docker コンテナの /config/models ディレクトリに配置します。Frigate の設定ファイル (config.yaml) では、objects: セクションで model: を指定し、使用するカスタムモデルの名前を記述します。また、confidence: パラメータを変更することで、検知の閾値(感度)を調整できます。
cameras:
front_garden:
ffmpeg:
inputs:
- path: rtsp://...
roles:
- detect
objects:
track:
- person
- dog
detect:
width: 1280
height: 720
models:
custom_person:
path: /config/models/custom_person.tflite
この設定により、Frigate はデフォルトのモデルではなく指定されたカスタムモデルを使用して推論を行います。学習には時間がかかるため、最初は既存のモデルで動作を確認し、必要に応じて微調整を行うのがコツです。また、Frigate+ の有料プランでは、AI モデルの自動トレーニングやクラウド上のリソースを活用した学習が提供されており、ローカル環境での計算資源を節約できる可能性もあります。
セルフホスト監視システムを構築する最大のメリットは、スマートホームエコシステムとの連携です。Frigate は Home Assistant の標準的なインテグレーションをサポートしており、2025.x バージョン以降ではさらに安定した接続性を実現しています。Home Assistant 上で Frigate のカメラ映像を表示し、検知イベントをセンサーとして扱うことで、自動化(オートメーション)を構築できます。例えば、「人が検知されたら玄関のライトを点灯する」「犬が庭に入ったら警告音を鳴らす」といった設定が可能です。
統合の設定は Home Assistant の UI 上で行うのが最も簡単です。「設定」>「デバイスとサービス」から Frigate を追加し、Frigate サーバーの IP アドレスを入力します。MQTT ブローカー(Mosquitto)が正しく設定されていることが前提条件となります。連携後、Home Assistant では Frigate カメラとして認識され、ライブストリームを Web ブラウザ内で再生できます。また、バイアスオーディオ機能も活用可能で、Frigate の Web UI または Home Assistant 経由で、カメラ側のマイクからスピーカーへ音声を送信し、双方向通信を実現します。これは、来訪者との会話や、ペットへの指示伝達に役立ちます。
自動化の構成は YAML ファイルまたは Home Assistant のオートメーションエディタで行います。MQTT トピックを利用することで、Frigate が検知したイベントをトリガーにできます。例として、「人」が「前庭ゾーン」を検知した場合に、Home Assistant 内の Light をオンにする設定を作成します。
trigger: セクションで platform: mqtt を指定し、トピック名を frigate/front_garden/detected/person などに設定します。これにより、Frigate の検知結果が即座にスマートホームアクションに変換されます。また、Home Assistant のロジックを用いて、「夜間の 22:00 以降は検知通知を送らない」などの条件付き自動化も容易に実装可能です。
さらに、Frigate+ の有料モデルや API を活用することで、検知された動画クリップを自動でダウンロードし、Home Assistant が管理するクラウドストレージ(Google Drive や Synology NAS)へアップロードする高度なワークフローも構築できます。これにより、ローカルディスクの容量不足対策としても機能します。このように、Frigate は単なる録画システムを超え、スマートホーム全体の「目」として機能し、住居環境の安全性と利便性を大幅に向上させます。
セルフホストシステムの運用において、セキュリティは最も重要な要素の一つです。Frigate NVR はネットワーク上に公開されるため、外部からの不正アクセスを防ぐ対策が必要です。最良の方法は、リバースプロキシ(Nginx または Caddy)を介して SSL/TLS 暗号化通信を行うことです。これにより、ブラウザ上の通信が暗号化され、中間者攻撃から保護されます。また、Frigate の Web UI に強固なパスワードを設定し、2FA(二段階認証)を可能にする Home Assistant の連携も有効です。
外部アクセスのためにはポート開放(ポートフォワーディング)を行う必要がありますが、これはセキュリティリスクとなります。代替手段として Tailscale や ZeroTier などの VPN ツールを使用することで、自宅ネットワークに仮想的に参加させ、外部から安全に Frigate にアクセスできます。これにより、公開ポートを開放する必要がなくなり、セキュリティレベルが劇的に向上します。また、定期的な Docker イメージの更新と、設定ファイルのバックアップも必須のプロセスです。
他の監視システムとの比較では、Frigate の強みは AI 機能の実装とオープンソース性のバランスにあります。Scrypted は Home Assistant との親和性が高いですが、AI 検知機能が限定的です。Shinobi は多カメラ対応に優れますが、設定が複雑で日本語サポートが不足しています。ZoneMinder や MotionEye は長年使われていますが、最新の AI モデル(YOLOv8 など)への対応が遅れています。Blue Iris は商用ソフトウェアとして非常に高機能ですが、ライセンス費用が高く、Windows 専用であるためセルフホストの柔軟性を損ないます。
| ソフトウェア | AI 検知 | リソース効率 | 設定難易度 | クラウド連携 | 価格 |
|---|---|---|---|---|---|
| Frigate | 優秀 (Coral/GPU) | 高 | 中 | 標準 | 無料 / 有料オプション |
| Shinobi | あり | 低〜中 | 難 | あり | 無料 |
| ZoneMinder | なし | 低 | 難 | なし | 無料 |
| MotionEye | 簡易 | 高 | 易 | 弱 | 無料 |
| Blue Iris | 優秀 | 低 (Windows) | 中 | あり | ¥10,000〜 |
Frigate の最大の利点は、Coral TPU を使用した際の驚異的な省電力性と、Home Assistant とのシームレスな連携です。また、2026 年時点では、コミュニティによるカスタムモデルやプラグインが豊富に存在し、拡張性が高いことも評価点です。しかし、初心者には設定ファイルの編集が必要なため、多少の Linux コマンド操作知識が必要となります。この点を踏まえると、Frigate は中級者以上のユーザーにとって最適な選択肢であると言えます。
Q1: Frigate NVR を初めて構築する際に必要な最小限のハードウェアは? A: 最低でも Intel N100 プロセッサと 4GB RAM、および SSD ストレージが必要です。Coral USB アクセラレーターを使用すれば、CPU の負荷を抑えつつ安定した動作が可能になります。N305 を使用するとさらに高機能なモデルへの対応が容易になります。
Q2: Coral TPU が認識されない場合の対処法は?
A: Docker コンテナ内のデバイスパス /dev/bus/usb のマウントと、ホスト側の権限設定を確認してください。また、USB コネクタを USB 3.0 ポートに差し替えることで通信速度が向上し、検知遅延が改善される場合があります。
Q3: Wyze や Tapo カメラは Frigate で動作しますか? A: はい、動作しますが go2rtc を使用する必要があります。これらのカメラは標準 RTSP ストリームを提供していないため、go2rtc コンテナを介してプロキシすることで接続が可能になります。
Q4: Home Assistant との連携で通知が届かない場合は? A: Mosquitto MQTT サーバーの設定を確認してください。Frigate が MQTT トピックに正しくパブリッシュしているか確認し、Home Assistant の Frigate インテグレーションが有効になっていることを再確認します。
Q5: カスタムモデルを学習させるのにどれくらいの時間がかかりますか? A: データ収集とラベリングを含めれば数日かかる場合がありますが、学習自体は Google Colab を使用すれば GPU 環境で数十分〜数時間で完了します。既存のモデルからファインチューニングを行うのが効率的です。
Q6: Frigate+ の有料プランを契約するメリットは何ですか? A: カスタムモデルの自動トレーニング機能や、クラウドストレージへのバックアップ機能が提供されます。ローカル計算資源が不足している場合や、管理の手間を減らしたい場合に有効なオプションです。
Q7: 録画データの保存期間はどのように設定しますか?
A: config.yaml の record: セクションで retain_days を指定して設定できます。例えば retention: { days: 7, mode: all } とすることで、過去 7 日間の全動画を保持する設定が可能です。
Q8: Frigate の Web UI にアクセスできない場合は? A: Docker コンテナのポートマッピング(5000 番)が正しく行われているか確認し、ファイアウォール設定を確認します。また、リバースプロキシを使用している場合は SSL 証明書が有効であることを確認してください。
Q9: CPU のみで AI 検知を行うことは可能ですか? A: はい、可能です。ただし、処理速度が遅くなり、カメラ数が多い場合の遅延や不具合が発生する可能性があります。Coral または GPU を使用することを強く推奨します。
Q10: 緊急事態時に録画データを即座に保存する方法は? A: Frigate+ の機能である「緊急イベント」を使用するか、Home Assistant のオートメーションで特定のフォルダへコピーする設定を行うことで、重要な映像を保護できます。また、手動でのスナップショット保存も可能です。
Frigate NVR を活用したセルフホスト監視カメラシステムの構築は、プライバシー重視かつ高機能なセキュリティ対策として非常に有効です。本記事で解説した内容を要約すると以下のようになります。
Frigate はオープンソースでありながら、商業的な製品に劣らない品質を提供します。設定には多少の手間がかかりますが、一度構築すれば長期間安定して稼働し、自宅のセキュリティを大幅に強化してくれます。2026 年以降も、このシステムは進化を続けるため、最新のコミュニティ情報やドキュメントを参照しながら運用を進めることが重要です。

PCパーツ・ガジェット専門
自作PCパーツやガジェットの最新情報を発信中。実測データに基づいた公平なランキングをお届けします。
スマートドアベル・防犯カメラをPCで統合管理する方法を解説。Frigate NVR・ローカル録画でクラウド不要の監視環境を構築。
MotionEye を使ったRaspberry Pi 簡易監視カメラを解説。Docker導入、カメラ追加、Frigate / Shinobi との比較、実運用Tipsを詳しく紹介。
Scrypted を使ったホームセキュリティシステムを解説。HomeKit Secure Video 統合、カメラ対応、NVR機能、Frigate との比較を詳しく紹介。
Shinobi を使ったオープンソースCCTV NVRを解説。インストール、カメラ追加、モーション検知、Frigate との比較、実運用Tipsを詳しく紹介。
Home Assistantのインストールからスマートホーム自動化10例まで完全解説。Raspberry Pi 5/Intel N100ミニPCでのセットアップ手順、Zigbee/Z-Wave/Matter/Threadデバイスの追加方法、Lovelaceダッシュボード構築と外出先アクセス設定。これ一本で全て
Raspberry PiにHome Assistantをインストールしてスマートホームを構築する方法を解説。Zigbee機器連携、自動化シナリオを紹介。