

PCパーツ・ガジェット専門
自作PCパーツやガジェットの最新情報を発信中。実測データに基づいた公平なランキングをお届けします。
500GBを超える大規模な学習データセットや、数GBに及ぶPyTorchのモデルウェイトファイルをGitで管理しようとして、リポジトリの肥大化によるクローン時間の増大や、GitHubのストレージ制限に直面するケースが後を絶ちません。Git LFS(Large File Storage)ではコスト的に厳しい1TB以上の運用において、DVC 3.55のようなデータバージョニングツールの導入は不可欠です。AWS S3やBackblaze B2、Google Cloud Storage (GCS)といったオブジェクトストレージをリモートキャッシュとして連携させれば、100GBから10TB規模のデータを効率的に管理できます。月額コストを1,000円から15,000円の範囲に抑えつつ、データセットのバージョン切り替えをgit checkoutと同様の感覚で実現し、MLOpsにおける再現性を完全に担保する具体的な実装構成を明らかにします。
DVC (Data Version Control) 3.55は、Gitのワークフローをそのままに、数GBから数TBに及ぶ機械学習モデルやデータセットを管理するためのオープンソースツールです。Git自体はテキストファイルの差分管理に特化しており、100MBを超えるバイナリファイルをリポジトリに直接コミットすると、.gitディレクトリが肥大化し、git cloneやgit pushの速度が極端に低下します。DVCはこの問題を「メタデータと実データの分離」によって解決しています。具体的には、実データ(例:10GBの.pthモデルファイルや500GBの.parquetデータセット)は外部ストレージ(リモート)に保存し、Gitにはその実体へのポインタである軽量な.dvcファイル(数百バイトのテキスト)のみを保存します。
この仕組みにより、データサイエンティストはgit checkoutでコードのバージョンを切り替え、dvc checkoutでそれに対応する正確なデータセットやモデルのバージョンを復元できます。2026年現在のMLOps環境では、単なる保存ではなく、パイプラインの再現性が重視されます。DVC 3.55ではdvc.yamlを用いたパイプライン定義により、データ前処理から学習、評価までの依存関係をグラフ化し、入力データが変更された箇所だけを再計算する効率的なキャッシュ機構が実装されています。これにより、例えばAMD Ryzen 9 9950Xのような16コア/32スレッドを搭載したハイエンドCPU環境においても、不要な再計算を避け、計算リソースを最大限に活用することが可能です。
Git LFS (Large File Storage) との決定的な違いは、ストレージの柔軟性とパイプライン管理能力にあります。Git LFSは基本的にGitサーバー側の拡張機能として動作しますが、DVCはS3、B2、GCS、Azure Blob Storage、あるいは社内のNFSサーバーなど、任意のストレージをバックエンドとして利用できます。また、DVCはデータの「バージョン」だけでなく、そのデータを生成した「工程」を管理するため、モデルの再現性を担保する上で不可欠なツールとなっています。
表1:Git / Git LFS / DVC の機能比較
| 比較項目 | Git | Git LFS | DVC 3.55 |
|---|---|---|---|
| 管理対象 | ソースコード (テキスト) | バイナリファイル | データ / モデル / パイプライン |
| 保存先 | Gitリポジトリ内 | LFS専用サーバー | S3 / B2 / GCS / SSH / Azure |
| バージョン管理手法 | スナップショット (差分) | ポインタ参照 | ポインタ参照 + 依存関係グラフ |
| ストレージコスト | 高 (リポジトリ肥大化) | 中 (サーバー依存) | 低 (安価なオブジェクトストレージ) |
| 再現性確保 | コードのみ | ファイルのみ | コード + データ + パイプライン |
| 1TB超のデータ対応 | 不可 (動作停止レベル) | 困難 (速度低下) | 適正 (リモートキャッシュ利用) |
DVCで扱うデータサイズが100GBから10TBへとスケールする場合、ストレージの選択が月額コストと転送速度に直結します。2026年現在、多くのエンジニアが選択するのは AWS S3、Backblaze B2、Google Cloud Storage (GCS) の3択です。AWS S3は業界標準であり、S3 Intelligent-Tieringを利用することで、アクセス頻度の低いデータを自動的に安価な階層へ移動させ、コストを最適化できます。一方、Backblaze B2は単純なストレージ単価が極めて低く、特に個人開発者や小規模チームにとってコストパフォーマンスに優れています。
コスト面で具体的に見ると、Backblaze B2のストレージ料金は1GBあたり約$0.006/月(約0.9円)であり、1TB保存しても月額1,000円以下に抑えることが可能です。対してAWS S3 Standardは1GBあたり約$0.023/月(約3.5円)と高価ですが、AWSエコシステム内(SageMaker等)で完結させる場合は、データ転送量(Egress)のコストをゼロにできるメリットがあります。GCSは、TensorFlowなどのGoogle系スタックを利用する場合に親和性が高く、特にマルチリージョナルストレージを選択することで、世界規模での低レイテンシなデータアクセスを実現できます。
また、物理的な転送速度(スループット)も重要です。10Gbpsのネットワーク環境下で、NVMe Gen5 SSD(例:Crucial T705 4TB, 読込14,500MB/s)を搭載したワークステーションを使用している場合、ボトルネックはディスクI/Oではなくネットワーク帯域とクラウド側のAPI制限になります。DVCは並列アップロード/ダウンロードをサポートしているため、dvc push時の並列数を調整することで、理論上の帯域限界まで速度を引き出すことが可能です。
表2:ストレージバックエンド別コスト・性能比較(月間データ量別)
| ストレージ | 月額コスト (100GB) | 月額コスト (1TB) | 月額コスト (10TB) | 転送速度特性 | 主な推奨ユースケース |
|---|---|---|---|---|---|
| Backblaze B2 | 約100円 | 約1,000円 | 約10,000円 | 中 (安定) | 低コスト優先・個人開発 |
| AWS S3 | 約350円 | 約3,500円 | 約35,000円 | 高 (AWS内高速) | 企業導入・AWSエコシステム |
| GCS | 約300円 | 約3,000円 | 約30,000円 | 高 (GCP内高速) | GCP利用・大規模分散学習 |
| Azure Blob | 約300円 | 約3,000円 | 約30,000円 | 高 (Azure内高速) | Azure / MSスタック利用 |
| Local NFS | 0円 (ハード代別) | 0円 (ハード代別) | 0円 (ハード代別) | 極高 (LAN内) | 高セキュリティ・オンプレ |
※価格は2026年時点の概算。転送量(Egress)費用は別途発生。
DVCを導入して最初に直面するのが、.gitignoreと.dvcignoreの管理ミスによる「巨大ファイルの誤コミット」です。一度でも1GBを超えるバイナリファイルをGitにコミットしてしまうと、後からgit rmしても履歴(.gitフォルダ)に残り続けるため、リポジトリ全体のサイズが肥大化したままになります。これを解消するにはgit filter-repoやBFG Repo-Cleanerを用いて履歴を完全に書き換える必要があり、チーム開発においては全メンバーのリポジトリ再クローンという甚大なコストが発生します。
次に、認証情報の管理です。AWS S3やGCSを利用する場合、AWS_ACCESS_KEY_IDやGOOGLE_APPLICATION_CREDENTIALSなどの環境変数を設定しますが、これを誤って.envファイルごとGitにコミットしてしまうセキュリティ事故が後を絶ちません。2026年現在の推奨構成では、HashiCorp VaultやAWS Secrets Managerを用いて動的に認証情報を注入するか、IAM Role(インスタンスプロファイル)を利用してキーレスで認証を行う構成が標準です。
また、OSレベルのI/Oボトルネックも無視できません。Windows環境で数万個の小さいファイル(例:画像データセット)をDVCで管理する場合、NTFSのファイルシステム特性により、dvc checkoutの速度が著しく低下することがあります。この場合、Linux (Ubuntu 24.04 LTS等) のExt4またはXFSファイルシステムを採用し、さらにSamsung 990 Pro 4TBのような高IOPSなNVMe SSDを搭載することで、メタデータのスキャン時間を数分から数秒へと短縮できます。
表3:DVC実装時のトラブルシューティングと解決策
| 発生現象 | 原因 | 解決策 | 影響範囲 |
|---|---|---|---|
git push が極端に遅い | バイナリをGitに直接コミットした | git filter-repo で履歴削除 $\rightarrow$ DVCへ移行 | リポジトリサイズ |
dvc pull で権限エラー | ストレージの認証キー未設定/期限切れ | aws configure または Vault経由で認証情報を更新 | データ同期 |
| ファイル数過多で動作が重い | OSのファイルシステム(NTFS等)の限界 | Linux環境への移行、または大容量ファイルをTAR形式に集約 | I/Oパフォーマンス |
| ストレージコストの急増 | バージョンを切り替えすぎた(冗長化) | dvc gc で不要な古いキャッシュを削除 | 月額コスト |
| 認証キーの漏洩 | .env 等をGitにコミットした | キーの即時無効化 $\rightarrow$ IAM Role / Vault 導入 | セキュリティ |
DVCの運用において、パフォーマンスを最大化させるにはハードウェアとソフトウェアの両面からのアプローチが必要です。まずハードウェア面では、DVCのキャッシュ処理はCPUのシングルスレッド性能とディスクのランダムアクセス性能に依存します。推奨スペックとしては、AMD Ryzen 9 9950X (5.7GHz Boost) のような高クロックCPUと、128GB以上のDDR5-6000 RAMを搭載したワークステーションが理想的です。特にメモリ容量は、大規模なデータセットを扱う際のOSキャッシュ効率に直結するため、余裕を持った構成が求められます。
ネットワーク面では、10GbE (10 Gigabit Ethernet) NICの導入が必須です。Intel X550-T2などの10GbEアダプタを使用し、Cat6A以上のケーブルで接続することで、S3やB2からのデータ転送速度を理論上の最大値まで引き上げられます。冷却面では、高負荷時のサーマルスロットリングを防ぐため、Noctua NH-D15 G2のような高性能空冷クーラーや、360mm以上の水冷クーラーを導入し、CPU温度を80℃以下に維持することが、長時間にわたるdvc pushやモデル学習時の安定動作に寄与します。
コスト最適化の肝は、DVCの「キャッシュ管理」にあります。DVCはデフォルトですべてのバージョンを保持しようとするため、放置するとストレージ容量を無限に消費します。dvc gcコマンドを用いて、現在のGitブランチから参照されていない古いデータ(ガベージ)を物理的に削除することで、ストレージコストを最小限に抑えることが可能です。また、頻繁にアクセスするデータはローカルのNVMe SSDにキャッシュし、アーカイブデータのみをS3 GlacierやB2の低頻度アクセス層に配置する階層化ストレージ戦略を構築することが、2026年時点の最適解となります。
表4:データ規模別 推奨ハードウェア・運用スペック
| データ規模 | 推奨CPU / RAM | 推奨ストレージ (Local) | 推奨ネットワーク | ストレージ戦略 |
|---|---|---|---|---|
| 100GB 〜 1TB | Ryzen 7 / 64GB RAM | NVMe Gen4 2TB (Samsung 990 Pro) | 2.5GbE $\rightarrow$ 10GbE | B2 / S3 Standard |
| 1TB 〜 10TB | Ryzen 9 / 128GB RAM | NVMe Gen5 4TB $\times 2$ (Crucial T705) | 10GbE (Intel X550) | S3 Intelligent-Tiering |
| 10TB 〜 100TB | Threadripper / 256GB+ RAM | Enterprise NVMe RAID 0/10 | 25GbE / 100GbE | On-prem NFS $\rightarrow$ S3 Glacier |
| 100TB 〜 | 多ノード・クラスタ構成 | All-Flash Array (PureStorage等) | 100GbE InfiniBand | 分散オブジェクトストレージ |
表5:DVC運用におけるコスト削減チェックリスト
| 項目 | 確認内容 | 期待される効果 | 優先度 |
|---|---|---|---|
dvc gc の定期実行 | 不要な古いバージョンを削除しているか | ストレージ費用 20-50% 削減 | 高 |
| S3 ライフサイクル設定 | 90日以上未アクセスのデータをGlacierへ移動しているか | 保存コスト 60-80% 削減 | 中 |
| 転送量の最適化 | 同一リージョン内で計算機とストレージを配置しているか | Egress費用 0円化 | 高 |
| 圧縮形式の検討 | CSVではなくParquet/Avro形式で保存しているか | ストレージ容量 30-70% 削減 | 中 |
| キャッシュ共有の利用 | チーム内で共有キャッシュサーバーを構築しているか | 個々のpull時間の大幅短縮 | 低 |
DVC 3.55を用いたデータ・モデルバージョニングを構築する際、最大の決定要因となるのが「リモートストレージ(Remote Storage)」の選定です。DVCはGit LFSとは異なり、実データをGit管理下ではなく外部ストレージに保存し、そのメタデータ(.dvcファイル)のみをGitで管理するため、バックエンドのコスト構造とI/O性能がプロジェクトの運用コストに直結します。
特に2026年現在のMLOps環境では、モデルサイズが数百GBから数TBに達することが一般的となっており、単なる容量単価だけでなく、データ転送量(Egress)の課金体系が重要です。以下に、主要なストレージサービスのコストとスペックを比較します。
| プロバイダー | ストレージ単価 (1GB/月) | データ転送量 (Egress/GB) | APIリクエストコスト | 平均レイテンシ |
|---|---|---|---|---|
| AWS S3 (Standard) | 約 0.023 USD | 約 0.09 USD | 高 (PUT/GET課金) | 低 (10-30ms) |
| Backblaze B2 | 約 0.006 USD | 約 0.01 USD (無料枠有) | 低 | 中 (40-80ms) |
| Google Cloud Storage | 約 0.020 USD | 約 0.12 USD | 中 | 低 (15-35ms) |
| Cloudflare R2 | 約 0.015 USD | 0 USD (無料) | 低 | 中 (30-60ms) |
| Wasabi | 約 0.007 USD | 0 USD (条件有) | 低 | 中 (30-70ms) |
AWS S3はエコシステムが強固ですが、データセットの頻繁なプル・プッシュが発生するDVC運用では、Egressコストが月額予算を圧迫します。対してBackblaze B2やCloudflare R2は、10TB規模のモデルウェイトを扱う場合でも、月額コストを数千円から1万円程度に抑えることが可能です。
次に、DVC 3.55と他のバージョニングツールの設計思想の違いを整理します。Git LFSはGitの拡張機能として動作しますが、DVCは独立したツールとして動作するため、S3やGCSといった多様なストレージへの柔軟な切り替えが可能です。
| ツール名 | 管理方式 | 大容量ファイル対応 | ストレージ柔軟性 | 学習コスト | 推奨データサイズ |
|---|---|---|---|---|---|
| DVC 3.55 | ポインタファイル (.dvc) | 非常に高い | 極めて高い | 中 | 100GB 〜 100TB |
| Git LFS | LFSポインタ | 高い | 低い (Gitサーバー依存) | 低 | 1GB 〜 100GB |
| LakeFS | Git-like 擬似ファイルシステム | 極めて高い | 高い (S3/GCS等) | 高 | 1TB 〜 PB級 |
| Pachyderm | データパイプライン統合 | 極めて高い | 中 (K8s依存) | 極めて高 | 10TB 〜 PB級 |
| MLflow | モデルレジストリ形式 | 中 | 中 | 低 | 100MB 〜 1TB |
DVC 3.55は、特に「データサイエンティストが既存のGitワークフローを崩さずに導入できる」点に強みがあります。100GBから10TB程度のデータセットを扱う中規模プロジェクトでは、DVCが最もバランスの良い選択肢となります。
運用規模に応じて推奨されるインフラ構成は異なります。月間のデータ更新頻度や、利用するGPUサーバーのスペックによって、ストレージの帯域幅(Throughput)がボトルネックになるためです。
| データ量 | 推奨ストレージ | 推奨計算ノード | ネットワーク帯域 | 推定月額コスト |
|---|---|---|---|---|
| 100GB 〜 500GB | Cloudflare R2 | RTX 4090 (24GB) | 1Gbps | ¥1,000 〜 ¥3,000 |
| 500GB 〜 2TB | Backblaze B2 | RTX 6000 Ada (48GB) | 10Gbps | ¥3,000 〜 ¥7,000 |
| 2TB 〜 10TB | AWS S3 / GCS | NVIDIA H100 (80GB) | 100Gbps | ¥7,000 〜 ¥15,000 |
| 10TB 〜 100TB | MinIO / LakeFS | NVIDIA DGX H100 | 400Gbps (InfiniBand) | ¥50,000 〜 |
10TBクラスのモデルを扱う場合、単一のストレージからのダウンロードに時間がかかるため、100Gbps以上のネットワークインターフェースを備えた計算ノード(例:NVIDIA H100搭載サーバー)と、高速なS3 API互換ストレージの組み合わせが必須となります。
また、DVCは多様なプロトコルをサポートしていますが、パフォーマンスとセキュリティの観点からS3 API準拠のストレージがデファクトスタンダードとなっています。
| バックエンド | S3 API互換 | SSH/SFTP | HTTP/HTTPS | DVC Native Support | Python SDK連携 |
|---|---|---|---|---|---|
| AWS S3 | 完全対応 | 非対応 | 対応 | 完全対応 | 強固 |
| Backblaze B2 | 対応 | 非対応 | 対応 | 完全対応 | 中 |
| Google Cloud Storage | 部分対応 | 非対応 | 対応 | 完全対応 | 強固 |
| MinIO (Self-hosted) | 完全対応 | 対応 | 対応 | 完全対応 | 強固 |
| Azure Blob Storage | 非対応 | 非対応 | 対応 | 完全対応 | 中 |
自前でストレージを運用する場合、MinIOを導入することでS3 API互換環境を構築でき、DVC 3.55から透過的にアクセス可能です。これにより、クラウドのEgressコストを完全に排除し、ローカルネットワーク内での超高速なモデル同期を実現できます。
最後に、DVCのローカルキャッシュ(Local Cache)を配置するハードウェアスペックについてです。DVCはリモートからデータをプルする際、一度ローカルディスクにキャッシュを生成します。このディスクI/O速度が、モデルのロード時間(チェックポイントの復元時間)に直接影響します。
| 構成ティア | ストレージデバイス | 読込速度 (Seq Read) | 推奨RAM容量 | 想定モデルサイズ |
|---|---|---|---|---|
| Entry | NVMe Gen4 SSD | 7,000 MB/s | 64GB | 10GB 〜 50GB |
| Professional | NVMe Gen5 SSD | 12,000 MB/s | 128GB | 50GB 〜 200GB |
| Server | NVMe RAID 0 / Optane | 25,000 MB/s+ | 512GB | 200GB 〜 1TB |
| Ultra-scale | Parallel File System | 100GB/s+ | 1TB+ | 1TB 〜 10TB |
例えば、Crucial T705のようなGen5 NVMe SSD(読込速度14,500MB/s)をキャッシュ領域に割り当てることで、数百GBのモデルファイルをDVCからワークスペースへ展開する時間を劇的に短縮できます。RAM容量は、DVCの操作自体よりも、その後に読み込むモデルの重み(Weights)をメモリ上に展開するために、最低でも64GB、大規模モデルでは512GB以上の構成を推奨します。
ストレージ料金のみを比較すると、Backblaze B2は1GBあたり約$0.006(月額約$6/TB)であるのに対し、AWS S3 Standardはリージョンにより異なりますが約$0.023(月額約$23/TB)となり、B2の方が圧倒的に低コストです。ただし、S3はAWSのエコシステム内での転送コストが最適化されており、B2から他クラウドへデータを移す際は下り転送量に応じた課金が発生します。月間1TB程度の運用であれば、B2を選択することで月額コストを数千円単位で削減可能です。
AWS S3などのオブジェクトストレージでは、データの保存量だけでなくPUT/LISTリクエスト回数(例:S3のPUTリクエストは1,000件につき$0.005)に応じて課金されます。数万個の小さなファイルを個別にバージョニングすると、リクエスト費用がストレージ容量費用を上回る場合があります。対策としては、大量の小ファイルをtar形式などでアーカイブ化し、1つの大きなバイナリとしてDVCで管理することで、リクエスト回数を劇的に減らし、月額コストを1,000円〜3,000円程度に抑える運用を推奨します。
Git LFSは主に「Gitのリポジトリを軽量に保つ」ための仕組みであり、バイナリファイルのポインタを管理します。一方、DVCは「MLパイプラインのデータ・モデル管理」に特化しており、.dvcファイルを通じてS3やGCSなどの外部ストレージと密に連携します。例えば、100GBを超える大規模な学習データセットを扱う場合、Git LFSでは管理が煩雑になりますが、DVC 3.55であればデータパイプラインの依存関係を定義でき、特定のモデルバージョンに紐づく正確なデータセットを即座に復元できるため、MLOps目的であればDVCが最適です。
利用する計算リソースに依存します。Google CloudのVertex AIやTPU v5pなどの強力なアクセラレータを利用する場合、GCSとの親和性が極めて高く、データのロード速度が最適化されています。一方で、AWS SageMakerやEC2 P5インスタンス(NVIDIA H100搭載)を中心に構成を組む場合は、S3を選択するのが正解です。DVCは両方のプロトコルをサポートしているため、ストレージ層の切り替えは容易ですが、学習エンジンのスループットを最大化するには、計算リソースと同じクラウドベンダーのストレージを選択してください。
DVC自体はストレージ管理ツールであるため、ロード後のVRAM消費量に直接影響することはありません。しかし、DVCでバージョン管理したモデルファイル(例:FP16精度の70Bパラメータモデルで約140GB)をロードする場合、NVIDIA H100 (80GB) 1枚では不足し、複数枚のGPUへの分散配置(Model Parallelism)が必要になります。DVCを用いて「どのバージョンのモデルをどの量子化設定(INT8やNF4など)で保存したか」を厳密に管理することで、ハードウェアスペックに合わせた適切なモデルの呼び出しが可能になります。
はい、動作します。DVCはS3 APIを実装しているストレージであれば、AWS S3以外の互換ストレージでも利用可能です。例えば、オンプレミスのサーバーにNVMe SSDを搭載し、10GbEネットワーク環境でMinIOを構築すれば、クラウドへの転送コストをゼロにしつつ、超高速なデータ読み書き(数GB/s)を実現できます。設定ファイルで dvc remote modify myremote endpointurl http://minio.local:9000 のようにエンドポイントを指定することで、クラウドと同様の操作感でバージョニングが可能です。
dvc push する際にタイムアウトが発生する場合の対処法は?ネットワークの不安定さやストレージ側の制限により、巨大なバイナリの転送が中断されることがあります。この場合、DVCの内部で利用されている転送エンジンの設定を見直すか、ネットワーク帯域を確保した専用ライン(AWS Direct Connectなど)の利用を検討してください。また、DVC 3.55以降では効率的なアップロード処理が改善されていますが、それでも失敗する場合は、ファイルを分割して管理するか、dvc push -r オプションでリモートを指定し、リトライ設定を最適化したクライアント環境で実行することをお勧めします。
.dvc ファイルの競合をどう防げばよいですか?.dvc ファイルはGitで管理される軽量なテキストファイルであるため、Gitのブランチ戦略(Git Flowなど)をそのまま適用してください。データセットの更新を行う際は、専用の data-update ブランチを作成し、プルリクエスト(PR)を通じてレビューを行います。同時に、DVCリモート側で「誰がどのバージョンをプッシュしたか」を明確にするため、S3のバケットポリシーやB2の権限管理を用いて、書き込み権限をCI/CDパイプライン(GitHub Actions等)に限定し、個人による直接上書きを禁止する運用が一般的です。
現在、LakeFSやDVCの競合となるデータレイク・バージョニングツールが登場していますが、DVCの最大の特徴は「Gitとの親和性」と「計算パイプラインの定義」にあります。最新のトレンドでは、NVMe-over-Fabrics (NVMe-oF) を活用した超高速共有ストレージとDVCを組み合わせ、モデルのチェックポイントを数秒で切り替える構成が増えています。完全にツールを置き換えるのではなく、低レイヤーの高速ストレージ層と、高レイヤーのメタデータ管理層としてのDVCを分担させるハイブリッド構成が主流となっています。
K8s上のPodで dvc pull を実行すると、コンテナの書き込み可能領域(Ephemeral Storage)を圧迫し、DiskPressureによるPodの再起動が発生するリスクがあります。これを避けるため、Persistent Volume Claim (PVC) を作成し、ReadWriteMany (RWX) 対応の共有ストレージ(Amazon EFSやAzure Filesなど)をマウントした領域でDVC操作を行う構成を推奨します。また、DVC 3.55の機能を活用し、モデルを直接S3からストリーミング的に読み込む実装を検討することで、ディスク容量の制約を回避することが可能です。
.dvcファイルをGitで管理し、実データをリモートストレージに分離する構成により、開発環境のクリーンさと高速なチェックアウトを両立できます。まずはBackblaze B2などの低コスト環境で小規模なパイプラインを構築し、データ量と予算に合わせてS3やGCSへの移行を検討してください。自身のワークフローにおけるデータ更新頻度と月間転送量を算出し、最適なストレージクラスを選択することを推奨します。