9743件の用語
PSU国内価格(2026年春)。ATX 3.1 Gold 850W ¥17,800(Corsair RM850x SHIFT)・1000W ¥22,800(Seasonic PRIME GX-1000)・1200W Titanium ¥34,800(Seasonic PRIME TX-1200)・1500W Platinum ¥42,800(Corsair AX1500i)・1650W ¥58,800(Thermaltake GF3)・SFX 850W ¥22,800(Corsair SF850L)・SFX-L 1000W ¥28,800(Silverstone SX1000)・RTX 5090 1000W推奨・Bronze 650W ¥9,800入門、2026年ATX 3.1 12V-2x6必須。
PSUのコンデンサ劣化と交換目安、長寿命モデルの選び方
電源ユニットを品質・信頼性で分類したコミュニティ評価リスト
PC構成に必要な電源容量を算出する方法。TDP合計に余裕率を加えて、適切な電源選定を行う
PCパーツの消費電力から必要なPSUワット数を算出するオンラインツール
DC出力AC残留成分。ATX 3.1規格+12V 50mVp-p・+5V 50mVp-p・+3.3V 50mVp-p上限、Corsair AX1600i(12V 10mVp-p)・Seasonic Prime TX-1600(<20mVp-p)・Super Flower Leadex Titanium(<15mVp-p)が2026年優秀、オシロスコープ+20MHz BW measurement基準、過大→VRM不安定+OCP誤作動原因。
2024年Tenstorrent公開のRISC-V AI Accelerator。Blackhole p150 PCIe Card+SiFive X280 RISC-V core+Tensix Architecture+TT-Metalium SDK+Wormhole後継。
多次元配列のAI基本データ構造。0階スカラ・1階ベクトル・2階行列・3-4階が画像/バッチ。PyTorch Tensor・JAX Array・TensorFlowが主要ライブラリで、NVIDIA Tensor CoreやApple Neural Engineが高速化。
概要
NVIDIA AI 行列演算専用ハードウェア。Volta V100 (2017) で初導入、第5世代 (Blackwell・FP4対応) で AI 性能爆増、生成AI ブームの心臓部。
AI・機械学習向けの行列演算に特化したNVIDIA GPU内蔵プロセッサ
Tensor Coresは、NVIDIAが開発したハードウェアアクセラレータであり、特に深層学習(ディープラーニング)の行列演算処理を高速化するために設計されています。その登場は、AI技術の進化に大きく貢献しており、PC自作においても重要な要素となりつつあります。本稿では、Tensor Coresの基礎から、種類、選び方、トラブルシューティングまで網羅的に解説します。
Tensor Core Gen 5は、GPU分野における最新技術の一つです。2025年に登場した技術革新により、従来の技術と比較して大幅な性能向上を実現しています。
Tensor Core低層プログラミング。WMMA Warp-level Matrix Multiply Accumulate (Volta・廃止傾向)・MMA Matrix Multiply Accumulate (Ampere+)・MMA Async (Hopper・cp.async.mbarrier)・WGMMA Warpgroup MMA (Hopper)・TMA Tensor Memory Accelerator (Hopper)・Distributed Shared Memory DSMEM・Cluster (Hopper)・PTX cp.async.bulk・MMA Sparse 2:4・Blackwell 2nd Gen Transformer Engine FP4・¥0 知識、2026年Blackwell PTX優先。
GPU AI演算ユニット。NVIDIA Tensor Core 5th Gen(Blackwell・FP4/FP8/BF16/TF32)・AMD Matrix Core 3rd Gen(CDNA 3 MI300X・FP16/BF16/FP8)・Intel XMX(Xe Matrix Extension・Arc Battlemage・BF16/INT8)・Apple Matrix Multiplier(AMX)・Qualcomm HMX(Hexagon)・FP32 vs FP16 vs BF16 vs FP8 vs FP4・Sparsity 2:4・LoRA低精度学習必須、2026年Transformer推論基盤。
>-
Google 主導開発の Python 機械学習フレームワーク。Eager Mode + Keras 統合 + TPU 最適化・GitHub スター187,000・PyTorch と二大フレームワーク.
Google 2019年9月リリースTensorFlow 2.0。Eager Execution標準+Keras統合+tf.function+Python pickle化・PyTorch対抗強化。
TensorFlow Lite(TFLite)は、Googleが開発した軽量化された機械学習フレームワークです。従来のTensorFlowはサーバーやデスクトップ環境で大規模なモデルを訓練・推論するために設計されていましたが、TFLiteはモバイル端末や組み込みシステム(IoT機器)などリソース制約のあるデバイス上で高速かつ低消費電力で推論を実行できるよう最適化されています。