767件の用語
AI PC 専用演算ユニット。AMD XDNA 2(Strix Halo・Ryzen AI 9 HX 370・50 TOPS)・XDNA 1(Phoenix/Hawk Point・16 TOPS)・Intel AI Boost(Lunar Lake・Core Ultra 258V・48 TOPS)・Meteor Lake NPU 3(11 TOPS)・Panther Lake NPU 4(52+ TOPS)・Qualcomm Hexagon NPU(Snapdragon X Elite・45 TOPS)・Apple Neural Engine(M4 Max 38 TOPS)・ONNX Runtime + DirectML対応、2026年Copilot+ PC 40+ TOPS必須。
Neural Processing Unit の演算性能指標で、INT8 演算を 1 秒間に何兆回実行できるかを表す単位。Copilot+ PC は 40TOPS 以上、2025年主流 NPU は 40-50TOPS 水準。
NPU 2.0は、AI分野における最新技術の一つです。2025年に登場した技術革新により、従来の技術と比較して大幅な性能向上を実現しています。
100兆回/秒の演算性能を持つ次世代AI処理ユニット
Npu Processorは、最新のCPU/GPU技術における重要な要素です。
8bit浮動小数点LLM学習手法。NVIDIA Hopper/Blackwell・Transformer Engine・MSAmp・DeepSeek V3/R1 FP8大規模学習・Ascend FP8・AMD MI300X FP8対応、E4M3(順伝播)+E5M2(逆伝播)・scaling factor自動調整で2026年Large Scale LLM学習効率2-3x向上。
16bit半精度浮動小数点フォーマット。FP32の半分のメモリでAI推論/学習を高速化し、RTX 4090/H100/MI300などモダンGPUのTensor Core/Matrix Engineで劇的な性能向上を得られる。
機械学習で訓練データ全体を 1 周する単位。または Unix Time の起点(1970-01-01 UTC)を指す。文脈で意味が異なるが、ML 文脈が 2026 年は主流。
2019年Microsoft Research公開MS MARCO Cross-Encoder。Pro 業界Pro Mainstream Cross-Encoder Reranker先駆 + Pro Microsoft Bing データセット + Pro BERT基盤 + Pro 110M Parameters + Pro MIT License + Pro Hugging Face公開 + 累計2018-2026年8年Heritage継承代表機。
2020年UC Berkeley公開MMLU(Massive Multitask Language Understanding)。Pro 業界Pro Mainstream AI 知識評価Bench先駆 + Pro Dan Hendrycks Pro主要研究員 + Pro 57科目15,908問 + Pro Multiple Choice 4択 + Pro MIT License + Pro 業界Pro 標準LLM評価 + 累計2020-2026年6年Heritage継承代表機。
ML Experiment Tracking。MLflow 2.18 (FOSS+Databricks Cloud)・Weights & Biases W&B (Pro/Enterprise)・Comet ML・Neptune.ai・ClearML 1.16・DVC Studio・Aim (Open Source・Python)・Sacred+Omniboard (Maintenance)・TensorBoard (TensorFlow Native)・Weave (W&B LLM)・LangSmith (LangChain LLM)・Phoenix (Arize)・¥0 OSS-¥¥¥¥¥/月、2026年MLflow 2.18+Databricks統合主流。
Apple ML Framework(2023年12月OSS)。Apple Silicon Unified Memory最適化・Lazy evaluation(JAX-like)・Multi-device(M2 Ultra+M3 cluster)・PyTorch互換API・MLX-LM library(Llama 3.3/Qwen 2.5/Mistral対応)・Whisper MLX・Stable Diffusion MLX・MLX Examples GitHub・mlx-community(Hugging Face Q4/Q8 quantized model)・LM Studio 0.3 MLX engine内蔵(2024年Q4)・Mac M4 Max 128GB で 70B Q4/Q8 実行可・速度 PyTorch CUDA比 60-80% on Mac・2026年 Mac Studio M4 Ultra Llama 3.3 70B運用定着。
Apple Silicon AI推論フレームワーク。MLX(Apple 2023年・Unified Memory最適化・NumPy-like API・LLM/画像生成)・mlx-lm(Llama/Qwen/Phi-4)・mlx-swift(iOS/macOS)・CoreML(Xcode統合・Conversion ONNX)・CreateML(Transfer Learning)・Metal Performance Shaders(MPS)・ANE Neural Engine 38 TOPS・PyTorch Metal backend・Ollama Metal・M4 Max 128GB で70B Q4実行可能、2026年Apple AI推論定着。
2024年Apple ML Research公開MLX-LM。Pro 業界Pro Mainstream Apple Silicon LLM Inference Top + Pro 米国Cupertino Apple + Pro Awni Hannun Pro主要研究員 + Pro Metal Performance Shaders + Pro MIT License + Pro Unified Memory最適化 + 累計2023-2026年3年Heritage継承代表機。
ML Commons業界標準AIベンチマーク。MLPerf Training v5.0(2025)・Inference v5.0(Llama 3.1 405B・Mixtral 8x22B)・Tiny v1.2・Storage v2.0・HPC v4.0、NVIDIA B200 NVL72・AMD Instinct MI325X・Intel Gaudi 3・Google TPU v5p・AWS Trainium 2が2026年競合、Llama 2 70B以降主要モデル。
ML Platform。Kubeflow 1.10 (CNCF・k8s)・Metaflow (Netflix・Outerbounds Cloud)・Flyte 1.14 (Union AI・Workflow)・Airflow 2.10 (Workflow)・Prefect 3 (Modern Orchestration)・Dagster 1.9・MLflow 2.18・SageMaker AWS・Vertex AI GCP・Azure ML・Determined AI HPE・Polyaxon・Valohai・¥0 OSS-¥¥¥¥¥¥/月、2026年Flyte+Metaflow急成長。
ML Lifecycle管理OSS(Databricks発・2018-)。MLflow 3.0(2025年Q4・LLM Ops統合・Deep Learning 2.0)・Tracking・Models・Registry・Projects・Evaluate・AI Gateway・Prompt Engineering UI対応、W&B/Neptune/Comet競合、2026年LLMOps用途拡大。
Machine Learning Research Milestone 15年史 2010-2026。ImageNet (2009 Fei-Fei Li Princeton→Stanford・1500万 Image+22000 Class Dataset公開)+ILSVRC ImageNet Challenge (2010-2017)・AlexNet (2012年9月30日 Alex Krizhevsky+Ilya Sutskever+Geoff Hinton Toronto・GPU NVIDIA GTX 580 ×2・Top 5 Error 15.3%・Deep Learning革命起点)→VGGNet (2014 Oxford 19 Layer)→GoogLeNet Inception (2014 Google)→ResNet (2015 Kaiming He Microsoft・Skip Connection 152 Layer・ImageNet Top 3.57%人間超え)→DenseNet→EfficientNet・Generative Adversarial Network GAN (2014年6月 Ian Goodfellow・Generator+Discriminator)→DCGAN+CycleGAN+StyleGAN+StyleGAN3 (2021 NVIDIA)・Variational Autoencoder VAE (2013 Diederik Kingma・Auto-Encoding Variational Bayes)・Word2Vec (2013 Mikolov Google)・GloVe (2014 Stanford)・Sequence to Seq+Attention (2014 Bahdanau)・Transformer (2017年6月12日 Vaswani+Polosukhin Google・Attention Is All You Need NeurIPS論文・Encoder-Decoder)・BERT (2018年10月 Google・Bidirectional・Pre-training+Fine-tuning Era)・GPT-1 (2018 OpenAI 1.17億 Param)→GPT-2 (2019 1.5B Too Dangerous to Release)→GPT-3 (2020年5月 175B Param・Few-shot+ChatGPT 2022年11月)→GPT-4 (2023年3月 Multimodal)・AlphaGo (2016年3月 DeepMind vs Lee Sedol 4-1)+AlphaZero (2017)+MuZero+AlphaFold 2 (2021タンパク質構造予測)・DALL-E (2021)+CLIP+Stable Diffusion (2022年8月 LMU Munich・Open Source LDM)・LLaMA (2023 Meta Open Weight)+LLaMA 2/3/4 (2024-25)・Mixtral MoE+Mistral (2023-24)・Sora Video Gen (2024 OpenAI)+Veo 3 (2024 Google)・Gemini Ultra/Pro/Flash (2023-24)+Claude 3.5 Sonnet+Opus (Anthropic 2024-25)・GPT-5 (2025年8月)+Claude 4 Sonnet 4.5/4.6/4.7 Opus 4.7 (2025-26)・¥0 OSS-¥¥¥¥¥¥¥¥¥¥/Token API 2026。
Mixture of Experts・エキスパート混合モデル。GPT-5/GPT-4o(1.8T total/280B active推定)・Mixtral 8x22B・DeepSeek V3(671B/37B active)・Llama 4 Maverick 400B/17B active・Grok 3・Qwen3-235B-A22B・Kimi K2が2026年代表、選択活性化で計算効率3-10x向上。
LLM疎活性化専門家混合アーキテクチャ。Mixtral 8x22B/8x7B・DeepSeek V3/R1(671B・37B active)・Qwen3-235B-A22B・Llama 4 Maverick(400B・17B active)・Grok-2・GLM-4.5 MoE・Switch Transformer派生、全パラ推論不要で2026年Frontier LLM定番、expertルーティング+負荷分散最適化。