513件の用語
AI・機械学習タスクに特化したプロセッサ。ニューラルネットワークの推論処理を低消費電力で高速に実行する専用チップ。
AI PC 専用演算ユニット。AMD XDNA 2(Strix Halo・Ryzen AI 9 HX 370・50 TOPS)・XDNA 1(Phoenix/Hawk Point・16 TOPS)・Intel AI Boost(Lunar Lake・Core Ultra 258V・48 TOPS)・Meteor Lake NPU 3(11 TOPS)・Panther Lake NPU 4(52+ TOPS)・Qualcomm Hexagon NPU(Snapdragon X Elite・45 TOPS)・Apple Neural Engine(M4 Max 38 TOPS)・ONNX Runtime + DirectML対応、2026年Copilot+ PC 40+ TOPS必須。
Neural Processing Unit の演算性能指標で、INT8 演算を 1 秒間に何兆回実行できるかを表す単位。Copilot+ PC は 40TOPS 以上、2025年主流 NPU は 40-50TOPS 水準。
NPU 2.0は、AI分野における最新技術の一つです。2025年に登場した技術革新により、従来の技術と比較して大幅な性能向上を実現しています。
100兆回/秒の演算性能を持つ次世代AI処理ユニット
Npu Processorは、最新のCPU/GPU技術における重要な要素です。
8bit浮動小数点LLM学習手法。NVIDIA Hopper/Blackwell・Transformer Engine・MSAmp・DeepSeek V3/R1 FP8大規模学習・Ascend FP8・AMD MI300X FP8対応、E4M3(順伝播)+E5M2(逆伝播)・scaling factor自動調整で2026年Large Scale LLM学習効率2-3x向上。
16bit半精度浮動小数点フォーマット。FP32の半分のメモリでAI推論/学習を高速化し、RTX 4090/H100/MI300などモダンGPUのTensor Core/Matrix Engineで劇的な性能向上を得られる。
機械学習で訓練データ全体を 1 周する単位。または Unix Time の起点(1970-01-01 UTC)を指す。文脈で意味が異なるが、ML 文脈が 2026 年は主流。
ML Experiment Tracking。MLflow 2.18 (FOSS+Databricks Cloud)・Weights & Biases W&B (Pro/Enterprise)・Comet ML・Neptune.ai・ClearML 1.16・DVC Studio・Aim (Open Source・Python)・Sacred+Omniboard (Maintenance)・TensorBoard (TensorFlow Native)・Weave (W&B LLM)・LangSmith (LangChain LLM)・Phoenix (Arize)・¥0 OSS-¥¥¥¥¥/月、2026年MLflow 2.18+Databricks統合主流。
Apple ML Framework(2023年12月OSS)。Apple Silicon Unified Memory最適化・Lazy evaluation(JAX-like)・Multi-device(M2 Ultra+M3 cluster)・PyTorch互換API・MLX-LM library(Llama 3.3/Qwen 2.5/Mistral対応)・Whisper MLX・Stable Diffusion MLX・MLX Examples GitHub・mlx-community(Hugging Face Q4/Q8 quantized model)・LM Studio 0.3 MLX engine内蔵(2024年Q4)・Mac M4 Max 128GB で 70B Q4/Q8 実行可・速度 PyTorch CUDA比 60-80% on Mac・2026年 Mac Studio M4 Ultra Llama 3.3 70B運用定着。
Apple Silicon AI推論フレームワーク。MLX(Apple 2023年・Unified Memory最適化・NumPy-like API・LLM/画像生成)・mlx-lm(Llama/Qwen/Phi-4)・mlx-swift(iOS/macOS)・CoreML(Xcode統合・Conversion ONNX)・CreateML(Transfer Learning)・Metal Performance Shaders(MPS)・ANE Neural Engine 38 TOPS・PyTorch Metal backend・Ollama Metal・M4 Max 128GB で70B Q4実行可能、2026年Apple AI推論定着。
ML Commons業界標準AIベンチマーク。MLPerf Training v5.0(2025)・Inference v5.0(Llama 3.1 405B・Mixtral 8x22B)・Tiny v1.2・Storage v2.0・HPC v4.0、NVIDIA B200 NVL72・AMD Instinct MI325X・Intel Gaudi 3・Google TPU v5p・AWS Trainium 2が2026年競合、Llama 2 70B以降主要モデル。
ML Platform。Kubeflow 1.10 (CNCF・k8s)・Metaflow (Netflix・Outerbounds Cloud)・Flyte 1.14 (Union AI・Workflow)・Airflow 2.10 (Workflow)・Prefect 3 (Modern Orchestration)・Dagster 1.9・MLflow 2.18・SageMaker AWS・Vertex AI GCP・Azure ML・Determined AI HPE・Polyaxon・Valohai・¥0 OSS-¥¥¥¥¥¥/月、2026年Flyte+Metaflow急成長。
ML Lifecycle管理OSS(Databricks発・2018-)。MLflow 3.0(2025年Q4・LLM Ops統合・Deep Learning 2.0)・Tracking・Models・Registry・Projects・Evaluate・AI Gateway・Prompt Engineering UI対応、W&B/Neptune/Comet競合、2026年LLMOps用途拡大。
Machine Learning Research Milestone 15年史 2010-2026。ImageNet (2009 Fei-Fei Li Princeton→Stanford・1500万 Image+22000 Class Dataset公開)+ILSVRC ImageNet Challenge (2010-2017)・AlexNet (2012年9月30日 Alex Krizhevsky+Ilya Sutskever+Geoff Hinton Toronto・GPU NVIDIA GTX 580 ×2・Top 5 Error 15.3%・Deep Learning革命起点)→VGGNet (2014 Oxford 19 Layer)→GoogLeNet Inception (2014 Google)→ResNet (2015 Kaiming He Microsoft・Skip Connection 152 Layer・ImageNet Top 3.57%人間超え)→DenseNet→EfficientNet・Generative Adversarial Network GAN (2014年6月 Ian Goodfellow・Generator+Discriminator)→DCGAN+CycleGAN+StyleGAN+StyleGAN3 (2021 NVIDIA)・Variational Autoencoder VAE (2013 Diederik Kingma・Auto-Encoding Variational Bayes)・Word2Vec (2013 Mikolov Google)・GloVe (2014 Stanford)・Sequence to Seq+Attention (2014 Bahdanau)・Transformer (2017年6月12日 Vaswani+Polosukhin Google・Attention Is All You Need NeurIPS論文・Encoder-Decoder)・BERT (2018年10月 Google・Bidirectional・Pre-training+Fine-tuning Era)・GPT-1 (2018 OpenAI 1.17億 Param)→GPT-2 (2019 1.5B Too Dangerous to Release)→GPT-3 (2020年5月 175B Param・Few-shot+ChatGPT 2022年11月)→GPT-4 (2023年3月 Multimodal)・AlphaGo (2016年3月 DeepMind vs Lee Sedol 4-1)+AlphaZero (2017)+MuZero+AlphaFold 2 (2021タンパク質構造予測)・DALL-E (2021)+CLIP+Stable Diffusion (2022年8月 LMU Munich・Open Source LDM)・LLaMA (2023 Meta Open Weight)+LLaMA 2/3/4 (2024-25)・Mixtral MoE+Mistral (2023-24)・Sora Video Gen (2024 OpenAI)+Veo 3 (2024 Google)・Gemini Ultra/Pro/Flash (2023-24)+Claude 3.5 Sonnet+Opus (Anthropic 2024-25)・GPT-5 (2025年8月)+Claude 4 Sonnet 4.5/4.6/4.7 Opus 4.7 (2025-26)・¥0 OSS-¥¥¥¥¥¥¥¥¥¥/Token API 2026。
Mixture of Experts・エキスパート混合モデル。GPT-5/GPT-4o(1.8T total/280B active推定)・Mixtral 8x22B・DeepSeek V3(671B/37B active)・Llama 4 Maverick 400B/17B active・Grok 3・Qwen3-235B-A22B・Kimi K2が2026年代表、選択活性化で計算効率3-10x向上。
LLM疎活性化専門家混合アーキテクチャ。Mixtral 8x22B/8x7B・DeepSeek V3/R1(671B・37B active)・Qwen3-235B-A22B・Llama 4 Maverick(400B・17B active)・Grok-2・GLM-4.5 MoE・Switch Transformer派生、全パラ推論不要で2026年Frontier LLM定番、expertルーティング+負荷分散最適化。
Anthropic MCP Model Context Protocol。MCP 1.0 (Anthropic 2024-11 OSS)・JSON-RPC 2.0 ベース・Stdio/SSE/HTTP+SSE Transport・Server Side Tool/Resources/Prompts・Client (Claude Desktop/Cursor/Windsurf/Cline)・Server SDK (TypeScript/Python/Java/Kotlin)・MCP Server一覧 (filesystem・github・slack・PostgreSQL・Memory)・mcp-server-everything・GitHub Copilot対応・¥0 OSS、2026年MCP標準化加速 (OpenAI/Google対応予定)。
Anthropic Model Context Protocol(2024年11月発表・OSS)。JSON-RPC 2.0 based・Tools/Resources/Prompts 3 primitive・stdio/SSE/HTTP transport・Client(Claude Desktop/Cursor/Cline/Zed)・Server実装: Python/TypeScript/Go/Rust SDK・公式Server(GitHub/Slack/Google Drive/Notion/Sentry)・Community 数千server・Cursor Rules統合・LLM agent + external tool接続標準化・OpenAI ChatGPT 2025年Q1採用・Gemini CLI 2025年Q2対応、2026年AI agent標準。