513件の用語
LLM人間評価ランキング。LMArena(旧Chatbot Arena・UC Berkeley・Elo rating・匿名対戦)・lmarena.ai・Top rank: GPT-5 Pro 1530・o3 Pro 1520・Claude Opus 4.7 1510・Gemini 2.5 Pro 1505・DeepSeek R1 1450・Llama 4 Maverick 1420・Hard Prompts/Coding/Vision Arena別ランク・300万+投票・2026年モデル評価標準、Artificial Analysis/Vellum併用。
100K-10M+ context窓LLM。Gemini 2.5 Pro 1M(拡張2M+)・Claude Opus 4 200K/Sonnet 4 1M(Extended)・GPT-5 400K・Grok 3 1M・Qwen2.5-Max 1M・Llama 4 Scout 10M(needle in haystack特化)・MiniMax-01 4M・Kimi K1.5 200K・Magic LTM-2-Mini 100M 実験、2026年超長コンテキスト業務応用期。
Anthropic Claude Tool Use(2024年5月-)。tools array定義(name/description/input_schema JSON Schema)・Claude tool_use stop_reason・tool_use_id+result return・Forced tool use(tool_choice: {type: tool, name: ...})・Auto tool choice・None choice・Parallel tool calls(multi-tool simultaneous・Opus 4.7 native)・Multi-step tool use loop(agent loop)・OpenAI Function Calling同等・Tool definitions in cache(prompt_cache対応)・Computer Use Tools(bash, str_replace_editor, computer)・Anthropic Cookbook examples・2026年 Tool Use + MCP統合 Agent定番。
LLM外部API呼出機能。OpenAI Function Calling v3(parallel tools・strict mode)・Anthropic Tool Use・Google Gemini Automatic Function Calling・xAI Grok Tools・Qwen3 Agent mode・Llama 4 Tool Use・Mistral Function Calling・Gorilla LLM(Berkeley)・MCP Tools・LangGraph ToolNode・LlamaIndex Function Tool代表、Agent基盤。
プログラミング的プロンプト最適化。DSPy(Stanford・2024-・LLM Signature + Modules + Optimizers)・Signature(input/output type定義)・Module(ChainOfThought/Predict)・Optimizer(BootstrapFewShot/MIPROv2)・dspy.configure(LM provider)・Self-Improving Prompts・Teleprompter・Signature optimization・Retrieval Augmentation・Production Ready DSPy 2.5対応・Google TextGrad・OpenAI Meta-Prompting補完・2026年エージェント品質向上で台頭。
Text-to-Speech 2026最新。ElevenLabs Turbo v2.5+v3 Beta・ElevenLabs Conversational AI 2.0・Cartesia Sonic (90ms Latency・SSM)・Fish Audio Fish Speech 1.5・Hume EVI 2 (Empathic Voice)・Sesame CSM-1B (Conversational Speech Model)・Rime mist v2・OpenAI gpt-4o-mini-tts・Google Chirp 3 HD Voice・MaskGCT (Open S2S)・F5-TTS・GPT-SoVITS V3 (Voice Clone)・¥¥¥/M chars・¥0 OSS、2026年Sesame CSM+Cartesia急成長。
概要
Google TPU Cluster。TPU v5e (256 chip Pod)・TPU v5p (8960 chip Pod・95.7 TB HBM)・TPU v6e Trillium (Single Pod 256・4.7x v5e perf)・TPU v7 Ironwood (2025-Q4予告 4614 TFLOPS BF16)・Multi-Slice (Multi-Pod学習)・JAX Native・TF/PyTorch対応・ICI Inter-Chip Interconnect・OCS Optical Circuit Switch・¥¥¥¥¥/hour Cloud TPU、2026年Ironwood Gemini次世代訓練。
DeepSeek OSS LLM(中国High-Flyer Quant・2024-2025)。DeepSeek V3(671B MoE・37B active・2024年12月・API $0.14/1M)・DeepSeek R1(Reasoning・o1競合・2025年1月・MIT License)・DeepSeek R1 Distill(Llama/Qwen base 7B-70B蒸留)・FP8 Training・Mixture-of-Experts 256 expert・推論$2.19/M token(Cache hit$0.14)・Ollama: deepseek-r1:32b-q4 for local・OpenAI o1並benchmark + OSS重要性・2026年 Enterprise OSS採用加速、GPU需要押し下げ論。
DeepSeek発中国LLMシリーズ。DeepSeek V3/V3.1(671B MoE・37B active)・R1(推論特化・OpenAI o1対抗)・R1 Distill(1.5/7/14/32/70B)・V3-0324・Coder V2/V3・Prover・VL2・Janus Pro・Math・DeepSeek V4(2026年Q2予定)、FP8 training・Multi-head Latent Attention(MLA)独自、2026年OSS MoE定番。
DeepSeek が 2025 年 1 月に公開した推論特化型オープンソース LLM。DeepSeek V3 をベースに強化学習で Chain of Thought 能力を獲得し、o1 に匹敵する数学・コーディング性能を実現。
DeepSeek社オープン推論LLM。R1(671B MoE・37B Active・GRPO RLHF・OSS MIT License)・R1-Zero(SFT無し pure RL)・V3(同base・Math/Code強化)・R1 Distill 1.5B/7B/8B/14B/32B/70B(Qwen/Llama base)・MMLU-Pro 0.84・MATH-500 0.97・LiveCodeBench 0.65・$15M training cost・2025年1月リリース・OpenAI o1相当性能、2026年LocalLLM革命起点。
中国 DeepSeek が 2024 年末に公開したオープンソース大規模言語モデル。671B パラメータの MoE(Mixture of Experts)アーキテクチャで GPT-4 に匹敵する性能を低コストで実現。
AI生成の偽映像/音声。Sora 2・Runway Gen-4・HeyGen・Veed.ioが代表生成ツール、Intel FakeCatcher・Microsoft Video Authenticator等の検出技術も進化、2026年は電子透かし法制化。
Deep Learning Trinity 2018 Turing Award (差別化: 既存ML史と異なり研究者個人軸)。Geoffrey Hinton 1947生 Edinburgh→Toronto Univ「Backpropagation」1986 Rumelhart+Williams共著 Nature掲載+Restricted Boltzmann Machines RBM+Deep Belief Networks DBN 2006・AlexNet 2012 (Alex Krizhevsky+Ilya Sutskever Student指導・ImageNet 16.4% Top-5 Error)→Google 2013-2023+Vector Institute 2017→Toronto退職 2023→Google Brain離職 AI Safety Concern「Godfather of AI」・Yann LeCun 1960生 Sorbonne→Bell Labs+New York University+Meta AI VP→FAIR Facebook AI Research・LeNet-5 1989 CNN Convolutional Neural Network先駆+MNIST handwriting digit・Yoshua Bengio 1964生 McGill→Montreal Univ MILA・Word Embeddings+Generative Adversarial Networks GAN指導 (Ian Goodfellow Student 2014・GoodFellow Apple→Google Brain→DeepMind)・3名 2018 Turing Award (AC ACM・$1M)+Hinton 2024 Nobel Physics (John Hopfield共)・Demis Hassabis 2024 Nobel Chemistry AlphaFold・¥0 公的功績、2026年Hinton+LeCun+Bengio LLM/AGI Foundation。
Deep Learning Frameworkは、人工知能・機械学習分野における重要な概念・技術です。
Decision Treeは、人工知能・機械学習分野における重要な概念・技術です。
Distributed AI Inference。vLLM Multi-Node (Tensor Parallel+Pipeline Parallel・8x H200)・Ray Serve 2.40 (Anyscale)・SkyPilot 0.7 (Multi-Cloud訓練+推論)・Determined AI (HPE)・Modular MAX 25.x・KubeRay (k8s Ray Operator)・Argo Workflow・Kueue (k8s Job Scheduler)・KubeFlow Training Operator・LLM-d (Kubernetes Distributed)・FleetingAI・¥0 OSS・Multi-Region Inference、2026年LLM-d k8s Native普及。
Distributed Training戦略。DDP Distributed Data Parallel (PyTorch・Replica×N)・FSDP/FSDP2 Fully Sharded Data Parallel・ZeRO-1/2/3 (DeepSpeed)・Tensor Parallelism TP (Megatron・Layer内Slice)・Pipeline Parallelism PP (Layer分割・GPipe・Interleaved 1F1B)・Sequence Parallelism SP・Context Parallelism CP・Expert Parallelism EP (MoE)・3D/4D Parallelism・¥0 OSS・H200×8 70B Train、2026年4D Parallel普及。