767件の用語
LLM推論KV Cache最適化。PagedAttention (vLLM・OS Page Table類似)・Flash Attention 3 (Hopper H100)・Flash Attention 2.7 (Ampere/Ada/Blackwell)・Multi-Query Attention (MQA)・Group Query Attention (GQA・Llama 3)・Sliding Window Attention・KV Cache Quantization (q8_0/q4_0)・Prefix Caching・Speculative Decoding・Lookahead Decoding・¥0 OSS、2026年Hybrid Attention主流化。
Keras Frameworkは、人工知能・機械学習分野における重要な概念・技術です。
LLM/GAN生成学習データ。Nemotron-4・Phi-4 Synthesis・Tulu 3 SFT・OpenMathInstruct・WizardLM Evol-Instruct・Self-Instruct・Self-Reward Synthetic・Argilla Distilabel・Nvidia Nemotron-340Bが2026年代表パイプライン、Scaling Law限界突破策として浸透。
LLM JSON Schema準拠応答。OpenAI Structured Outputs(strict:true)・Anthropic Tool Use schema・xAI Grok JSON mode・Gemini controlled generation・vLLM guided_json(lm-format-enforcer/Outlines/XGrammar)・Groq JSON mode・Mistral function calling代表、2026年Agent開発で必須化。
コード生成特化LLM。Claude Opus 4.1 Computer Use・GPT-5 Codex・DeepSeek V3/R1・Qwen 2.5-Coder 32B・Codestral Mamba・Llama 4 Coder・StarCoder 2・Granite Code 34B・OpenAI Codex CLI・Cursor Composer Agent・Windsurf Cascade・Aider AutoCoder・Cline・Continue.dev対応、2026年SWE-bench Verified 70%+性能。
Codeium 2024年11月発売の VS Code 派生 AI エディタ Windsurf。Cascade 独自 LLM + Computer Use + $15/月・「Cursor の競合」.
AI Code Editor 4強詳細比較(2026年)。Claude Code(Anthropic公式 CLI・$20-200/mo・Claude Opus 4.7専用・MCP統合・Skills/Hooks/Subagents・Terminal-first・Computer Use・Mac/Win/Linux)・Cursor IDE(VS Code fork・$20-40/mo・Claude/GPT/Gemini選択・Composer agent・Tab autocomplete・@Docs/@Codebase context・MCP対応 2024年12月-)・Windsurf(Codeium・$15-60/mo・Cascade agent・Claude/GPT・MCP対応・$15 Pro tier最安)・Zed(OSS・Rust製・Mac/Linux/Windows・Claude/GPT/Gemini integration・MCP native・collaborative editing・10倍 fast performance)・選択: Terminal自由 = Claude Code・IDE標準 = Cursor・Mid budget = Windsurf・OSS performance = Zed・2026年 Claude Code市場リーダー、Cursor mass appeal Premium。
Code Generation特化LLM。DeepSeek Coder V3 671B/V2.5・Qwen2.5-Coder 32B/14B/7B・Qwen3-Coder予告・Codestral 25.01 (Mistral)・Codestral Mamba 7B・Llama 3.3 Code・StarCoder 2 15B BigCode・Codeium Cosmos 7B・Yi-Coder 9B・Granite Code Models 34B IBM・Qodo-Embed-1 1.5B (Code Embedding)・¥0 OSS-API・SWE-Bench Verified 50%+、2026年Open Code LLM 70B+主流。
言語処理 / AI 訓練のために体系的に集められたテキスト・音声・画像データの集合。Common Crawl / Wikipedia / The Pile 等が代表で、LLM 訓練の基盤となる。
Google製Edge AI推論アクセラレータ。USB Accelerator(¥10,000)/Dev Board/M.2/PCIe形式。INT8 4 TOPS @ 2W、ML推論専用。
Claude Cost optimization。Pricing比較(per Mtok input/output): Opus 4.7 $15/$75・Sonnet 4.6 $3/$15(-80% cost)・Haiku 4.5 $0.80/$4(-95% cost)・Use case別選択: Opus = Math/Science/Complex Code/Research・Sonnet = Daily coding/Refactoring/Documentation/Standard Q&A・Haiku = Customer support/Voice realtime/Simple Q&A/Translation・Cost reduction techniques: Prompt Caching(-90%・cached input)・Batch API(-50%・24h処理OK時)・Model downsizing(Opus → Sonnet適時)・Extended Thinking selective(Reasoning task限定)・Streaming(faster perceived・cost同)・Subagents(separate context・total token効率)・2026年 enterprise budget管理 Sonnet主体 + Opus complex limited。
Microsoft認定の高性能AI PC。100TOPS以上のNPU搭載が要件
2024年Cohere公開Command R+。Pro 業界Pro Mainstream Enterprise RAG特化LLM + Pro 加国Toronto Cohere + Pro Aidan Gomez CEO元Google Brain Transformer著者 + Pro 104B Parameters + Pro 128k Context + Pro RAG特化 + Pro Tool Use + Pro 多言語10言語 + 累計2019-2026年7年Heritage継承代表機。
2024年4月Cohere公開Rerank 3。Pro 業界Pro Mainstream Reranker API Top + Pro Cohere主導 + Pro 100+言語対応 + Pro Multi-Aspect(Code/Long Document/Tabular) + Pro 4K Token Context + Pro Pay-per-token API + 累計2023-2025年2年Heritage継承代表機。
米 Perplexity AI 2025年公開の AI 検索ファースト ブラウザ。Perplexity AI 統合 + AI 検索主流・「AI 検索ブラウザ業界主流」.
2021年Stanford公開ColBERT v2。Pro 業界Pro Mainstream Late Interaction Reranker先駆 + Pro Stanford NLP主導 + Pro Omar Khattab主要研究員 + Pro Multi-Vector Architecture + Pro 110M Parameters + Pro Token-level Embedding + Pro MIT License + 累計2020-2026年6年Heritage継承代表機。
動的バッチ推論スケジューリング。vLLM continuous batching・TGI rolling batch・SGLang Radix・DeepSpeed-FastGen Dynamic SplitFuse・NVIDIA TensorRT-LLM in-flight batchingが2026年代表、Per-request dynamic add/removeでGPU利用率80%+、Static Batch比3-10xスループット達成。
2023年Continue.dev公開Continue。Pro 業界Pro Mainstream Open Source AI Code Assistant Top + Pro 米国Continue.dev + Pro VSCode拡張 + Pro JetBrains対応 + Pro Apache 2.0 + Pro Multi-Model対応 + Pro Local LLM対応 + 累計2023-2026年3年Heritage継承代表機。
LLM が一度に処理できるトークン数の上限。GPT-4o は 128K、Claude 3.5 は 200K、Gemini 1.5 Pro は 2M トークン。長いほど長文理解・RAG の精度が向上するが推論コストも増大。
LLM一度処理可能トークン長。Gemini 2.5 Pro 2M・Claude Opus 4.7 2M(2025年11月)・Claude Sonnet 4.6 1M・GPT-5 1M・Llama 4 Maverick 10M・Gemini 2.5 Flash 1M・Qwen3-Coder 256Kが2026年代表、Long Context評価はRULER・Needle-in-haystack・HELMETで実施。