513件の用語
Anthropic が 2024 年 11 月に公開した、LLM と外部ツール・データソースを標準化された方法で接続するオープンプロトコル。AI エージェント向けの「USB-C」と称される。
Model Context Protocol開発ツール。MCP Inspector(Anthropic公式・npx @modelcontextprotocol/inspector)・Stdio/HTTP/SSE transport test・JSON-RPC 2.0 call・Tool/Resource/Prompt list・MCP Hub(Smithery・2000+ MCP)・Cursor MCP integration・Claude Desktop .mcp.json・Glama.ai MCP directory・Playwright MCP・Serena MCP(Code Intel)・Puppeteer MCP対応、2026年MCP ecosystem成熟期。
MCP対応Client。Claude Desktop(Anthropic公式・Mac/Win・JSON config)・Cursor IDE(2024年12月-MCP・Cursor Settings)・Cline VS Code Extension(MCP対応・OSS)・Zed Editor(2025年・MCP native)・Continue.dev VS Code(2025年・MCP)・OpenAI Desktop未対応(独自API)・Goose CLI(Block製・MCP)・MCP Inspector(Debug Tool)・MCP CLI tools(Anthropic公式)・Smithery.ai Registry(community curated)・config共通化進行・mcp-language-server・mcp-tools・mcp-server-* npm paket・2026年 IDE/Editor MCP対応急速拡大。
Model Context Protocol(Anthropic・2024年11月策定)クライアント実装。Claude Desktop・Cursor・Zed・Windsurf(Codeium)・Claude Code CLI・Cline・Continue.dev・Goose(Block)・Cherry Studio・Raycast AI・VS Code agent mode対応、2026年Agent Tool標準拡張基盤。
Model Context Protocol Server実装。公式 Reference Server(Filesystem・GitHub・GitLab・Google Drive・Slack・PostgreSQL・SQLite・Brave Search・Sentry・Memory・Time・Fetch・Puppeteer)・Community Server数千(Notion・Linear・Stripe・AWS・Azure・Cloudflare)・MCP Inspector(Debug Tool)・FastMCP(Python framework)・Smithery.ai(MCP Registry)・MCP Composio(Hub)・Claude Desktop config(.claude/claude_desktop_config.json)・Cursor MCP integration・Cline MCP・Anthropic Quickstart Repo・2026年 Enterprise MCP server内製拡大、Tools+Agent標準。
Model Context Protocolサーバー実装。Anthropic公式(filesystem・github・postgres・puppeteer・slack・memory・sqlite・git)・Community(Smithery.ai 2000+)・Zapier MCP(7000+ app)・Cloudflare MCP・Playwright MCP・Magic UI MCP・serena(Code Intel)・Notion MCP・Linear MCP・Gmail MCP・Calendar MCP・MCP marketplace・Claude Desktop config、2026年拡張市場定着。
Anthropic公式 MCP Server。Filesystem MCP(local file CRUD・@modelcontextprotocol/server-filesystem)・GitHub MCP(Issues/PR/Code search)・GitLab MCP(同等)・Google Drive MCP(File access)・Google Maps MCP(Geo)・Slack MCP(Channel/DM access)・Memory MCP(Knowledge graph store)・Time MCP(Timezone)・Fetch MCP(Web fetch)・Puppeteer MCP(Browser automation)・SQLite MCP(local DB)・PostgreSQL MCP(Read-only query)・AWS KB Retrieval・Brave Search MCP・EverArt MCP・Sentry MCP・全 npm/pip install可・Claude Desktop config経由enable・2026年 Enterprise MCP server内製化進行。
MCP通信トランスポート。Stdio Transport(標準入出力・local process・Claude Desktop default)・HTTP+SSE(Server-Sent Events・remote MCP・Cloudflare Workers MCP)・HTTP Streaming(2024年11月・long-running)・WebSocket(将来対応)・Bearer token authentication(remote)・JSON-RPC 2.0 protocol・.mcp.json config・Docker container MCP・Streamable HTTP(Anthropic 2024年12月)対応、2026年Remote MCP Server拡大。
Model Context Protocolデータ公開仕様。MCP Resources(URI経由・file://, https://, postgres://・構造化データ・Claude Desktop/Cursor参照)・MCP Prompts(Slash commands・Template variables)・MCP Tools(Function Calling)・Elicitation(2025年策定・additional input request)・Sampling(サブLLM呼び出し)対応、2026年Agent拡張の中核。
概要
Lstm Networkは、人工知能・機械学習分野における重要な概念・技術です。
LM Studio v0.3.10+詳細設定。MLX Engine (Apple Silicon M2/M3/M4 Native最適化)・CUDA Backend (RTX 3000/4000/5000)・ROCm 6.4 Backend (RX 7000+/9070+)・Vulkan Backend・GPU Offload Layer (-1全部・部分)・Context Length 8192-128K・Flash Attention・KV Cache f16/q8_0/q4_0・Mlock/Mmap・Server Mode (OpenAI互換)・¥0、2026年MLX Apple M4 LLM最強。
ローカルLLM実行GUI。LM Studio 0.4.2(2026年Q1・OpenAI API互換)・Jan.ai 0.5・GPT4All 3.10・text-generation-webui(oobabooga)・AnythingLLM・Msty・Ollama WebUI(Open WebUI)・Enchanted(macOS)・Private LLM・Cherry Studio・Faraday.dev・Llamafile(Mozilla)代表、2026年Mac/Win/Linux対応普及期。
LLM Inference Acceleratorは、大規模言語モデル(Large Language Model)の推論処理を高速化する専用ハードウェアアクセラレータです。2025年に登場した最新世代のAIチップは、従来のGPUベースの推論と比較して、大幅な電力効率の改善と推論速度の向上を実現しています。
主要LLM API料金比較(2026年Q1)。Claude Opus 4.7 $15/$75 (in/out M tok)・Sonnet 4.6 $3/$15・Haiku 4.5 $0.25/$1.25・GPT-5 Pro $30/$60・o3 Pro $20/$80・Gemini 2.5 Pro $3.5/$10.5・DeepSeek V3 $0.27/$1.10・Grok 4 $3/$15・Prompt Caching 90%削減・Batch API 50%割引対応、長時間対話+Agent運用コスト比較必須。
LLMコンテキスト容量進化。Claude Opus 4.7 1M context(2025年・Extended Thinking含)・Gemini 2.5 Pro 2M context(8hours音声/動画)・GPT-5 128K/Pro 1M・Llama 4 Scout 10M context(実用限界)・DeepSeek V3 128K・Qwen3 128K extend・RoPE Scaling(Rotary Position Embedding拡張)・Needle in Haystack test・Long Context Benchmark・RULER 128K・2026年1M+主流化、コスト問題課題。
大規模言語モデル推論実行。vLLM 0.8・llama.cpp・TensorRT-LLM 0.14・Ollama 0.5・LM Studio 0.4・Text Generation Inference(TGI)・SGLang・MLC LLMが代表フレームワーク、PagedAttention+Continuous Batching+Speculative Decoding+FP8/INT4 AWQ量子化で2026年H200/B200 SXM搭載サーバで100-1000 tok/s/user達成。
AI幻覚低減手法。RAG(Retrieval Augmented Generation)・Citation/Source linking(Perplexity AI/You.com)・Self-Consistency・Chain-of-Verification(CoVe・Meta)・REALM/Self-RAG・Confidence threshold・Temperature 0-0.3・Structured Output(JSON Schema)・Constrained decoding・Guardrails(NeMo Guardrails・Guardrails AI)・Anthropic Opus 4.7 27% hallucination・GPT-5 25%・Claude reliance 最小化設計・2026年Production必須対策。
LLM出力評価ライブラリ。DeepEval・Ragas・Promptfoo・Arize Phoenix・Langfuse・OpenAI Evals・LiteLLM Eval・Braintrust・Weights & Biases Weave・Inspect AI(UK AISI)が2026年代表、LLM-as-Judge+Metrics(faithfulness/answer-relevancy/context-precision)で品質測定。