767件の用語
Anthropic MCP Model Context Protocol。MCP 1.0 (Anthropic 2024-11 OSS)・JSON-RPC 2.0 ベース・Stdio/SSE/HTTP+SSE Transport・Server Side Tool/Resources/Prompts・Client (Claude Desktop/Cursor/Windsurf/Cline)・Server SDK (TypeScript/Python/Java/Kotlin)・MCP Server一覧 (filesystem・github・slack・PostgreSQL・Memory)・mcp-server-everything・GitHub Copilot対応・¥0 OSS、2026年MCP標準化加速 (OpenAI/Google対応予定)。
Anthropic Model Context Protocol(2024年11月発表・OSS)。JSON-RPC 2.0 based・Tools/Resources/Prompts 3 primitive・stdio/SSE/HTTP transport・Client(Claude Desktop/Cursor/Cline/Zed)・Server実装: Python/TypeScript/Go/Rust SDK・公式Server(GitHub/Slack/Google Drive/Notion/Sentry)・Community 数千server・Cursor Rules統合・LLM agent + external tool接続標準化・OpenAI ChatGPT 2025年Q1採用・Gemini CLI 2025年Q2対応、2026年AI agent標準。
Anthropic が 2024 年 11 月に公開した、LLM と外部ツール・データソースを標準化された方法で接続するオープンプロトコル。AI エージェント向けの「USB-C」と称される。
Model Context Protocol開発ツール。MCP Inspector(Anthropic公式・npx @modelcontextprotocol/inspector)・Stdio/HTTP/SSE transport test・JSON-RPC 2.0 call・Tool/Resource/Prompt list・MCP Hub(Smithery・2000+ MCP)・Cursor MCP integration・Claude Desktop .mcp.json・Glama.ai MCP directory・Playwright MCP・Serena MCP(Code Intel)・Puppeteer MCP対応、2026年MCP ecosystem成熟期。
MCP対応Client。Claude Desktop(Anthropic公式・Mac/Win・JSON config)・Cursor IDE(2024年12月-MCP・Cursor Settings)・Cline VS Code Extension(MCP対応・OSS)・Zed Editor(2025年・MCP native)・Continue.dev VS Code(2025年・MCP)・OpenAI Desktop未対応(独自API)・Goose CLI(Block製・MCP)・MCP Inspector(Debug Tool)・MCP CLI tools(Anthropic公式)・Smithery.ai Registry(community curated)・config共通化進行・mcp-language-server・mcp-tools・mcp-server-* npm paket・2026年 IDE/Editor MCP対応急速拡大。
Model Context Protocol(Anthropic・2024年11月策定)クライアント実装。Claude Desktop・Cursor・Zed・Windsurf(Codeium)・Claude Code CLI・Cline・Continue.dev・Goose(Block)・Cherry Studio・Raycast AI・VS Code agent mode対応、2026年Agent Tool標準拡張基盤。
Model Context Protocol Server実装。公式 Reference Server(Filesystem・GitHub・GitLab・Google Drive・Slack・PostgreSQL・SQLite・Brave Search・Sentry・Memory・Time・Fetch・Puppeteer)・Community Server数千(Notion・Linear・Stripe・AWS・Azure・Cloudflare)・MCP Inspector(Debug Tool)・FastMCP(Python framework)・Smithery.ai(MCP Registry)・MCP Composio(Hub)・Claude Desktop config(.claude/claude_desktop_config.json)・Cursor MCP integration・Cline MCP・Anthropic Quickstart Repo・2026年 Enterprise MCP server内製拡大、Tools+Agent標準。
Model Context Protocolサーバー実装。Anthropic公式(filesystem・github・postgres・puppeteer・slack・memory・sqlite・git)・Community(Smithery.ai 2000+)・Zapier MCP(7000+ app)・Cloudflare MCP・Playwright MCP・Magic UI MCP・serena(Code Intel)・Notion MCP・Linear MCP・Gmail MCP・Calendar MCP・MCP marketplace・Claude Desktop config、2026年拡張市場定着。
2024年Anthropic公開MCP Server SDK。Pro 業界Pro Mainstream MCP Server構築SDK公式 + Pro 米国SF Anthropic + Pro Python/TypeScript/Java SDK + Pro Apache 2.0 OSS + Pro Stdio Transport + Pro Resources/Tools/Prompts実装 + Pro pip install mcp + 累計2024-2026年2年Heritage継承代表機。
Anthropic公式 MCP Server。Filesystem MCP(local file CRUD・@modelcontextprotocol/server-filesystem)・GitHub MCP(Issues/PR/Code search)・GitLab MCP(同等)・Google Drive MCP(File access)・Google Maps MCP(Geo)・Slack MCP(Channel/DM access)・Memory MCP(Knowledge graph store)・Time MCP(Timezone)・Fetch MCP(Web fetch)・Puppeteer MCP(Browser automation)・SQLite MCP(local DB)・PostgreSQL MCP(Read-only query)・AWS KB Retrieval・Brave Search MCP・EverArt MCP・Sentry MCP・全 npm/pip install可・Claude Desktop config経由enable・2026年 Enterprise MCP server内製化進行。
MCP通信トランスポート。Stdio Transport(標準入出力・local process・Claude Desktop default)・HTTP+SSE(Server-Sent Events・remote MCP・Cloudflare Workers MCP)・HTTP Streaming(2024年11月・long-running)・WebSocket(将来対応)・Bearer token authentication(remote)・JSON-RPC 2.0 protocol・.mcp.json config・Docker container MCP・Streamable HTTP(Anthropic 2024年12月)対応、2026年Remote MCP Server拡大。
2024年OSS Community公開MCP Bridge Stdio。Pro 業界Pro Mainstream MCP Local Stdio Bridge OSS + Pro 米国Berkeley/Worldwide OSS + Pro 2024-MCP Bridge設立Community駆動 + Pro Stdio Transport Wrapper + Pro Apache 2.0 OSS + Pro Cline/Claude Desktop統合 + Pro JSON Config Bridge + 累計2024-2026年2年Heritage継承代表機。
Model Context Protocolデータ公開仕様。MCP Resources(URI経由・file://, https://, postgres://・構造化データ・Claude Desktop/Cursor参照)・MCP Prompts(Slash commands・Template variables)・MCP Tools(Function Calling)・Elicitation(2025年策定・additional input request)・Sampling(サブLLM呼び出し)対応、2026年Agent拡張の中核。
概要
Lstm Networkは、人工知能・機械学習分野における重要な概念・技術です。
2023年LM Studio公開LM Studio。Pro 業界Pro Mainstream Local LLM GUI Top + Pro 米国Yagil Burowski Pro Founder + Pro 元Element AI + Pro Closed Source Free + Pro Mac/Windows/Linux + Pro OpenAI互換API + Pro MLX対応 + 累計2023-2026年3年Heritage継承代表機。
LM Studio v0.3.10+詳細設定。MLX Engine (Apple Silicon M2/M3/M4 Native最適化)・CUDA Backend (RTX 3000/4000/5000)・ROCm 6.4 Backend (RX 7000+/9070+)・Vulkan Backend・GPU Offload Layer (-1全部・部分)・Context Length 8192-128K・Flash Attention・KV Cache f16/q8_0/q4_0・Mlock/Mmap・Server Mode (OpenAI互換)・¥0、2026年MLX Apple M4 LLM最強。
ローカルLLM実行GUI。LM Studio 0.4.2(2026年Q1・OpenAI API互換)・Jan.ai 0.5・GPT4All 3.10・text-generation-webui(oobabooga)・AnythingLLM・Msty・Ollama WebUI(Open WebUI)・Enchanted(macOS)・Private LLM・Cherry Studio・Faraday.dev・Llamafile(Mozilla)代表、2026年Mac/Win/Linux対応普及期。
LLM Inference Acceleratorは、大規模言語モデル(Large Language Model)の推論処理を高速化する専用ハードウェアアクセラレータです。2025年に登場した最新世代のAIチップは、従来のGPUベースの推論と比較して、大幅な電力効率の改善と推論速度の向上を実現しています。