767件の用語
AI Agent Framework比較。Anthropic MCP (Model Context Protocol・Claude Desktop+SDK)・OpenAI Function Calling・LangGraph 0.2 (Stateful)・PydanticAI 0.2 (Type-Safe)・LlamaIndex Agent Workflows・Microsoft Magentic-One・AutoGen v0.4・CrewAI 0.86・Swarms・smolagents (HF)・Bee Agent (IBM)・Mastra (Vercel)・Agentic 1.x・¥0 OSS、2026年MCP標準化加速。
AI Agent評価Benchmark。SWE-Bench Verified (500 GitHub Issues・Claude 3.7 Sonnet 49.3%・o3 71.7%)・SWE-Bench Lite・Aider Polyglot Bench (5 言語・Claude 3.5 Sonnet 49% / o1 72%)・τ-bench (Tool-Use・Tau-Bench)・GAIA・WebArena (Web Agent)・MLE-Bench (Kaggle 75 ML Tasks)・OSWorld (Computer Use)・Cybench (CTF Cyber)・¥0 OSS、2026年Computer Use Agent Bench拡大。
Claude/GPT 等の LLM を使った自律エージェント実行ループの汎用フレームワーク。タスク分解・ツール呼出・記憶管理・終了条件判定を組み合わせた繰返し制御構造の実装パターン。
AWS が 2023 年公開した第 2 世代 AI 推論特化 ASIC アクセラレータ。チップあたり 190 TFLOPS + 32GB HBM2e、Stable Diffusion / Llama 2 等の推論で同等 GPU 比 4 倍コスト効率、AWS EC2 Inf2 インスタンス搭載。
2024年AWS公開のCustom AI Training Accelerator第2世代。1.3PFLOPS BF16+96GB HBM3+UltraServer 64chip+Trn2 EC2 Instance+EFA v3+Neuron SDK 2.20を搭載。
2023年MIT-Han-Lab公開AWQ(Activation-aware Weight Quantization)量子化アルゴリズム。Pro 業界Pro Mainstream Activation-aware Weight量子化先駆 + Pro 米国MIT-Han-Lab Ji Lin et al + Pro 2023-06 AWQ論文公開 + Pro Salient Channels保護 + Pro 4bit GPU特化 + Pro AutoAWQ + 累計2023-2026年3年Heritage継承代表機。
Agent-to-Agent通信標準。Google A2A(2025年4月策定・Agent Card・Task/Message)・OpenAI Agents SDK Handoff・AutoGen GroupChat・LangGraph Supervisor・CrewAI Crew・MCP Server chaining・Swarm Orchestrator・Temporal Agent Loop対応、2026年マルチAgent連携標準化進行、Mega Agent構成可能。
Anthropic Claude Extended Thinking(2025年・Claude 3.7+)。Thinking budget設定(thinking.budget_tokens 1024-32k)・Visible thinking trace(reasoning可視化)・Interleaved thinking(2025年・tool use間挟む reasoning)・Math/Code/Science domain改善大(GPQA Diamond +10%)・Latency増加(thinking分・3-30s typical)・Pricing: thinking tokens billing対象($75/Mtok Opus output同価)・Anthropic SDK Python: thinking={"type":"enabled","budget_tokens":4096}・Streaming支援・2026年 reasoning model時代核機能、o1/o3類似実装。
2024年Stanford公開SGLang(Structured Generation Language)。Pro 業界Pro Mainstream Multi-call LLM Serving Top + Pro Stanford + Pro Lianmin Zheng Pro主要研究員 + Pro RadixAttention Pro Famous + Pro Apache 2.0 + Pro Programmable + Pro DeepSeek採用 + 累計2024-2026年2年Heritage継承代表機。
2024年Princeton大学公開SWE-Bench。Pro 業界Pro Mainstream AI Coding Bench Top + Pro Princeton + Pro Carlos Jimenez Pro主要研究員 + Pro 2,294 Real GitHub Issues + Pro Verified版500件 + Pro 業界Pro 標準Coding Agent評価 + 累計2024-2026年2年Heritage継承代表機。
2023年Elon Musk創業xAI。米国California州San Francisco + Pro Anti-woke AI主張 + Pro Grok 1 2023-11/Grok 2 2024-08/Grok 3 2025-02 + Pro X(Twitter)統合 + Pro Tesla Dojo連携 + Pro Memphis Colossus 200K H100 GPU Pro Famous Supercluster + 累計2023-2025年2年Heritage Pro Top独占。
Tianqi Chen 2014年OSS化のGradient Boostingライブラリ。Kaggleコンペティション+表データ機械学習業界標準・Python/R/Java/Scala対応。
Edge Aiは、人工知能・機械学習分野における重要な概念・技術です。
Edge AI NPU/Accelerator。Hailo-10H (40 TOPS Edge LLM)・Hailo-15 (28 TOPS Embedded)・Hailo-8L (Raspberry Pi AI Kit M.2)・Coral USB Accelerator/PCIe Edge TPU (Google・4 TOPS)・Rockchip RK3588 (6 TOPS NPU・Orange Pi 5 Plus)・MediaTek Genio・NXP i.MX 95・Texas Instruments TDA4VM・Sophon BM1684X・Movidius Myriad X (Intel・廃止)・¥¥3k-¥¥¥¥30k Edge Module、2026年家庭Edge AI普及。
Edge AI Compilerは、深層学習モデルをエッジデバイス向けに最適化する専用コンパイラです。モデル圧縮、量子化、グラフ最適化を自動実行し、推論速度を最大100倍高速化しながら、メモリ使用量を90%削減します。
端末/近端でのローカルAI実行。ONNX Runtime 1.20・TensorRT-LLM・Core ML 4・WebGPU・Apple Foundation Models on-device(18.2+)・Qualcomm AI Engine・MediaTek NeuroPilot・NPU TOPS比較・Phi-4 mini/Gemma 3/Qwen3 1.7B Edge LLMが2026年代表、プライバシー+低遅延用途。
クラウド経由せず端末側でAI推論を行うデバイス。Copilot+ PC・NVIDIA Jetson Orin・Raspberry Pi 5+AI Kitなどが2025-2026年の主流で、NPU搭載Snapdragon X Eliteも該当。
Neural Processing Unitの略称。AI・機械学習の推論処理に特化した専用プロセッサで、従来のCPU・GPUよりも高効率でニューラルネットワーク計算を実行する
AI推論専用プロセッサ。Intel Core Ultra 9 285K Neural Engine(13 TOPS)・Snapdragon X Elite Hexagon NPU(45 TOPS)・Apple M4 Neural Engine(38 TOPS)が代表で、Copilot+ PCの要件40 TOPS以上をクリア。
AI・機械学習タスクに特化したプロセッサ。ニューラルネットワークの推論処理を低消費電力で高速に実行する専用チップ。