513件の用語
Transformer中核技術。Query/Key/Value 3行列で系列内の重要度動的計算。2017年「Attention Is All You Need」論文発表→GPT/Claude基盤。
Attention Mechanism詳解。Self-Attention (Q/K/V Dot-Product)・Multi-Head MHA (h heads parallel)・Multi-Query MQA (1 KV head・LLaMA-2)・Grouped-Query GQA (n KV heads・Llama 3)・Multi-Head Latent Attention MLA (DeepSeek V3・Low-rank KV Compression)・Sliding Window Attention SWA (Mistral)・Sparse Attention・Sliding+Global (Gemma 3)・Linear Attention (Mamba代替)・Flash Attention 3・¥0 OSS、2026年MLA+Mamba Hybrid主流。
AI / 機械学習で使う訓練データに対し、画像のバウンディングボックスやテキストのラベル等の正解情報を付与する作業。データ品質がモデル精度を左右する。
Ensemble Learningは、人工知能・機械学習分野における重要な概念・技術です。
Unsupervised Learningは、人工知能・機械学習分野における重要な概念・技術です。
Claude API cost削減機能(2024年8月)。Prompt Caching(入力cache・90% cost reduction・TTL 5min)・Cache write cost 1.25x・Cache read 0.1x・cache_control ephemeral・max 4 cache block・Context Caching(Gemini同等・24h TTL・1M tok min)・OpenAI Prompt Caching(2024年10月・50%割引・自動)・Claude Message Batches API(50% off・24h)・Haiku/Sonnet/Opus全対応・2026年繰返しプロンプト必須。
Claude API供給経路。Anthropic API(api.anthropic.com・Direct・Pricing $15/$75 Opus・Latency最小・Region US/EU)・AWS Bedrock(IAM authentication・PrivateLink VPC・SOC 2/HIPAA・Multi-region・Pricing same)・Google Vertex AI(GCP integration・Same pricing)・Azure ChatGPT(GPT-4o)別経路・Choose: Anthropic Direct = simple/Bedrock = Enterprise AWS infra/Vertex = GCP・SDK同一(anthropic-sdk-python・anthropic-bedrock・anthropic-vertex)・Region availability差(Vertex US-Central1・Bedrock 多region)・Bedrock Knowledge Base/Vertex AI Search組合せ可・2026年 Enterprise Bedrock主流。
Anthropic公式リソース。Quickstart(GitHub・anthropics/anthropic-quickstart・Computer Use Demo Docker・5min start)・Cookbook(GitHub・anthropic-cookbook・Multi-modal/Tool Use/RAG examples)・Anthropic Console($0 Free trial $5 credit)・Claude Code GitHub(anthropics/claude-code)・Anthropic SDK Python/TypeScript・Bedrock/Vertex AI integration・Claude Apps mobile/desktop・Claude API documentation・Workbench(Prompt testing)・Computer Use Demo(VMware/Docker desktop env)・MCP Quickstart(modelcontextprotocol/quickstart)・2026年 Anthropic公式 docs拡充、開発者onboarding充実。
Anthropic公式 anthropic-skills GitHub Repo(2025年Q3-)。https://github.com/anthropics/skills・公式curated Skills examples・Categories: code-review・docs・research・testing・data-analysis・workflow automation・各Skill: README.md + skill.md(Markdown定義)・Argument support($ARGUMENTS)・Tool restriction(allowed-tools)・MCP integration optional・Install: clone repo → ~/.claude/commands/copy or .claude/commands/(project)・Community Skills repo: smithery.ai integration future・curated by Anthropic team・Best practices reference・examples: /code-review /docs-update /research-paper /test-generate・2026年 Skills市場拡大・anthropic-skills central reference。
EV車載AI Compute。Tesla HW5/AI5 (2025-Q4 Cybertruck Native・10x HW4 perf)・HW4 Ryzen ベース・FSD Computer・Mobileye EyeQ6 High/Lite (TSMC 7nm・34 TOPS)・EyeQ Ultra (176 TOPS 2026 Q4)・NVIDIA Drive Thor (2025-Q4 量産・1000 TFLOPS FP4)・Drive Atlan (代替廃止)・Qualcomm Snapdragon Ride・Horizon Robotics Journey 6・Black Sesame BST-A2000・¥¥¥¥¥¥¥ Auto Industry、2026年Drive Thor大量採用。
データ分析で得る洞察。Google Analytics 4 Insights・Amplitude Insights・Mixpanel Insights・HubSpot・Tableau・ChatGPT Data Analyst・Claude Analysis toolで抽出、CVR改善/離脱率低減など意思決定根拠として活用。
4bit整数量子化フォーマット。FP16比で4倍圧縮・2-3倍推論速度を実現し、LLM(Llama 3 70B・GPT-OSS 20B)のローカル実行で必須。NVIDIA TensorRT-LLMやGGUF Q4_K_M形式で広く利用。
Intelの第3世代AIアクセラレータ。5nmプロセス、HBM3e搭載、最大1.84PFLOPS のAI性能を実現し、大規模言語モデル(LLM)の学習・推論を高速化。
8ビット整数演算を使用したAI推論処理。従来の32ビット浮動小数点演算と比較して、4倍高速で消費電力を大幅に削減しながら、実用的な精度を維持。
Inference Engineは、人工知能・機械学習分野における重要な概念・技術です。
本番LLM推論エンジン比較。vLLM 0.7+ (PagedAttention・Continuous Batching・FP8・Speculative Decoding)・SGLang 0.4 (RadixAttention・Constrained Decoding)・HuggingFace TGI 3.0・TensorRT-LLM 0.18 (NVIDIA最強・FP8/INT8)・MLC LLM・LMDeploy 0.7・Ray Serve・vLLM AscendとIntel・Mistral.rs (Rust)・¥0 OSS、2026年vLLM企業デファクト。
vLLM Production Deploy。vLLM Production Stack 0.x (Reference Implementation)・Aibrix (ByteDance Open Source・k8s LLM Serving Stack)・llm-d (Kubernetes Distributed LLM Serving 2025-Q1 GA)・KubeRay+vLLM・SkyPilot vLLM・vLLM Auto-scaling HPA・Continuous Batching・Disaggregated Prefill+Decode・LMCache (vLLM cache layer)・KV Cache offloading・Prometheus Metrics統合・Grafana Dashboard・¥0 OSS、2026年llm-d k8s生態系本格化。
Vision-Language Encoder。OpenAI CLIP (ViT-L/14)・SigLIP-2 (Google・Multilingual)・SigLIP So400m-Patch16-512・EVA-02 CLIP・AIMv2 (Apple・Autoregressive)・OpenCLIP・InternVL 3 (OpenGVLab)・Florence-2 (Microsoft)・PaliGemma 2 (Google)・MetaCLIP (Meta)・MobileCLIP (Apple Edge)・Hugging Face Vision Transformer ViT・¥0 OSS、2026年AIMv2+SigLIP-2主流。
音声書起こしASR。OpenAI Whisper Large v3 Turbo (809M・8x faster)・Whisper Large v3 (1.55B)・Faster-Whisper 1.0 (CTranslate2)・Distil-Whisper Large v3・WhisperX (Pyannote VAD)・stable-ts・MLX Whisper Apple Silicon・Insanely-Fast-Whisper・whisper.cpp・Bark・Wav2Vec2・¥0 OSS・100+言語対応、2026年リアルタイム音声字幕主流。
Speech-to-Text(STT)モデル/API。OpenAI Whisper(OSS・2022年9月・multilingual 99 lang・Large-v3 Turbo 2024年)・Whisper API $0.006/min・faster-whisper(CTranslate2・4x高速)・whisper.cpp(CPU・llama.cpp author)・Deepgram Nova-2(real-time・$0.0043/min)・Google Cloud Speech-to-Text・Azure Speech・AssemblyAI Universal-2・Groq Whisper($0.02/h・高速)・ElevenLabs Voice・MacWhisper Mac app・2026年 会議議事録/YouTube字幕自動生成定着。