9783件の用語
LM Studio v0.3.10+詳細設定。MLX Engine (Apple Silicon M2/M3/M4 Native最適化)・CUDA Backend (RTX 3000/4000/5000)・ROCm 6.4 Backend (RX 7000+/9070+)・Vulkan Backend・GPU Offload Layer (-1全部・部分)・Context Length 8192-128K・Flash Attention・KV Cache f16/q8_0/q4_0・Mlock/Mmap・Server Mode (OpenAI互換)・¥0、2026年MLX Apple M4 LLM最強。
ローカルLLM実行GUI。LM Studio 0.4.2(2026年Q1・OpenAI API互換)・Jan.ai 0.5・GPT4All 3.10・text-generation-webui(oobabooga)・AnythingLLM・Msty・Ollama WebUI(Open WebUI)・Enchanted(macOS)・Private LLM・Cherry Studio・Faraday.dev・Llamafile(Mozilla)代表、2026年Mac/Win/Linux対応普及期。
概要
LLM Inference Acceleratorは、大規模言語モデル(Large Language Model)の推論処理を高速化する専用ハードウェアアクセラレータです。2025年に登場した最新世代のAIチップは、従来のGPUベースの推論と比較して、大幅な電力効率の改善と推論速度の向上を実現しています。
主要LLM API料金比較(2026年Q1)。Claude Opus 4.7 $15/$75 (in/out M tok)・Sonnet 4.6 $3/$15・Haiku 4.5 $0.25/$1.25・GPT-5 Pro $30/$60・o3 Pro $20/$80・Gemini 2.5 Pro $3.5/$10.5・DeepSeek V3 $0.27/$1.10・Grok 4 $3/$15・Prompt Caching 90%削減・Batch API 50%割引対応、長時間対話+Agent運用コスト比較必須。
LLMコンテキスト容量進化。Claude Opus 4.7 1M context(2025年・Extended Thinking含)・Gemini 2.5 Pro 2M context(8hours音声/動画)・GPT-5 128K/Pro 1M・Llama 4 Scout 10M context(実用限界)・DeepSeek V3 128K・Qwen3 128K extend・RoPE Scaling(Rotary Position Embedding拡張)・Needle in Haystack test・Long Context Benchmark・RULER 128K・2026年1M+主流化、コスト問題課題。
大規模言語モデル推論実行。vLLM 0.8・llama.cpp・TensorRT-LLM 0.14・Ollama 0.5・LM Studio 0.4・Text Generation Inference(TGI)・SGLang・MLC LLMが代表フレームワーク、PagedAttention+Continuous Batching+Speculative Decoding+FP8/INT4 AWQ量子化で2026年H200/B200 SXM搭載サーバで100-1000 tok/s/user達成。
AI幻覚低減手法。RAG(Retrieval Augmented Generation)・Citation/Source linking(Perplexity AI/You.com)・Self-Consistency・Chain-of-Verification(CoVe・Meta)・REALM/Self-RAG・Confidence threshold・Temperature 0-0.3・Structured Output(JSON Schema)・Constrained decoding・Guardrails(NeMo Guardrails・Guardrails AI)・Anthropic Opus 4.7 27% hallucination・GPT-5 25%・Claude reliance 最小化設計・2026年Production必須対策。
LLM出力評価ライブラリ。DeepEval・Ragas・Promptfoo・Arize Phoenix・Langfuse・OpenAI Evals・LiteLLM Eval・Braintrust・Weights & Biases Weave・Inspect AI(UK AISI)が2026年代表、LLM-as-Judge+Metrics(faithfulness/answer-relevancy/context-precision)で品質測定。
LLM API Aggregator+Proxy。LiteLLM 1.55 (100+ Provider・OpenAI互換)・PortKey AI Gateway・OpenRouter (300+ Model・¥¥¥/M tok)・Together AI (Open Source LLM)・Replicate (Run anywhere)・Fireworks AI・DeepInfra・Anyscale・Groq Cloud (高速)・Cerebras Inference・SambaNova Cloud・Cloudflare AI Gateway・Vercel AI SDK・¥0 OSS-¥¥¥¥¥/月、2026年OpenRouter+LiteLLM急成長。
LLM評価Benchmark。MMLU Massive Multitask Language Understanding (57 subjects)・MMLU-Pro・GPQA Diamond Graduate Physics QA・HumanEval (Code Gen)・HumanEval+・MATH MATH-500・AIME 2024・LiveCodeBench・SWE-Bench Verified・SimpleBench・BIG-Bench Hard・HellaSwag・ARC-Challenge・TruthfulQA・MT-Bench・Chatbot Arena Elo (LMSys)・¥0 OSS Eval、2026年Reasoning特化Benchmark重視。
LLM評価用データセット。MMLU Pro・GPQA Diamond・HumanEval・SWE-bench Verified・ARC-AGI-2・MATH・AIME・LiveCodeBench・Humanity's Last Exam・OSWorld・TAU-bench・MLE-bench代表、2026年はAgent/Tool-use/Long-contextベンチ拡大、Artificial Analysis統合ダッシュボード普及。
LLM評価ベンチマーク。Humanity's Last Exam(HLE・Scale AI 2025年・o1 Pro 26.7%)・MMLU-Pro(10000問+)・LiveBench(動的更新・汚染耐性)・AIME 2024/2025(数学)・SWE-bench Verified(コード)・GPQA Diamond(PhD-level)・MATH-500・HumanEval/MBPP/BigCodeBench・ARC-AGI(抽象推論)・Artificial Analysis・Vellum Leaderboard対応、2026年HLE+LiveBench複合評価定番。
LLM性能評価指標。MMLU 5-shot・MMLU Pro・GPQA Diamond・HumanEval(コード)・MATH・SWE-bench Verified・HellaSwag・IFEval・BBH(Big-Bench Hard)・MT-Bench・Chatbot Arena(人間評価)・Vellum AI Leaderboard・LM Studio bench、2026年Claude Opus 4/GPT-5 92%+主要基準、Artificial Analysis集計中央化。
LLM Evaluation Framework。EleutherAI lm-evaluation-harness 0.4 (50+ Tasks・Standard)・OpenAI evals・RAGAS (RAG Eval・Faithfulness/Answer Relevancy)・promptfoo 0.106 (Web UI/CI)・DeepEval (Confident-AI)・Inspect AI (UK AISI)・METR Time Horizon・LLMonitor・Phoenix (Arize)・LangSmith Eval・Braintrust・¥0 OSS-¥¥¥¥¥/月、2026年Inspect AI+RAGAS主流。
CPU電圧垂下補正機能。Level 1-8(ASUS・1最弱/8最強)・Mode 1-5(MSI)・Turbo/High/Medium/Low(GIGABYTE)・Vdroop抑制+Overshoot発生、Core Ultra 9 285K OC時LLC Level 5推奨・Ryzen 9 9950X3D時LLC Medium推奨、Vcore目標+0.02V補正で安定動作、2026年K/X3D OCer必須知識。
LLC共振コンバータ。高効率な電源回路方式
Corsair Elgato 2020年発売のUSB コンデンサマイク。$160・96kHz/24bit+Clipguard 自動歪み防止+Wave Link mixer ソフト+Twitch/YouTube ストリーマー定番。
Corsair Elgato 2018年発売のストリーマー向けLED照明。Air ($199)/Plus ($349)/Mini ($99)・2900-7000K色温度+Wi-Fi 操作+OBS連携・YouTuber/Twitch主流。
Corsair Elgato 2010年起源の配信用キャプチャカード/ボックス。HD60 X (1080p60)/4K60 Pro Mk.2 (4K60 HDR PCIe)/Cam Link 4K (USB)・OBS/Streamlabs ストリーマー定番。