513件の用語
Language Modelは、人工知能・機械学習分野における重要な概念・技術です。
Random Forestは、人工知能・機械学習分野における重要な概念・技術です。
リアルタイム音声対話AI。OpenAI GPT-4o Realtime/Google Gemini Live/Anthropic Voice。レイテンシ300-500ms、自然な会話実現。
LLM Reasoning Framework。Chain-of-Thought CoT (Wei et al)・Tree-of-Thoughts ToT (Yao et al)・Self-Consistency CoT-SC・Reflexion・ReAct (Reasoning+Acting)・Self-Discover (Google)・DSPy 2.6 Stanford (Auto Prompt Optimize)・Process Reward Model PRM800K (OpenAI)・Outcome Reward Model ORM・Verify Step-by-Step・LATS Language Agent Tree Search・¥0 OSS、2026年DSPy+PRM RLHF Reasoning訓練主流。
Reasoning特化LLM。OpenAI o1/o1-pro・o3 Pro/o3-mini (Chain-of-Thought内蔵・Test-Time Compute)・Anthropic Claude 4 Reasoning・Google Gemini 2.5 Pro Thinking・DeepSeek R1 (671B Open Reasoning)・QwQ-32B Preview→Qwen3-32B-Reasoning・Marco-o1 Alibaba・OpenThinker-32B・Sky-T1-32B・Reflection 70B (誤検証)・¥0 OSS-API、2026年Open Reasoning Model急増。
Reinforcement Learningは、人工知能・機械学習分野における重要な概念・技術です。
Recurrent Neural Networkは、人工知能・機械学習分野における重要な概念・技術です。
画像・動画・テキストファイル等のサイズを変更する処理。AI 補完による高解像度化(アップスケール)、ピクセル削減(ダウンスケール)が主要な使い方。
量子コンピューターの量子力学的性質を活用して、古典コンピューターでは困難な問題を効率的に解決する計算手法。量子重ね合わせと量子もつれを利用。
LLM精度低減高速化技術。FP32→FP16→FP8→FP4→INT4→INT2段階、GPTQ・AWQ・GGUF Q4_K_M/Q5_K_M/Q8_0・bitsandbytes・SmoothQuant・QLoRA・Marlin kernel・TorchAO・NVIDIA FP4 PTQが2026年代表、Llama 4 70B INT4で24GB VRAM稼働可能。
AIモデルの重みを低ビット精度に変換してメモリ使用量と計算量を削減する技術
量子機械学習(Quantum Machine Learning, QML)は、量子コンピューティングの原理を機械学習アルゴリズムに適用する最先端技術です。従来のコンピュータでは処理が困難な複雑な問題を、量子の重ね合わせやもつれといった性質を活用して高速に解決することを目指しています。
量子コンピュータが古典最速スパコンを特定タスクで上回る実証。Google Sycamore 2019年初実証 200秒 vs IBM Summit 1万年と発表、現在は1,386qubit Atom Computingが新基準。
Reranking Model。Cohere Rerank 3.5 (¥¥/1M tok)・Jina Reranker v2-multilingual (Open OSS)・BAAI bge-reranker-v2-m3・mxbai-rerank-large-v2 1.5B・Voyage rerank-2.5・ColBERT v2 Late Interaction (Stanford)・PylateX2・LongRAG Re-ranker・Reciprocal Rank Fusion RRF (Hybrid)・MTEB Rerank Benchmark・MS MARCO・¥0 OSS-API、2026年ColBERT v2+RRF主流化。
検索結果再ランキングモデル。Cohere Rerank 3.5・BAAI/bge-reranker-v2-m3・Jina Reranker v2 Multilingual・Mixedbread mxbai-rerank-large-v2・Voyage rerank-2・Qwen3-Reranker-8B・RankGPT・ColBERT v2・ELEVATER・CrossEncoder(sentence-transformers)・2026年RAG精度向上に必須、HNSW top-100→top-10 rerank定番。
Local LLM実行スタック。Ollama 0.5+ (Go・OpenAI互換)・LM Studio 0.3.10+ (GUI・MLX)・Jan 0.5 OSS Desktop・GPT4All 3.x・llama.cpp b4400+ (CUDA/Metal/Vulkan/CPU)・llamafile (Mozilla)・vLLM 0.7 (推論サーバ)・SGLang・Text Generation WebUI (Oobabooga)・KoboldCPP・msty.app・¥0 OSS、2026年70B Q4家庭普及。
自宅GPUでLLMを特定タスク向けに追加学習するLoRA/QLoRA手順と必要環境
ローカル環境での大規模言語モデル処理。プライバシー保護とレスポンス向上
ローカルLLM実行フロントエンド。LM Studio(GUI・MLX/GGUF/OpenAI互換API)・Ollama 0.7(CLI/REST・GGUF量子化)・GPT4All(Nomic)・Jan.ai(OSS)・text-generation-webui(Oobabooga)・llama.cpp(バックエンド)・KoboldCpp・LocalAI・AnythingLLM(RAG統合)・Msty・Open WebUI・Enchanted・2026年Mac Studio M4 Max+RTX 5090自宅推論定着。
Local Image Generation Workflow。GPU要件: VRAM 12GB+ (SDXL min)/16GB(Flux Dev)/24GB+(Flux Pro/Multi-LoRA)・RTX 3090 24GB(Best Value)/RTX 4090 24GB/RTX 5090 32GB・ComfyUI(Node Workflow・OS-agnostic)・Flux.1 Dev FP8/Q8(VRAM 16GB ok)・SD 3.5 Large GGUF Q4(VRAM 8GB)・Forge(Auto1111 fork・高速)・SwarmUI Web UI・LoRA training: Kohya_ss Web UI・OneTrainer・15-30 image data + 4 hour 4090 train・Civitai model hub(検閲注意)・2026年 Flux + Civitai LoRA定番、画像生成 Mac mini 16GB unable。