767件の用語
2006年4月28日Google公開Translate。Pro 業界Pro Mainstream Translation Top + Pro 137言語対応 + Pro 累計世界月間5億+ User UserベースPro Reference + Pro Statistical MT 2006-2016 → Pro Neural MT 2016-11 + Pro Camera/Voice対応 + Pro Sundar Pichai Google CEO + 2024-Pro Gemini連携 + 累計2006-2025年19年Heritage。
Google 2023年7月公開AI Note + Source Grounded LLM NotebookLM。Gemini 1.5/2.0 + Source Material Grounding・Audio Overview Podcast Generation・$0(無料) + $20/月Plus、Pro Researcher + 学生 + 教師業界AI Note標準。
Google 2024年9月発売の AI 文書 → ポッドキャスト形式音声自動生成機能。Gemini 2.5 + 多言語対応・無料・「文書要約 + 2人会話 ポッドキャスト」革新.
Google 2025年5月発売の動画生成 AI 第3世代。1080p 8秒動画 + 音声同時生成・Gemini Advanced ($20/月) 統合・Sora 2 + Runway 競合.
概要
NVIDIA GPU計算SDK。CUDA 12.8(2026年Q1・Blackwell最適化)・cuDNN 9.8・cuBLAS・cuSPARSE・NCCL 2.25・TensorRT 11・Nsight Systems/Compute・CUTLASS 3.8・nvprof・Grace Hopper対応、2026年AI/HPC計算インフラ標準、ROCm/SYCL対抗も性能差顕著。
Alibaba が 2025 年 9 月リリースした画像編集特化マルチモーダルモデル。テキスト指示による画像のローカル編集・物体追加削除・スタイル変換に対応し、生成だけでなく編集領域で OSS 最先端の地位を確立。
Alibaba Qwen が 2026 年公開した次世代コーディング特化 LLM。Qwen3 Coder の後継としてエージェント駆動コード生成と長文コードベース理解を強化、Devstral/Claude Code と競合する OSS コーダーモデル。
LLM量子化フォーマット比較。GGUF (llama.cpp Q2_K~Q8_0/i-Quants IQ1-IQ4)・GPTQ 4bit (AutoGPTQ)・AWQ 4bit (Activation-aware・vLLM対応)・EXL2 (ExLlamaV2・Mixed-Precision)・bitsandbytes 8bit/4bit NF4・FP8 (Hopper/Blackwell native)・INT8・QAT (Quantization-Aware Training)・SmoothQuant・QuaRot・¥0 OSS、2026年FP8 Hopper/Blackwellネイティブ主流。
Quantizationは、人工知能・機械学習分野における重要な概念・技術です。この技術は、ニューラルネットワークや機械学習モデルの精度を維持しながら、計算処理の効率性とメモリ使用量を大幅に削減するための手法です。特に、エッジコンピューティングやスマートデバイス、AIアクセラレーションハードウェアの分野において、重要性が高まっています。
LLM量子化formats。GGUF(llama.cpp/Ollama・Q4_K_M sweet spot・Q8_0 high quality・FP16 baseline)・AWQ(Activation-aware Weight Quantization・vLLM/SGLang・4-bit GPU推論)・GPTQ(Generative PreTrained Transformer Quantization・classic 4-bit)・bitsandbytes(Hugging Face・Q4/Q8 dynamic)・MLX-quantized(Apple Silicon Q4/Q8)・FP8(Blackwell H100/B100 native・Hopper以降)・FP4(Blackwell・Multi Frame Gen訓練)・Q2/Q3 extreme(quality低下大)・Q5_K_M sweet・2026年 GGUF Q4 Local/AWQ Server主流。
LLM Quantization+Calibration。GPTQ (Optimal Brain Quantization・Post-Training)・AWQ Activation-aware Weight Quantization・GPTQModel (新Fork)・SmoothQuant (Activation Outlier Migration)・QuaRot (Rotation Matrix Outlier除去)・SpinQuant・LLM.int8() (bitsandbytes・Outlier Treatment)・FP8 SmoothQuant・MXFP4 Microscaling・Calibration Dataset (C4・WikiText-2)・llmcompressor 0.x (Sparse+Quant)・¥0 OSS、2026年QuaRot+SpinQuant主流。
Quantum Computingは、最新のCPU/GPU技術における重要な要素です。
2024年Qdrant 1.13 GA BM42 Hybrid Search。Sparse Vector(BM42)+Dense Vector Hybrid+Multi-stage Querying+Quantization Scalar/Binary+Cluster Sharding+ANN改善+RAG最適化搭載。
Hybrid Search+Reranking。Qdrant 1.13 Hybrid Search (Dense+Sparse BM25/SPLADE)・Reciprocal Rank Fusion RRF・Jina Reranker v2-multilingual・Cohere Rerank 3.5・BAAI bge-reranker-v2-m3・Voyage rerank-2・mixedbread mxbai-rerank-large-v2 (1.5B)・ColBERT v2 Late Interaction・PylateX2・Sentence Transformers・MTEB Rerank Benchmark・¥0 OSS-API、2026年Reranking Standard Pipeline。
2024年Saoud Rizwan公開Cline。Pro 業界Pro Mainstream Open Source AI Agent IDE Top + Pro 米国Saoud Rizwan + Pro VSCode拡張 + Pro Plan/Act Mode + Pro Anthropic推奨 + Pro Apache 2.0 License + 累計2024-2026年2年Heritage継承代表機。
Saoud Rizwan 2024年公開の VS Code 自律 AI 拡張機能。OSS Apache 2.0 + 無料 + LLM API 自前・「OSS AI コーディング主流」.
2024年公開Cline AI Coding VSCode拡張。Claude/GPT-4o Multi-step Autonomous Agent+File Edit+Terminal Execute+Browser Use+VSCode Native+Open Source Apache 2.0搭載。
2025年Cloudflare公開Cloudflare MCP Server。Pro 業界Pro Mainstream Remote MCP Server先駆 + Pro 米国SF Cloudflare + Pro 2009-Cloudflare設立 + Pro Workers基盤 + Pro Durable Objects統合 + Pro WebSocket Transport + Pro Apache 2.0 OSS + 累計2009-2026年17年Heritage継承代表機。
Gradient Descentは、人工知能・機械学習分野における重要な概念・技術です。