767件の用語
疎活性化Transformer。DeepSeek V3(671B total・37B active)・DeepSeek R1(同)・Llama 4 Scout(109B total・17B active)・Llama 4 Maverick(400B total・17B active)・Mistral 8x22B・Mixtral 8x7B・Qwen3-235B-A22B・Snowflake Arctic(480B・17B active)・GPT-4(1.8T・推定 MoE)・Gating Router・Top-K選択・Load Balance Loss対応、2026年大規模LLM主流アーキテクチャ。
ニューラルネットワークで、複数の専門家(Expert)サブネットワークから入力に応じて一部のみを選択・活性化するアーキテクチャ。巨大モデルを効率的に学習・推論するための主要技術。
MoE Mixture of Experts Model Architecture。Sparse MoE (Active Parameter < Total)・DeepSeek V3 671B Total/37B Active・DeepSeek R1 671B/37B Active・Llama 4 Maverick 400B/17B Active・Llama 4 Scout 109B/17B Active・Mixtral 8x7B/8x22B Mistral・Qwen2.5-MoE-A14B・GShard・Switch Transformer・Top-K Routing・Auxiliary Loss・Expert Parallelism・¥0 OSS、2026年MoE Architecture主流化。
Mistral AI モデル(France・OSS+commercial)。Mistral Large 2(123B・$2/$6 per Mtok・La Plateforme)・Mistral Small 3(24B・$0.20/$0.60・2025年1月)・Pixtral Large 124B(2024年11月・Vision Multimodal)・Pixtral 12B(small VLM)・Codestral 25.01(22B・Code・FIM)・Codestral Mamba(7B・Mamba arch)・Mistral Nemo 12B(Nvidia共同・128K context)・Ministral 3B/8B(Edge)・Mathstral 7B・Le Chat(Free・Web/Mobile)・Apache 2.0 OSS multi-model・Hugging Face download・2026年 EU AI Act準拠・Sovereign AI需要拡大。
2025年Mistral AI公開Mistral OCR API。Pro 業界Pro Mainstream LLM搭載OCR API先駆 + Pro 仏国Paris Mistral AI + Pro 2023-Mistral設立 + Pro 多言語OCR + Pro Markdown出力 + Pro Layout-aware認識 + Pro $1/1000ページ + Pro 95%精度 + 累計2023-2026年3年Heritage継承代表機。
2024年Mistral AI公開Mistral Large 2。Pro 業界Pro Mainstream欧州LLM Top + Pro 仏国Paris Mistral AI + Pro Arthur Mensch CEO元DeepMind + Pro 123B Parameters + Pro 128k Context + Pro 多言語特化(欧州11言語) + Pro Mistral Research License + 累計2023-2026年3年Heritage継承代表機。
仏 Mistral AI 2024年7月発表の主流 OSS LLM フラグシップ。123B + 128K context + 多言語主流対応・「欧州主流 OSS LLM フラグシップ」.
Mixed Precision型。FP32 Single (Default)・TF32 (Ampere・10-bit Mantissa)・FP16 Half (5-bit Exp)・BF16 Brain Float (8-bit Exp・Trainingデファクト)・FP8 E4M3/E5M2 (Hopper/Blackwell Native)・FP6 (Blackwell)・FP4 E2M1 (Blackwell・MXFP4)・MX Microscaling Format (OCP・MXFP4/MXFP6/MXFP8/MXINT8)・NF4 NormalFloat 4 (QLoRA・bitsandbytes)・INT8/INT4 Quantization・¥0 知識、2026年FP4 Native Inference主流。
画像生成AIサービス。Midjourney v7(2025年・Unified style)・v8(2026年Q2予想)・Basic $10/月(200 GPU分)・Standard $30・Pro $60・Mega $120・Web版・Describe・Remix・Zoom Out・Personalize参照・Patchwork map・Moodboardsが2026年機能、Discord→Web移行完了。
2023年12月21日Midjourney公開v6 Alpha。Pro Midjourney系譜v6 + Pro Photorealism大幅向上 + Pro Text Rendering対応Pro Famous + Pro 2K Resolution + Pro Discord連携 + 2024-12 Pro v6.1 + 2024-Pro Personalize機能 + 2025-Pro v7.0 alpha公開 + 累計2022-2025年3年Heritage。
Midjourney 2025年4月発売の画像生成 AI 第7世代。アート + コミュニティ重視 + Discord/Web UI・$10/月から・「アート系画像 AI 主流」.
中国 MiniMax 社(上海稀宇科技)が 2026 年に公開した最新世代 LLM。MoE 構造と 1M トークン級の長文脈処理に強く、要約/対話/コード生成のバランス型として Qwen3.5/DeepSeek V3/GLM-4.7 と並ぶ中国オープン LLM の主要選択肢。
2023年6月9日Meta公開MusicGen。Pro 業界Pro Open Source Music AI業界出発点 + Pro 30秒楽曲生成 + Pro Transformer Architecture + Pro AudioCraft Pro Famous統合 + Pro 1.5B-3.3B Parameters + Pro MIT License + Pro Hugging Face公開 + 累計2023-2025年2年Heritage。
2024年Milvus 2.5 GA Sparse Vector対応。Sparse Vector Index+Hybrid Search+Multi-vector Field+IVF Sparse+Bitmap Index+Range Query+1Billion Vector Scale+RaBitQ Quantization搭載。
2023年Mubert公開Mubert Render API。Pro 業界Pro Mainstream AI Royalty-Free Music生成 + Pro UAE Dubai Mubert + Pro 2016-Mubert設立 + Pro Royalty-Free商用利用OK + Pro Streaming Service + Pro Mood/Genre/Activity Tag指定生成 + Pro $11.99/月 + 累計2016-2026年10年Heritage継承代表機。
2024年Meta公開のInternal AI Accelerator第2世代。MTIA Training Inference Accelerator v2+TSMC 5nm+128GB LPDDR5+Recommendation Model最適化+Llama 3 inference用途。
3D仮想空間プラットフォーム。Apple Vision Pro(M2+R1・4K Micro-OLED×2)・Meta Quest 3S・Google Android XR・Pico 4 Ultra・Roblox・Fortnite・VRChat・Clusterが代表で、生成AI統合で2026年本格化。
2013年Yann LeCun主導Meta FAIR(Facebook AI Research)創業。Pro Open Source AI Lab業界Top独占代表機 + Pro PyTorch 2016発表 + Pro LLaMA 2023-02 Pro Famous + Pro LLaMA 3 2024-04 + Pro Mainstream Open Source LLM業界出発点 + 累計2013-2025年12年Heritage Pro Top独占。
Meta 2024年12月発売のオープンウェイト LLM。70B パラメータ + Llama 3.1 405B 同等性能・無料 + ローカル動作 + Hugging Face.
米 Meta 2024年12月発表の主流 OSS LLM。70B モデル + 405B 同水準性能 + Llama 3.1 後継・「OSS LLM 業界主流」.