513件の用語
Federated Learning Framework。TensorFlow Federated TFF・PySyft (OpenMined・PyTorch)・Flower 1.13 (FOSS Multi-Framework)・FedML 0.8 (Backbone+Cross-Device+Cross-Silo)・FATE Federated AI Technology Enabler (WeBank・中国)・OpenFL (Intel)・PaddleFL (Baidu)・NVIDIA FLARE 2.5・Substra (Owkin)・FedScale・¥0 OSS、2026年Flower+FedML普及拡大。
フォトニックコンピューティング(Photonic Computing)は、電子の代わりに光(フォトン)を使用して情報処理を行う革新的なコンピューティング技術です。光の速度と並列性を活用し、従来の電子コンピュータの限界を突破することを目指しています。
Black Forest Labs画像生成モデル(2024年8月)。FLUX.1 Pro(API専用)・Dev(12B・非商用OSS)・Schnell(Apache 2.0)・FLUX.1.1 Pro Ultra(4MP出力)・FLUX Kontext(2025年・コンテキスト編集)が代表、Stable Diffusion後継として2026年画像生成AIトップティア、ComfyUI/Forge/diffusers統合。
Pre Trained Model(事前学習モデル)は、現代のAI・機械学習分野において不可欠な技術です。この解説では、その基本概念から具体的な活用方法、そして将来展望まで、初心者から上級者まで理解できるよう詳細に解説します。PC自作における重要性や、関連技術との繋がりも掘り下げていきます。
Model Pruning+Distillation。Magnitude Pruning・Wanda (Weight*Activation・Stanford)・SparseGPT (Massachusetts)・LLM-Pruner・SliceGPT (Microsoft)・Knowledge Distillation (KD・Teacher→Student)・MiniLM v2/v3 Microsoft・DistilBERT・TinyLlama 1.1B・SmolLM2 1.7B (HF)・Llama 3.2 1B/3B Distill・Phi-4 14B (Distill 2026)・MobileLLM Meta・Layer Skip・SpargeAttention・¥0 OSS、2026年Knowledge Distill小型LLM主流。
Frontier大規模言語モデル比較。Anthropic Claude Opus 4.7 1M context・Claude Sonnet 4.6・OpenAI GPT-5・GPT-4o-mini・o3 Pro・Google Gemini 2.5 Pro/Flash・Meta Llama 4 (Maverick/Scout MoE)・Qwen3 235B/72B/32B (Alibaba)・DeepSeek V3/R1 671B・xAI Grok 3・Mistral Large 2 Medium 25.01・Reka Core 2、2026年Reasoning競争主流。
LLM Prompt技術。Zero-shot/Few-shot/Many-shot ICL(In-Context Learning)・CoT(Chain-of-Thought・「Step-by-step」)・Self-Consistency(複数CoT sampling+majority vote)・ReAct(Reasoning + Acting・Tool use loop)・Tree of Thoughts(ToT)・Graph of Thoughts(GoT)・Reflexion(self-feedback)・PAL(Program-aided LM)・Active Prompting・PromptLayer(observability)・LangSmith(LangChain trace)・OpenAI Prompt Generator・Anthropic Prompt Library・2026年 Reasoning model(o3/Claude Extended Thinking)で CoT internalize、Promptシンプル化進行。
LLMから望ましい出力を引き出すプロンプト設計技法。Few-shot・CoT・ReAct・System Prompt Cacheが代表技で、Claude・GPT・Geminiで推奨パターンが異なる。
LLM出力最適化技法。Chain-of-Thought(CoT・step-by-step)・Few-shot Learning・Zero-shot・Role Prompting・XML Tags(Anthropic推奨)・Tree of Thoughts(ToT)・Self-Consistency・ReAct(Reason+Act)・Reflection・Constitutional AI prompting・Tool Use Decomposition・Anthropic Prompt Library・OpenAI Best Practices・Meta-Prompting対応、2026年Claude/GPT-5各社特化手法確立。
Prompt Engineering 5主要技法(2026年)。Zero-shot(直接質問・simple Q&A)・Few-shot(2-3 example示・format learning・classification)・CoT(Chain-of-Thought・「Step-by-step」「考えてください」・math/code/reasoning improve)・Self-Consistency(複数CoT sampling+majority vote・accuracy +5-10%)・ReAct(Reasoning + Acting・Tool use loop・search→reason→act→observe)・ToT(Tree of Thoughts・branch exploration・複雑推論)・Reflexion(self-feedback・iterative improvement)・PAL(Program-aided LM・Code execute reasoning)・Active Prompting・選択: Simple Q&A = Zero-shot・Format = Few-shot・Math/Code = CoT・Tool integration = ReAct・極限accuracy = Self-Consistency・2026年 Reasoning Models(o3/Claude Extended)で CoT internalize、Promptシンプル化進行。
Anthropic Claude API高度機能。Prompt Caching(2024年8月-・cached input 90%割引・最低1024 token・5min cache・1h cache extended)・cache_control field(ephemeral type)・System prompt/Tools/Messages cache・Extended Thinking(Claude 3.7+/Opus 4.7・thinking budget設定 1k-32k token・推論時間scaling)・Visible thinking trace・Interleaved thinking(2025年・tool use間考察)・Batch API(50%割引・24h処理)・Files API(100MB upload)・Citations・Computer Use・2026年 caching必須でcost管理、Extended Thinking推論力倍増。
LLMに渡す定型プロンプト。LangChain PromptTemplate・LlamaIndex・Claude System Prompt・ChatGPT Custom Instructionsが代表で、変数置換・Few-shot・CoTパターンを埋め込んで再利用する。
AI Prompt実例集。Anthropic Prompt Library(50+役立ちテンプレ・docs.anthropic.com)・Anthropic Cookbook(GitHub)・OpenAI Cookbook・OpenAI Prompting Guide・Llama 3 Prompt Guide(Meta)・Chain-of-Thought Examples・Few-shot Templates・Meta-Prompter(prompt optimize)・LangChain Hub・PromptHero・Awesome ChatGPT Prompts・System Prompt collection・2026年Claude Skill/Cursor ruleとして統合進行。
Vector Database SaaS。Pinecone Serverless (¥¥¥/M Vector)・Weaviate Cloud Service WCS・Zilliz Cloud (Milvus商用)・Qdrant Cloud (¥¥¥¥¥¥/月)・Marqo Cloud・Turbopuffer (Cloud Native S3+Object Storage)・LanceDB Cloud・MongoDB Atlas Vector Search・PostgreSQL+pgvector Cloud (Neon/Supabase/Aiven)・Cloudflare Vectorize・Upstash Vector・¥0 OSS Self-Host-¥¥¥¥¥/月、2026年Turbopuffer S3 Native急成長。
Vector Database。Qdrant($0 OSS・Rust・HNSW・Cloud $25/mo・1.10+ 2024年)・Weaviate(GraphQL API・Python/Go)・Milvus(LF AI・Distributed・Zilliz Cloud)・Pinecone(SaaS・$0 starter・$70/mo・Serverless)・Chroma(in-memory Python)・LanceDB(Rust・Embedded)・pgvector(Postgres extension)・Redis Vector・MongoDB Atlas Vector Search・SurrealDB Vector・MeiliSearch hybrid search・Elasticsearch+Dense Vector・2026年 Qdrant + pgvector主流、RAG essential infra。
Vector DBプラットフォーム比較。Qdrant 1.13+ (Rust・gRPC/HTTP)・Weaviate 1.28・Milvus 2.5 (Zilliz Cloud)・Chroma 0.5・LanceDB 0.18 (Rust+Apache Arrow)・pgvector 0.8 (Postgres Extension)・Pinecone Serverless・Vespa 8・Marqo・Turbopuffer (Cloud Native)・Qdrant Hybrid Search・¥0 OSS、2026年Hybrid+Reranking標準。
画像・テキスト・音声を多次元数値ベクトルに変換したデータ。AI 検索・類似度比較・レコメンド・RAG(Retrieval-Augmented Generation)の基盤として使われる。
高速近似最近傍探索データ構造。HNSW(Hierarchical Navigable Small World)・IVF(Inverted File)・IVFPQ・DiskANN(Vamana)・ScaNN(Google)・LSH・Annoy(Spotify)・FAISS(Meta)が代表、Qdrant/Weaviate/Pinecone/Milvus/pgvector実装、recall 95%+@10k-100M規模スケール。
テキスト・画像の埋め込みベクトルを高速検索するためのQdrant・Pinecone等の専用DB
LLM 評価 benchmark。MMLU(57 domain・undergraduate level・Claude 4.7 88%+)・MMLU-Pro(advanced・2024年)・GPQA Diamond(Physics/Chemistry/Biology PhD・o1 78%・Claude 4.7 80%+)・ARC-AGI(Francois Chollet・abstract reasoning・o3 breakthrough 87%・2024年12月)・ARC-AGI-2(2025年・more difficult)・HumanEval/MBPP(code・saturated)・SWE-bench Verified(実用software engineering・Claude 4.7 80%+)・LiveCodeBench・AIME 2024/2025(math)・Chatbot Arena ELO・2026年 ARC-AGI-2/SWE-bench支配権争い。