513件の用語
LLM Tokenization。BPE Byte-Pair Encoding (GPT-2/3/4)・Tiktoken (OpenAI cl100k_base/o200k_base)・SentencePiece (Google Llama/Mistral)・Unigram (XLNet/T5)・WordPiece (BERT)・LlamaTokenizer Llama 3 128k vocab・GPT-4o tokenizer (200k vocab・99 lang)・Claude Tokenizer (Proprietary)・Tiktokenizer (UI)・tokencost (Calc)・Token vs Word vs Character 比1.3-1.5倍英語・¥0 OSS、2026年Multilingual Vocab拡張主流。
PyTorch JIT Compile。torch.compile 2.x (Default Mode)・TorchInductor (Triton Codegen Backend)・TorchDynamo (FX Tracer)・AOTAutograd (Autograd Trace)・PrimTorch (Prim Operators)・torch.export (ExportedProgram・FX Graph)・torch.fx (Symbolic Trace)・PT2 (PyTorch 2.0+)・FlexAttention 2.x (Custom Attention)・FlightRecorder・¥0 OSS、2026年torch.compile Default安定運用。
>-
GPU専用カスタム計算カーネル。OpenAI Triton 3.2(Python DSL)・CUTLASS 3.8(NVIDIA・C++ Templates)・FlashAttention-3(Tri Dao)・FlashInfer・PagedAttention・Mamba・xformers・Custom kernel fused optimizer・Torch.compile integration・tl.program_id・tl.load/tl.store API、2026年vLLM/SGLang内部実装標準、NVIDIA Hopper/Blackwell向け調整活発。
Transfer Learningは、人工知能・機械学習分野における重要な概念・技術です。
概要
Transformer Architecture。Attention Is All You Need 2017・Self-Attention (Q/K/V Multi-Head)・Decoder-Only (GPT/Llama/Claude)・Encoder-Only (BERT)・Encoder-Decoder (T5・Whisper)・Multi-Head Attention MHA・Multi-Query MQA・Grouped-Query GQA (Llama 3+)・Multi-Head Latent Attention MLA (DeepSeek V3)・RoPE/ALiBi/YaRN Position Encoding・SwiGLU/GeGLU FFN・RMSNorm・¥0 OSS、2026年MLA+Mamba Hybrid主流。
Transformer Architectureは、人工知能・機械学習分野における重要な概念・技術です。
NVIDIA FP8/FP4特化推論/訓練エンジン。TE v2.0(2026年)・NVIDIA Hopper(H100)以降搭載・Blackwell(B200)で第2世代拡張・Transformer layerのFP16→FP8/FP4動的キャスト+scaling factor自動調整、PyTorch/Megatron-LM/NeMo統合でLLM学習速度2-4x向上、Rubin GPU継承。
機械学習モデルの学習に使う入力データ。教師あり学習では「入力 + 正解ラベル」のセット、自己教師あり学習では大量の生データを使う。データ品質が精度を決定する。
LLM Training Framework。PyTorch 2.6+ (torch.compile・FSDP2)・JAX 0.4 (XLA・TPU Native・Pallas)・Flax NNX (JAX高レベル)・Megatron-LM (NVIDIA Tensor+Pipeline Parallel)・DeepSpeed 0.16 (Microsoft・ZeRO-3)・Megatron-DeepSpeed・FSDP2 (Fully Sharded Data Parallel)・FairScale・Liger Kernel (Triton Custom)・torchtitan (PyTorch native LLM)・¥0 OSS、2026年torchtitan注目。
Natural Language Processingは、人工知能・機械学習分野における重要な概念・技術です。
知識集約型DB。Notion AI・Confluence・Obsidian・Logseq・Anytypeが個人/企業で主流、RAG(Retrieval Augmented Generation)用途でLangChain・LlamaIndex・Haystack・Claude Projects・ChatGPT Custom GPTで活用、ベクトル検索統合。
Neural Engineは、最新のCPU/GPU技術における重要な要素です。
Neural Compute Stick(ニューラル・コンピュート・スティック)は、USBポートに接続して使用する小型のAI推論アクセラレータです。エッジデバイスで深層学習モデルを高速実行できます。
AIを活用したテクスチャ圧縮技術。VRAM使用量を最大4分の1に削減
Neural Network Architectureは、人工知能・機械学習分野における重要な概念・技術です。
AI推論専用プロセッサの総称。Intel Core Ultra 200 NPU 13 TOPS・Qualcomm Hexagon 45 TOPS・Apple Neural Engine 38 TOPS・AMD Ryzen AI XDNA2 55 TOPSが2025-2026年の代表的実装。
ニューラルネットワークを活用したレンダリング技術