767件の用語
>-
Google 主導開発の Python 機械学習フレームワーク。Eager Mode + Keras 統合 + TPU 最適化・GitHub スター187,000・PyTorch と二大フレームワーク.
Google 2019年9月リリースTensorFlow 2.0。Eager Execution標準+Keras統合+tf.function+Python pickle化・PyTorch対抗強化。
TensorFlow Lite(TFLite)は、Googleが開発した軽量化された機械学習フレームワークです。従来のTensorFlowはサーバーやデスクトップ環境で大規模なモデルを訓練・推論するために設計されていましたが、TFLiteはモバイル端末や組み込みシステム(IoT機器)などリソース制約のあるデバイス上で高速かつ低消費電力で推論を実行できるよう最適化されています。
テキスト→動画生成モデル。OpenAI Sora(60秒 1080p)・Sora 2(2025年)・Google Veo 3(4K 8秒)・Runway Gen-4 Turbo・Luma Dream Machine 1.6・Kling AI 1.6(中国 Kuaishou)・Pika 2.0・MiniMax Hailuo 02・Hunyuan Video(Tencent OSS)・Mochi 1(Genmo OSS)・CogVideoX・Wan 2.1対応、2026年短編広告+SNS素材定着。
text-to-video拡散モデル。OpenAI Sora 2(60秒 1080p 30fps)・Google Veo 3(120秒 4K)・Runway Gen-4 Turbo・Luma Dream Machine 2・Kling AI v2・Pika 2.5・Hailuo 02・Alibaba Wan 2.1が2026年代表、5-60秒動画生成+物理シミュ+キャラ一貫性改善。
テキストをトークン単位に分割するLLM前処理。BPE(GPT-5・Claude)・SentencePiece(Gemini)・Tiktoken(OpenAI)・Hugging Face Tokenizersが代表で、日本語は漢字1-3トークン/文字消費。
LLM Tokenization。BPE Byte-Pair Encoding (GPT-2/3/4)・Tiktoken (OpenAI cl100k_base/o200k_base)・SentencePiece (Google Llama/Mistral)・Unigram (XLNet/T5)・WordPiece (BERT)・LlamaTokenizer Llama 3 128k vocab・GPT-4o tokenizer (200k vocab・99 lang)・Claude Tokenizer (Proprietary)・Tiktokenizer (UI)・tokencost (Calc)・Token vs Word vs Character 比1.3-1.5倍英語・¥0 OSS、2026年Multilingual Vocab拡張主流。
PyTorch JIT Compile。torch.compile 2.x (Default Mode)・TorchInductor (Triton Codegen Backend)・TorchDynamo (FX Tracer)・AOTAutograd (Autograd Trace)・PrimTorch (Prim Operators)・torch.export (ExportedProgram・FX Graph)・torch.fx (Symbolic Trace)・PT2 (PyTorch 2.0+)・FlexAttention 2.x (Custom Attention)・FlightRecorder・¥0 OSS、2026年torch.compile Default安定運用。
2022年Topaz Labs公開Photo AI(Pro Topaz Labs 2005-設立 + Albert Yang Pro CEO主導)。Pro 業界Pro Mainstream Photo AI Upscale Top + Pro Sharpen/Denoise/Upscale統合 + Pro Eric Yang Pro Co-founder + Pro $199 Buyout + Pro Topaz Photo AI 4 + 2025-Pro v4.5 + 累計2005-2025年20年Heritage。
GPU専用カスタム計算カーネル。OpenAI Triton 3.2(Python DSL)・CUTLASS 3.8(NVIDIA・C++ Templates)・FlashAttention-3(Tri Dao)・FlashInfer・PagedAttention・Mamba・xformers・Custom kernel fused optimizer・Torch.compile integration・tl.program_id・tl.load/tl.store API、2026年vLLM/SGLang内部実装標準、NVIDIA Hopper/Blackwell向け調整活発。
Transfer Learningは、人工知能・機械学習分野における重要な概念・技術です。
概要
Transformer Architecture。Attention Is All You Need 2017・Self-Attention (Q/K/V Multi-Head)・Decoder-Only (GPT/Llama/Claude)・Encoder-Only (BERT)・Encoder-Decoder (T5・Whisper)・Multi-Head Attention MHA・Multi-Query MQA・Grouped-Query GQA (Llama 3+)・Multi-Head Latent Attention MLA (DeepSeek V3)・RoPE/ALiBi/YaRN Position Encoding・SwiGLU/GeGLU FFN・RMSNorm・¥0 OSS、2026年MLA+Mamba Hybrid主流。
Transformer Architectureは、人工知能・機械学習分野における重要な概念・技術です。
NVIDIA FP8/FP4特化推論/訓練エンジン。TE v2.0(2026年)・NVIDIA Hopper(H100)以降搭載・Blackwell(B200)で第2世代拡張・Transformer layerのFP16→FP8/FP4動的キャスト+scaling factor自動調整、PyTorch/Megatron-LM/NeMo統合でLLM学習速度2-4x向上、Rubin GPU継承。
2024年VAST AI公開Tripo 2.0。Pro 業界Pro Mainstream Text-to-3D高品質特化 + Pro 中国Beijing VAST AI + Pro 30秒生成 + Pro PBR Texture自動 + Pro Tripo Geometry + Pro オープンソースモデル + 累計2023-2026年3年Heritage継承代表機。
機械学習モデルの学習に使う入力データ。教師あり学習では「入力 + 正解ラベル」のセット、自己教師あり学習では大量の生データを使う。データ品質が精度を決定する。
LLM Training Framework。PyTorch 2.6+ (torch.compile・FSDP2)・JAX 0.4 (XLA・TPU Native・Pallas)・Flax NNX (JAX高レベル)・Megatron-LM (NVIDIA Tensor+Pipeline Parallel)・DeepSpeed 0.16 (Microsoft・ZeRO-3)・Megatron-DeepSpeed・FSDP2 (Fully Sharded Data Parallel)・FairScale・Liger Kernel (Triton Custom)・torchtitan (PyTorch native LLM)・¥0 OSS、2026年torchtitan注目。