1269件の用語
レベル3キャッシュ。複数コアで共有する大容量キャッシュ
L3キャッシュは、CPUやGPUのプロセッサ内部に設けられた高速メモリ領域で、レジスタ・L1/L2キャッシュと並んで最上位のキャッシュ階層(Tier 0)として位置づけられます。主な役割は「データの局所性を利用し、CPUコアが頻繁にアクセスするメモリ領域を保持して待ち時間を削減する」ことです。L3キャッシュは通常、複数のプロセッサコア間で共有されるため、コア間通信(Inter-Processor
Lambda Functionは、クラウドコンピューティング分野で使用される技術・サービスです。
Language Modelは、人工知能・機械学習分野における重要な概念・技術です。
有線ネットワーク接続に使用されるケーブルで、カテゴリによって性能が大きく異なる
Lateral Movementは、サイバーセキュリティにおける重要な概念・技術です。
Lazy Loadingは、ソフトウェア開発における重要な概念・技術です。
NVIDIAの遅延計測デバイス。クリックから描画までの総遅延(Latency)を測定
従来のBIOSブート方式
概要
Intel Core Ultra対応の新ソケット。Arrow Lake世代から採用される新規格
Linq Queriesは、ソフトウェア開発における重要な概念・技術です。これは.NETフレームワーク内で導入されたクエリ言語であり、データベースやコレクションの操作を簡潔かつ強力に実行するための機能です。Linq(Language-Integrated Query)は、C#やVB.NETなどのプログラミング言語に統合されたクエリ構文を指し、データの抽出・変換・結合処理を記述する際に利用されます。
Intel Core Ultra 200シリーズ搭載の高性能CPUコア。IPCを大幅改善し、AI処理とマルチスレッド性能を強化
液体金属サーマルインターフェース。従来比10度以上の温度低下
LLC共振コンバータ。高効率な電源回路方式
LLM Inference Acceleratorは、大規模言語モデル(Large Language Model)の推論処理を高速化する専用ハードウェアアクセラレータです。2025年に登場した最新世代のAIチップは、従来のGPUベースの推論と比較して、大幅な電力効率の改善と推論速度の向上を実現しています。
液体窒素を使用した極限オーバークロック用の超低温冷却方法