

ゲームにおける対話システムは、長年「分岐ツリー」という形式に依存してきました。プレイヤーが特定の選択肢を選ぶと、決まったセリフが再生されるという構造です。しかし、2026 年現在、ローカル LLM(大規模言語モデル)技術の急速な進歩により、この常識は大きく覆されつつあります。自作 PC を活用した AI NPC MOD の導入は、単なるテクスチャやモデリングの変更を超え、ゲーム内世界そのものの「知能」を拡張する行為です。ローカル環境で動作する LLM によって生成される対話は、プレイヤーの任意の発言に対して即座に意味のある反応を返すため、無数の分岐パターンが存在する究極的な没入感を実現します。
特に注目すべきは、AI がゲーム世界観を維持しながらも自由な発話を行う点です。従来の NPC は「商人なら売買」「戦闘員なら攻撃」といった役割に固定されていましたが、AI を導入した MOD では、NPC はプレイヤーの性格や過去の行動履歴を記憶し続けることが可能になります。これにより、「昨日あなたと戦ったあの兵士が、今日街で挨拶をする」といった一貫性のあるストーリー展開が自動生成されます。これは単なるギミックではなく、RPG やオープンワールドゲームにおける「生きている世界」の実現に寄与する技術革新です。
本ガイドでは、Skyrim SE を含む主要タイトルへの対応状況や、必要なハードウェア構成、具体的な導入手順を詳述します。特に 2026 年時点での最新モデルである Qwen3 や Llama 3.3 の性能を活かしつつ、自宅の PC スピードで動作可能な最適化設定についても解説します。ローカル LLM を利用することで、通信制限やサブスクリプション料金を気にせず、永続的に AI NPC と対話できる環境を構築できます。
現在、AI NPC 技術を実装可能な主要なタイトルは限られていますが、それぞれが独自のアーキテクチャで動作しています。最も成熟しているのが The Elder Scrolls V: Skyrim Special Edition です。Mantella という大規模なプロジェクトにより、Skyrim 内での会話、クエスト生成、甚至いは NPC の感情表現の動的変化が可能になりました。Ollama との連携によって、PC の GPU を利用して低遅延で推論を行う仕組みが確立されています。この分野では、プレイヤーコミュニティによる拡張性も高く、新しい MOD が追加される頻度が高いことが特徴です。
GTA V においては「Sentient Streets」というプロジェクトが進んでいます。こちらは Skyrim と異なり、よりオープンな世界の制約があるため、NPC の行動パターン自体を AI に委ねるアプローチを取っています。会話だけでなく、NPC の路地での待ち受け行動や、プレイヤーへの攻撃的な反応も LLM が判断します。ただし、GTA V の世界規模の広大さを維持しつつ AI を導入する技術的難易度は Skyrim より高く、PC スピードの要求値もやや高くなる傾向があります。
その他、Mount & Blade II: Bannerlord や Minecraft にも対応したプラグインが存在します。特に Minecraft では、Inworld AI NPC プラグインを利用することで、ブロックを積み上げる世界に知的な住民を追加できます。Minecraft はオープンソース性が強いため、MOD のカスタマイズ範囲が最も広く、開発者が独自のスクリプトで LLM と連携させる余地があります。各ゲームの特性に合わせて、どの MOD が適しているかを判断する必要があります。
| ゲームタイトル | 主要 MOD/プラグイン名 | 対応 LLM エンジン | 音声合成対応 | NPC 数制限 | AI 品質評価 | インストール難易度 |
|---|---|---|---|---|---|---|
| Skyrim SE | Mantella | Ollama / LM Studio | xVASynth, XTTS | 無制限 | S (非常に高い) | 中級者向け |
| GTA V | Sentient Streets | Ollama / OpenRouter | Piper, Edge TTS | 制限あり | A+ (高い) | 中級〜上級者向け |
| Mount & Blade II | AI Dialogue MOD | LlamaIndex + Ollama | XTTS v2 | 中規模 | B+ (良好) | 初級者〜中級者向け |
| Minecraft | Inworld AI Plugin | Inworld API / Local | Piper TTS | プラグイン依存 | A (高い) | 上級者向け |
| Fallout 4 | Project Novus | Ollama (Community Build) | XTTS v2 | 小規模 | B (中程度) | 上級者向け |
ローカル AI NPC を動作させるためには、適切な大規模言語モデル(LLM)の選択が不可欠です。2026 年現在、Ollama で利用可能な主要なモデルには、Qwen3 30B-A3B や Llama 3.3 70B などがあります。各モデルは特徴が異なり、PC のスペックや用途に合わせて選ぶ必要があります。軽量ながら高品質な Qwen3 アーキテクチャシリーズは、Mixture of Experts(MoE)方式を採用しており、必要な計算リソースのみを動的に割り当てるため、VRAM 効率が良いのが強みです。特に 30B パラメータの A3B モデルは、VRAM 12GB〜16GB の環境でも滑らかに動作します。
一方、高品質なロールプレイや複雑な文脈理解が必要な場合、Llama 3.3 70B が推奨されます。このモデルは、より深い思考プロセスを持つため、NPC の性格付けや背景設定の反映において優れた結果を出します。ただし、フル精度での動作には VRAM 48GB 以上が必要となるため、通常は Q4_K_M や Q5_K_S などの量子化(Quantization)された GGUF ファイルを使用します。これにより VRAM 24GB の環境でも推論を完結させることが可能です。
Mistral Small 3.1 24B は、速度とレスポンスのバランスを重視する場合に適しています。対話の応答スピードが求められるオンラインプレイや、複雑な計算を伴わない日常的な雑談には非常に有効です。ただし、論理的推論能力は Llama 3.3 よりもやや劣るため、戦略的なクエスト管理を行う NPC には不向きです。選定基準として、「VRAM の制約」が最優先となり、その上で「会話の深さ」が必要か「速度」が必要かを判断します。
| モデル名 | パラメータ数 | 推奨 VRAM (量子化後) | 推論速度 (トークン/秒) | ロールプレイ能力 | レスポンスタイム | 推奨用途 |
|---|---|---|---|---|---|---|
| Qwen3 30B-A3B | ~30B | 12GB - 16GB | 25〜40 TPS | A+ (高い) | 低 | 汎用 NPC |
| Llama 3.3 70B | ~70B | 24GB - 32GB | 10〜20 TPS | S (非常に高い) | 中 | 複雑なストーリー |
| Mistral Small 3.1 | ~24B | 8GB - 12GB | 45〜60 TPS | B+ (良好) | 低 | 高速応答 |
| Qwen2.5-VL | ~7B | 6GB | 60+ TPS | C (標準) | 極低 | 簡易チャット |
ローカル LLM をゲームと共に動作させるには、通常のゲーミング環境よりも高い GPU メモリ容量が求められます。LLM の推論において VRAM は、モデルの重量(Weights)とコンテキストウィンドウ(会話履歴)を保持するために使用されます。2026 年時点では、NVIDIA の RTX 40 シリーズや最新の RTX 50 シリーズが主流ですが、VRAM 容量がボトルネックになることが多々あります。最低限の要件として VRAM 8GB は必要ですが、これは Qwen3 7B モデルなどの軽量版に限られます。
推奨される構成としては、VRAM 16GB の RTX 4070 Ti Super または同等以上の GPU を持つ PC です。これにより、Qwen3 30B-A3B や Llama 3.3 70B(量子化)を同時に動作させつつ、ゲーム自体の解像度も高画質に保つことが可能になります。VRAM 24GB の RTX 4090 または RX 7900 XTX を採用すれば、複数の NPC が同時に会話するマルチスレッド環境や、より高精細な音声合成もスムーズに行えます。
CPU やシステムメモリ(RAM)についても考慮が必要です。LLM の初期ロードにはシステム RAM を使用するため、32GB 以上の DDR5 推奨です。また、ディスクの読み込み速度も重要で、NVMe SSD にモデルファイルを保存することで、ゲーム起動時のロード時間短縮や、NPC 切り替え時の待ち時間を削減できます。HDD では遅延が発生しすぎて会話のリズムが損なわれるため避けるべきです。
| VRAM 容量 | GPU 推奨例 (2026) | 対応可能 LLM (目安) | ゲーム同時プレイ可 | 音声合成品質 | メモリ要件 |
|---|---|---|---|---|---|
| 8GB | RTX 4060 Ti 16G | Qwen3 7B, Llama 3.2 3B | ◎ (高設定) | 標準 | 16GB DDR5 |
| 12GB | RTX 4070 Super | Qwen3 14B, Mistral Small | ◎ (高設定) | 中〜良 | 32GB DDR5 |
| 16GB | RTX 4080 Super | Qwen3 30B-A3B, Llama 3.3 70B(Q4) | ○ (中設定) | 高 | 32GB DDR5 |
| 24GB | RTX 4090 / 5090 | Llama 3.3 70B(Q3), Multiple NPCs | ○ (低設定可) | 最高 | 64GB DDR5 |
| 48GB+ | Workstation Class | Full Precision Models | △ (低解像度) | 最高 | 128GB DDR5 |
Skyrim Special Edition における AI NPC 導入は、最も安定した環境を提供します。まず前提として、Steam 版の Skyrim SE が最新バージョンに更新されていることを確認し、MOD マネージャー(Vortex または MO2)をインストールします。Mantella の導入には、以下の手順に従って進める必要があります。最初に Ollama を PC にインストールし、AI エンジンとしての準備を整えることが最初のステップです。
Ollama のインストール後、コマンドプロンプトまたはターミナルで ollama pull qwen3:30b(または好みのモデル)を実行します。これにより、モデルファイルがローカルにダウンロードされます。Skyrim 側では、Mantella の最新バージョンを MOD サイトから取得し、Vortex を介してインストールします。ゲームフォルダ内に Mantella フォルダが作成されれば準備は完了です。
次に、Ollama と Skyrim 側の接続設定を行います。Mantella の設定ファイル(通常 config.toml または JSON ファイル)において、API エンドポイントを指定する必要があります。デフォルトでは http://localhost:11434/api/generate が設定されていることが多いですが、ポート番号が競合しないか確認します。xVASynth や XTTS などの音声合成エンジンとの連携もこの段階で設定し、NPC の声質を選択します。
AI NPC の没入感を決定づけるのは「見た目」だけでなく「声質」です。2026 年時点で利用可能な主な音声合成(TTS)エンジンには、xVASynth、XTTS v2、Piper TTS があります。それぞれに明確な役割分担があり、用途に応じて使い分けることで最高の品質を実現できます。
Skyrim SE の場合は「xVASynth」が最も推奨されます。これは既存の NPC 音声データを学習し、クローン音声を生成する技術です。ゲーム内キャラクターであるユグレイや、オリジナルの NPC に特有の声質を維持しつつ、AI が生成したセリフを読ませることができます。これにより、「誰が話しているか」の一貫性が損なわれず、プレイヤーは違和感なく会話を受け入れることができます。
XTTS v2 は多言語対応に優れています。日本語、英語、スペイン語などを瞬時に切り替える必要がある場合や、独自の声質を持たない NPC に自然な発音を与えたい場合に適しています。一方、Piper TTS は軽量設計であり、CPU 負荷を最小限に抑えながら動作します。低スペック PC や、多数の NPC を同時に音声合成する必要がある環境で威力を発揮します。
| エンジン名 | クローン能力 | 多言語対応 | CPU/GPU 負荷 | VRAM 使用量 | 品質評価 | 推奨用途 |
|---|---|---|---|---|---|---|
| xVASynth | ◎ (優秀) | △ (限定的) | 高 (GPU) | 中〜高 | S (最高) | Skyrim NPC クローン |
| XTTS v2 | ○ (良好) | ◎ (優秀) | 中 | 低〜中 | A+ (高い) | 多言語/独自声質 |
| Piper TTS | × (不可) | ○ (標準) | 極低 (CPU) | 無視可能 | B (良好) | 軽量環境/バックグラウンド |
AI NPC を単なるチャットボットとしてではなく、ゲーム内のキャラクターとして機能させるためには、プロンプトエンジニアリングが重要です。システムプロンプト(System Prompt)を適切に設定することで、NPC の性格、背景知識、そしてプレイヤーとの距離感を制御できます。例えば、「あなたは Skyrim の街の警備員です。プレイヤーには厳格だが、任務遂行中は礼儀正しい」といった指示を与えることで、一貫したキャラクター性を維持します。
世界設定コンテキスト(Context)の提供も欠かせません。AI は現在のゲーム内の日付、天候、プレイヤーの所持金、直近のクエスト状況を理解する必要があります。Mantella などの MOD は自動でこれらの情報を取得する機能を持っていますが、カスタムプロンプトを通じて追加情報を与えることも可能です。「現在、雪が降っているため、NPC は寒さについて言及する」といった指示を注入することで、臨場感が向上します。
メモリ管理の観点では、会話履歴(History)の長さを制御することも重要です。LLM のコンテキストウィンドウは有限であるため、すべての過去の会話を保存することはできません。直近 10〜20 回のやり取りを重点的に記憶させ、それ以前の重要なイベントのみ要約して保持するアルゴリズムが一般的です。これにより、AI が「先週話したこと」を忘れることを防ぎつつ、推論速度も維持できます。
ローカル LLM における最大の課題の一つは、応答までの遅延です。プレイヤーが会話を終えた後、NPC が返事をするまで数秒待たされることは没入感を損ないます。レスポンス時間を最適化するには、「量子化」の使用が最も効果的です。FP16(半精度浮動小数点)モデルを Q4_K_M(4 ビット量子化)に変換することで、推論速度が 2〜3 倍向上し、VRAM 使用量も大幅に削減されます。
さらに、Ollama の設定ファイルにおいて num_thread パラメータを調整することで、CPU コア数の割り当てを変更できます。RTX 4070 Ti 以上の GPU を使用している場合、GPU に負荷を集中させるため、CPU へのスレッド数を減らす(例:4 スレッド程度)ことで、推論の優先順位が明確になり、安定した速度が出やすくなります。
また、音声合成との連携における非同期処理も有効です。LLM がテキストを生成し始めた瞬間から、TTS エンジンが読み込みを開始する「ストリーミング」対応設定を行うことで、完全なテキスト出力を待つよりも早く音声が再生されます。これにより、会話のリズムが自然になり、待ち時間のストレスが軽減されます。
Skyrim 以外のゲームでも AI NPC MOD は利用可能ですが、それぞれ独自の注意点が存在します。GTA V の Sentient Streets モッドは、オープンワールドの広大さを活かすため、NPC がプレイヤーを認識する範囲(Aggro Range)の設定が重要です。AI に無限の視野を持たせると計算リソースが枯渇するため、一定距離以内でのみ LLM を起動させるスクリプトを組み込む必要があります。
Mount & Blade II: Bannerlord では、戦闘中の対話や交渉シナリオに AI が使用されます。ここでは「戦況」という緊迫したコンテキストをどう扱うかが鍵となります。戦闘中に長文の会話を生成させるとゲームが止まってしまうため、簡易的なプロンプト(短回答重視)に変更する必要があります。AI による兵士の士気アップや戦略提案など、プレイヤーの指揮能力を補完する役割に特化させるのが成功の秘訣です。
Minecraft では Inworld AI プラグインを利用します。ブロックの世界では物理法則が厳格であるため、NPC の移動経路計算と AI 思考の同期が必要です。サーバー側の負荷分散も重要で、プレイヤーが離れた場所にいる NPC は LLM を待機状態にし、接近した時のみリソースを割り当てるロジックを実装します。これにより、大規模な村でも PC がフリーズすることなく動作します。
AI NPC MOD 導入には明確なメリットがあります。最大の利点は「無限の対話可能性」です。従来のゲームでは考えられなかった質問や、予測不能な行動に対して NPC が柔軟に対応するため、プレイ体験が毎回新鮮になります。また、ローカル環境で動作するため、サブスクリプション費用がかからず、オフラインでも使用可能です。プライバシーの観点からも、会話データが外部サーバーに送信されないため、安心して会話を続けられます。
一方、デメリットも存在します。最大の課題は「計算資源の消費」です。高品質な LLM を動かすには高性能 PC が必要であり、エントリークラスの PC では動作しないか、非常に遅いレスポンスになります。また、「ハルシネーション(嘘)」の問題があり、NPC が事実と異なる情報を話してしまうことがあります。これを防ぐにはプロンプトの調整やコンテキストの厳密化が必要ですが、完全な解決は依然として技術的に困難です。
さらに、MOD の更新頻度にも注意が必要です。ゲーム自体のアプデで MOD が動作しなくなるケースがあり、維持コストが発生します。しかし、コミュニティが活発であれば修正パッチも迅速に公開されるため、長期的な利用も可能です。導入する際は、自分の PC スペックと AI NPC への期待値を天秤にかけて判断することが重要です。
Q1: ローカル LLM を動かすために必要な最小限の GPU は何ですか? A1: 最低でも VRAM 8GB 以上の NVIDIA RTX 3060 12G や RTX 4060 Ti などのモデルが必要です。これより低い VRAM では、軽量な 7B パラメータ以下のモデルしか動作せず、複雑な対話や高品質な音声合成が困難になります。安定して Qwen3 30B を動かすには 12GB〜16GB が推奨されます。
Q2: Ollama が起動しない場合の対処法を教えてください。
A2: まずポート番号(通常は 11434)が他のプログラムと競合していないか確認してください。Windows のファイアウォール設定で、Ollama に通信を許可しているかもチェックします。コマンドプロンプトで ollama serve を手動実行し、エラーログを確認することで根本原因の特定が可能になります。
Q3: NPC の声質がゲーム内のキャラクターと一致しません。 A3: xVASynth などの音声クローン技術を使用する必要があります。XTTS v2 や Piper TTS は汎用的な音声になる傾向があります。Mantella の設定で、使用する音声合成エンジンを「xVASynth」に切り替え、NPC 固有の音声サンプルを正しく読み込ませる構成を確認してください。
Q4: 会話中にゲームがフリーズします。 A4: VRAM が不足している可能性があります。使用している LLM モデルのサイズ(GGUF ファイル)を小さく変更するか、量子化レベル(Q8 から Q5/Q4)を下げてみてください。また、TTS の同時実行数を減らす設定も有効です。
Q5: プロンプトで NPC が性格を変えてしまいます。 A5: システムプロンプトの指示が強力すぎると、状況によっては破綻することがあります。「あなたは〇〇の役割であり、△△という性格です」という基本定義を維持しつつ、動的な会話履歴(コンテキスト)への依存度を下げる設定を行ってください。
Q6: 日本語での発音が不自然です。 A6: 使用している TTS モデルが英語優先である可能性があります。XTTS v2 は多言語対応に優れていますが、日本語の発音品質は xVASynth や専用の日本語 TTS エンジンの方が高い傾向があります。Mantella の設定で音声合成エンジンを切り替えてください。
Q7: 複数の NPC を同時に話させると遅くなります。 A7: LLM は単一スレッドで動作することが多く、複数同時推論は重くなります。1 つの NPC に集中させるか、サーバー側でスロットリング(並列処理制限)を設定してください。また、Mistral Small 3.1 のような軽量モデルを使用することで速度向上が期待できます。
Q8: モデルファイルのダウンロードに時間がかかります。 A8: モデルサイズは数 GB〜数十 GB に達します。高速な NVMe SSD と安定した通信環境が必要です。Ollama のキャッシュディレクトリを SSD に移動させることで、読み込み速度が向上し、ランタイムでの動作も軽快になります。
Q9: 既存のクエストが AI によって壊れてしまうことはありますか? A9: はい、AI が予期せぬ行動をとることで、クエスト進行に支障が出る可能性があります。ゲーム内のイベントトリガーを LLM の判断に委ねすぎないよう、重要な分岐点はハードコードされたロジックで守り、会話のみ AI に任せるハイブリッド構成が安全です。
Q10: 2026 年以降もこの MOD は維持されるでしょうか? A10: Mantella や Sentient Streets のようなプロジェクトはコミュニティ主導であり、ゲームのアップデートに合わせて修正が行われます。ただし、Steam 版とローカル版の互換性や、AI モデルの進化により構成が変更される可能性があります。公式ドキュメントを定期的に確認してください。
本記事では、2026 年時点での AI NPC MOD 導入ガイドとして、Skyrim SE や GTA V などの主要ゲームへの対応状況を詳述しました。ローカル LLM を活用することで、従来の分岐型対話を超えた没入感あるゲーム体験が可能となりますが、それには適切な PC スペックと設定が必要です。
以下の要点を踏まえて導入を進めてください。
AI NPC はゲームの世界を「生きているもの」へと変える強力な技術です。ただし、ハードウェアリソースや設定の複雑さを理解した上で導入することが成功への鍵となります。ぜひこのガイドを参考に、自分だけの AI 共存するゲーム世界を構築してください。

PCパーツ・ガジェット専門
自作PCパーツやガジェットの最新情報を発信中。実測データに基づいた公平なランキングをお届けします。
ローカルLLMをダンジョンマスターとして活用するTRPGの遊び方を解説。Ollama+適切なモデル選択で没入感あるセッションを。
[]
Ollama を使ってローカルPCでLLMを動かす方法を解説。インストール、モデル選び、Web UI連携、API活用を紹介。
この記事に関連するデスクトップパソコンの人気商品をランキング形式でご紹介。価格・評価・レビュー数を比較して、最適な製品を見つけましょう。
デスクトップパソコンをAmazonでチェック。Prime会員なら送料無料&お急ぎ便対応!
※ 価格・在庫状況は変動する場合があります。最新情報はAmazonでご確認ください。
※ 当サイトはAmazonアソシエイト・プログラムの参加者です。
超小型USBハブ、使い心地抜群!
在宅勤務でゲーミングノートPCを使用しているとき、USBポートが足りないことがしばしばありましたが、このAkkerds USBハブを導入してからは一転、快適さが格段にUPしました。3ポート全てが高速のUSB 3.0に対応し、1週間使ってみてビックリしたのが直挿し式でケーブル不要な点です。ノートPCに...
ヤバすぎ!サーバー構築、ストレスフリーに!Dell OptiPlex 3070SFFで作業効率爆上がり!
前使っていたサーバーがまさかの悲鳴!OSのアップデートで動かなくなってしまったので、買い替えを決めたのがDell OptiPlex 3070SFF。整備済み品で、メモリ16GB+SSD512GB、さらに32GB+1000GBのモデルを選びました!届いた箱を開けてすぐにWindows 11が起動!設定...
メモリ速度に魂を込めて!NEWLEAGUE i7デスクトップPC、まさに歓喜!
初めてのデスクトップPC購入でした。正直、スペックとか全然分からなくて、ただ『動けばいい』という気持ちで選んだんです。でも、このNEWLEAGUEのi7-14700モデル、本当に買って良かったです!1ヶ月使ってみて、予想を遥かに超えるパフォーマンスに感動しています。特に、動画編集が今までなら3時間以...
23.8インチ IPS 120Hz ゲーミングモニター、優れた画質と低遅延を実現
Acer モニター 23.8インチ フルHD IPS 120Hz 1ms(VRB) sRGB 99% AdaptiveSync HDMI 1.4 ミニD-Sub 15ピン スピーカー・ヘッドフォン端子搭載 VESAマウント対応 ゼロフレームデザイン 3年保証(パネルは1年) KA242YG0bmix...
コスパ最高!大学生には絶対おすすめのゲーミングPC
大学生の私、〇〇です。このPC、本当にコスパが良すぎ!35800円でこれだけ入ってるとは信じられないくらいです。普段使いはもちろん、軽いゲームもサクサク動くから、レポート作成とかにも全然支障ないんです。特に、GeForce RTX 3060搭載で、設定を少し弄れば、フルHDでかなりキレイにゲームが楽...
DELL 7010 中古PC レビュー:業務用途なら十分
フリーランスのクリエイターです。今回のDELL 7010は、動画編集やプログラミングなど、日常業務でPCを使う頻度が高い私にとって、コストパフォーマンスを重視して購入しました。価格2万6800円という点も魅力的でした。 まず、良い点としては、Core i5-3470のCPUと16GBメモリが搭載さ...
4K動画編集、マジで快適!レノボ ThinkCentre M920Tで作業効率爆上がり!
いやー、マジでヤバい!以前使ってた古いデスクトップPCが、もう限界だったんです。4K動画編集で素材を読み込んだり、編集したりするだけで、フリーズしまくって、作業効率がマジでゴミでした。そんな状況を打開するために、思い切って整備済み品のリファニー品を購入! 届いて開封した瞬間から、まず驚いたのがパッ...
コンパクトなのにパワフル!在宅ワーク環境が激変
フリーランスで動画編集とライティングをしている20代女性です。ずっとノートPCで作業していたのですが、最近パフォーマンス不足を感じていたところ、このDELL 3050 Microを見つけました。正直、こんなにコンパクトで高性能なPCがあるのかと驚き! 実際に使ってみると、動画編集のレンダリング時間...
コスパ良すぎ!大学生にはおすすめ
大学生の私、普段PCで動画編集とかしてるんですが、予算を抑えたいなぁと思ってこのProdesk 600 G5 SFに一目惚れ!SSDが載ってるのが決め手で、起動もそこそこ速いし、Office 2021もインストールされてたから、すぐに使い始められました。Core i7-9700も、動画編集の軽い作業...
切ない恋にキュン💖
予想外の展開にドキドキ!切ない恋模様が描かれていて、思わず感情移入しちゃいました。電子限定のかきおろしエピソードも、物語の世界観を深めてくれて最高です!絵も綺麗で、読み応えありました。普段は読まないジャンルですが、これは夢中になれました✨