Alibaba DAMO Academy が 2025 年に公開した Qwen シリーズ LLM の第 3 世代。コーディング、多言語、長文処理を強化し、オープンソース LLM の最高峰の一角を占める。
Qwen 3 は、Alibaba(アリババ)の DAMO Academy が 2025 年に公開した Qwen シリーズの第 3 世代大規模言語モデルです。Qwen 2、Qwen 2.5 の後継として、コーディング能力、多言語対応(特に中国語と英語)、長文処理、マルチモーダル機能を大幅に強化しました。Llama 4、DeepSeek V3 と並ぶ、オープンソース LLM の最高峰の一角を占めています。
Qwen 3 の革新的な機能。1 つのモデルで Thinking モード(推論)と Non-Thinking モード(即応答)を切り替え可能:
# Thinking モード(複雑な推論)
messages = [{"role": "user", "content": "Solve: 2x^2 - 5x + 3 = 0 /think"}]
# Non-Thinking モード(即応答)
messages = [{"role": "user", "content": "Hello /no_think"}]
| ベンチマーク | Qwen 3 72B | Llama 4 Scout | DeepSeek V3 | |------------|-----------|---------------|-------------| | MMLU | 86.1 | 85.7 | 87.1 | | MATH | 72.3 | 68.9 | 70.4 | | HumanEval | 85.4 | 82.3 | 82.6 | | C-Eval(中国語) | 86.9 | 78.3 | 88.4 | | MGSM(多言語) | 81.6 | 75.4 | 79.2 |
| モデル | VRAM | 推奨 GPU | |--------|------|---------| | Qwen 3 7B | 4GB | GTX 1660 | | Qwen 3 14B | 8GB | RTX 4060 | | Qwen 3 32B | 20GB | RTX 4090 | | Qwen 3 72B | 40GB | RTX 4090 × 2 | | Qwen 3 Coder 30B | 18GB | RTX 4090 |
# Ollama
ollama run qwen3:32b
# LM Studio(GUI)
# モデル検索で "Qwen3" を検索
# vLLM(本番)
vllm serve Qwen/Qwen3-72B-Instruct
# llama.cpp(軽量)
llama-server -m qwen3-32b.gguf
from openai import OpenAI
client = OpenAI(
api_key="YOUR_KEY",
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1"
)
response = client.chat.completions.create(
model="qwen3-72b-instruct",
messages=[{"role": "user", "content": "Hello"}]
)
| 項目 | Qwen 3 | Llama 4 | DeepSeek V3 | |------|--------|---------|-------------| | オープンソース | ✅ | ✅ | ✅ | | 多言語 | 最強 | 強 | 中 | | コーディング | 強 | 中 | 強 | | 日本語 | 優秀 | 良 | 良 | | ローカル実行 | 容易 | 中 | 困難(大型) | | 商用利用 | 制限あり | 制限あり | 可 |