Qwen3: 次世代AIモデルの詳細解説

はじめに

2025年4月、Alibaba Cloudのチームが開発した最新の大規模言語モデル「Qwen3」がリリースされました。Qwen3は、GoogleやOpenAIの最高性能モデルと競合し、場合によってはそれらを上回る性能を示す革新的なAIモデルファミリーです。本記事では、Qwen3の技術的特徴、性能、そして実用的な使い方について詳しく解説します。

Qwen3の概要

Qwen3は、Qwenシリーズの最新世代であり、密なアーキテクチャとMixture-of-Experts(MoE)アーキテクチャの両方を含む包括的なモデル群です。フラッグシップモデルであるQwen3-235B-A22Bは、DeepSeek-R1、o1、o3-mini、Grok-3、Gemini-2.5-Proなどの最高峰モデルと比較しても、コーディング、数学、一般能力のベンチマーク評価で競争力のある結果を達成しています。

リリースされたモデル

Qwen3ファミリーには、以下のモデルが含まれています:

MoEモデル(オープンウェイト):

  • Qwen3-235B-A22B: 総パラメータ235億、活性化パラメータ22億の大型MoEモデル
  • Qwen3-30B-A3B: 総パラメータ30億、活性化パラメータ3億の小型MoEモデル

密なモデル(Apache 2.0ライセンス):

  • Qwen3-32B
  • Qwen3-14B
  • Qwen3-8B
  • Qwen3-4B
  • Qwen3-1.7B
  • Qwen3-0.6B

すべてのモデルは、Hugging Face、ModelScope、Kaggleで入手可能で、SGLang、vLLM、Ollama、LMStudio、llama.cpp、KTransformersなどのフレームワークでの展開が推奨されています。

Qwen3の主要な特徴

1. ハイブリッド思考モード

Qwen3の最大の革新は、問題解決へのハイブリッドアプローチです。モデルは2つのモードをサポートしています:

思考モード(Thinking Mode): 最終的な答えを出す前に、ステップバイステップで推論する時間を取ります。深い思考を必要とする複雑な問題に最適です。

非思考モード(Non-Thinking Mode): シンプルな質問に対して、ほぼ即座に迅速な応答を提供します。速度が深さよりも重要な場合に適しています。

この柔軟性により、ユーザーはタスクに応じてモデルの「思考量」を制御できます。さらに重要なのは、これら2つのモードの統合により、安定した効率的な思考予算制御を実装するモデルの能力が大幅に向上していることです。Qwen3は、割り当てられた計算推論予算に直接相関する、スケーラブルでスムーズな性能向上を示します。

2. 多言語サポート

Qwen3モデルは、119の言語と方言をサポートしています。この広範な多言語機能により、国際的なアプリケーションの新たな可能性が開かれます。サポートされる言語には以下が含まれます:

  • インド・ヨーロッパ語族: 英語、フランス語、ドイツ語、スペイン語、ロシア語、ヒンディー語など
  • シナ・チベット語族: 中国語(簡体字、繁体字、広東語)、ビルマ語
  • アフロ・アジア語族: アラビア語、ヘブライ語
  • オーストロネシア語族: インドネシア語、タガログ語、ジャワ語
  • その他: 日本語、韓国語、タイ語、ベトナム語など

3. 強化されたエージェント機能

Qwen3は、コーディングとエージェント機能に最適化されており、MCP(Model Context Protocol)のサポートも強化されています。モデルがどのように考え、環境と相互作用するかについて、実用的な例が提供されています。

技術的詳細

事前学習

Qwen3の事前学習データセットは、Qwen2.5と比較して大幅に拡張されています。Qwen2.5が18兆トークンで事前学習されたのに対し、Qwen3はその約2倍となる約36兆トークンを使用し、119の言語と方言をカバーしています。

データセット構築では:

  • ウェブからのデータだけでなく、PDF形式のドキュメントからもデータを収集
  • Qwen2.5-VLを使用してドキュメントからテキストを抽出
  • Qwen2.5を使用して抽出コンテンツの品質を向上
  • Qwen2.5-MathとQwen2.5-Coderを使用して数学とコードの合成データを生成

事前学習は3段階で構成されています:

  1. 第1段階(S1): 4Kトークンのコンテキスト長で30兆以上のトークンで事前学習
  2. 第2段階(S2): STEM、コーディング、推論タスクなどの知識集約型データの割合を増やし、追加の5兆トークンで学習
  3. 最終段階: 高品質の長文コンテキストデータを使用してコンテキスト長を32Kトークンに拡張

性能の向上

モデルアーキテクチャの進歩、学習データの増加、より効果的な学習方法により、Qwen3密なベースモデルの全体的な性能は、より多くのパラメータを持つQwen2.5ベースモデルの性能に匹敵します。例えば:

  • Qwen3-1.7B ≈ Qwen2.5-3B
  • Qwen3-4B ≈ Qwen2.5-7B
  • Qwen3-8B ≈ Qwen2.5-14B
  • Qwen3-14B ≈ Qwen2.5-32B
  • Qwen3-32B ≈ Qwen2.5-72B

特に、STEM、コーディング、推論の分野では、Qwen3密なベースモデルは、より大きなQwen2.5モデルをも上回っています。

事後学習

ステップバイステップの推論と迅速な応答の両方が可能なハイブリッドモデルを開発するために、4段階の学習パイプラインが実装されました:

  1. 長い思考連鎖(CoT)コールドスタート: 多様なタスクとドメインをカバーする長いCoTデータを使用してモデルを微調整
  2. 推論ベースの強化学習(RL): ルールベースの報酬を活用して、モデルの探索と活用能力を向上
  3. 思考モード融合: 長いCoTデータと一般的な指示調整データの組み合わせで微調整し、非思考機能を統合
  4. 一般的なRL: 20以上の一般ドメインタスクでRLを適用し、モデルの一般能力をさらに強化

Qwen3の使用方法

基本的な使用例

Hugging Face transformersでQwen3-30B-A3Bを使用する標準的な例:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-30B-A3B"

# トークナイザーとモデルのロード
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)

# モデル入力の準備
prompt = "大規模言語モデルについて簡単に紹介してください。"
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=True  # 思考モードと非思考モードを切り替え
)

model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

# テキスト生成
generated_ids = model.generate(**model_inputs, max_new_tokens=32768)

デプロイメント

SGLangまたはvLLMを使用して、OpenAI互換のAPIエンドポイントを作成できます:

SGLang:

python -m sglang.launch_server --model-path Qwen/Qwen3-30B-A3B --reasoning-parser qwen3

vLLM:

vllm serve Qwen/Qwen3-30B-A3B --enable-reasoning --reasoning-parser deepseek_r1

ローカル開発

Ollamaを使用する場合:

ollama run qwen3:30b-a3b

高度な使用法:ソフトスイッチ

enable_thinking=Trueの場合、ユーザープロンプトまたはシステムメッセージに/think/no_thinkを追加することで、ターンごとにモデルの思考モードを動的に制御できます。

エージェント機能の活用

Qwen3はツール呼び出し機能に優れています。Qwen-Agentを使用することで、Qwen3のエージェント能力を最大限に活用できます。Qwen-Agentは、ツール呼び出しテンプレートとパーサーを内部でカプセル化しており、コーディングの複雑さを大幅に削減します。

今後の展望

Qwen3は、人工汎用知能(AGI)と人工超知能(ASI)への旅における重要なマイルストーンを表しています。事前学習と強化学習(RL)の両方をスケールアップすることで、より高いレベルの知能を達成しました。

今後の計画には以下が含まれます:

  • モデルアーキテクチャと学習方法論の改良
  • データのスケーリング
  • モデルサイズの増加
  • コンテキスト長の拡張
  • モダリティの拡大
  • 長期推論のための環境フィードバックを伴うRLの進展

Alibaba Cloudチームは、「モデルを訓練する時代から、エージェントを訓練する時代へと移行している」と述べており、次のイテレーションでは、すべての人の仕事と生活に有意義な進歩をもたらすことを約束しています。

まとめ

Qwen3は、高度な推論能力、多言語サポート、柔軟な思考モード、優れたエージェント機能を兼ね備えた、次世代の大規模言語モデルです。Apache 2.0ライセンスでオープンソース化されているモデルも多く、研究者、開発者、組織が革新的なソリューションを構築するための強力なツールとなっています。

Qwen3のリリースは、大規模基盤モデルの研究開発を大きく前進させるものであり、世界中のユーザーがこの最先端技術の恩恵を受けられるようになっています。

本記事は、Claude によって生成されました。
本画像は、Gemini によって生成されました。


投稿者: