Qwen Blog の最新記事

公式

20件の記事

Qwen3Guard:トークンストリームのリアルタイム安全性確保

Qwenチームは安全分類用に微調整した「Qwen3Guard」を発表しました。同モデルはプロンプトと応答の安全性をリアルタイム検出し、リスクレベルと分類を提供してAI対話の安全確保を実現します。

Qwen Blog·9月23日

Qwen-Image-Edit:高品質かつ高効率な画像編集

Qwenチームは画像編集モデル「Qwen-Image-Edit」を発表した。20Bパラメータの基盤モデルを拡張し、高精度なテキスト編集と視覚制御を両立する技術を実現した。

Qwen Blog·8月19日

Qwen-Image:ネイティブテキストレンダリングによる画像生成

Qwenチームは20Bパラメータの画像生成基盤モデル「Qwen-Image」を公開した。同モデルは複雑なテキスト描画と精密な画像編集を実現し、Qwen Chatで利用可能である。

Qwen Blog·8月4日

GSPO:言語モデル向けスケーラブル強化学習へ向けて

著者らは、大規模言語モデルの強化学習で既存手法が長期訓練時に崩壊する問題を解決するため、安定なスケーラブル強化学習手法「GSPO」を提案する。

Qwen Blog·7月27日

Qwen-MT:速度とスマート翻訳の融合

Qwen開発チームは、Qwen API経由で「qwen-mt-turbo」を公開した。同モデルはQwen3基盤に92言語分の翻訳データと強化学習を統合し、翻訳精度と流暢性を大幅に向上させた。

Qwen Blog·7月24日

Qwen3-Coder:世界におけるエージェント型コーディング

QwenチームはMoE方式の「Qwen3-Coder」を発表した。最大1Mトークンに対応し、コーディングとエージェントタスクで卓越する。

Qwen Blog·7月22日

Qwen-TTS、方言対応へ

アリババのQwenチームは、API経由で公開された最新バージョン「Qwen-TTS」について発表した。数百万時間分のデータで学習したこのモデルは、人間のレベルの自然な発話を実現し、入力テキストに応じて抑揚や感情を自動調整する。さらに北京語、上海語、四川語の3つの中国方言に対応している。

Qwen Blog·6月27日

Qwen VLo:世界を「理解」するから「描写」するへ

Qwenチームは、画像理解と高品質な生成を統合した新モデル「Qwen VLo」を発表しました。同モデルは、世界の理解から画像描写までを可能にします。

Qwen Blog·6月26日

Qwen3 Embedding:基盤モデルによるテキスト埋め込みとリランキングの高度化

QwenチームはQwen3基盤モデルを基盤とした「Qwen3 Embeddingシリーズ」を公開し、テキスト埋め込みとリランキングタスクでSOTA性能を実現した。

Qwen Blog·6月5日

Qwen3:より深く思考し、より高速に動作する

Qwenチームは最新大規模言語モデル「Qwen3」を公開した。主力モデルと小型MoEモデルは、コーディングや数学で他トップモデルと互角の結果を示し、先行版を上回る性能を達成した。

Qwen Blog·4月29日

QVQ-Max:根拠に基づく思考

Qwenチームは、画像や動画の内容を理解し分析・推論して数学やプログラミングなどの問題を解決する視覚推論モデル「QVQ-Max」の正式版を公開した。

Qwen Blog·3月28日

Qwen2.5 Omni:視覚、聴覚、会話、記述、実行をすべてこなす!

Qwenチームは、テキスト・画像・音声・動画を入力し、リアルタイムのテキスト生成と自然な音声合成で応答する多モーダルモデル「Qwen2.5-Omni」を公開した。このエンドツーエンドのフラッグシップモデルは、Qwen Chatで7B版を試せる。

Qwen Blog·3月27日

Qwen2.5-VL-32B:より賢く、より軽量

Qwenチームは強化学習で最適化した320億パラメータのマルチモーダルモデル「Qwen2.5-VL-32B-Instruct」を公開し、従来比で性能向上と軽量化を実現した。

Qwen Blog·3月24日

QwQ-32B:強化学習の力を活かす

QwenチームはQwQ-32Bにおいて強化学習の規模拡大を検証し、従来の学習段階を超えた推論性能の向上を目指す研究を発表した。

Qwen Blog·3月6日

Qwenシリーズの新モデル「QwQ-Max-Preview」プレビュー版公開のお知らせ

QwQ-Max-Preview開発チームは、Qwen2.5-Maxを基盤とする新モデル「QwQ-Max-Preview」のプレビュー版を公開し、その概要とDiscordコミュニティへの参加を案内している。

Qwen Blog·2月25日

Qwen2.5-Max:大規模MoEモデルの知能を探る

Qwenチームは、モデル規模の拡張が知能向上に寄与するとし、DeepSeek V3の手法を参考にして大規模MoEモデル「Qwen2.5-Max」を開発・公開した。

Qwen Blog·1月29日

Qwen2.5-1M:最大100万トークンのコンテキスト長で独自のQwenをデプロイ

Qwenチームは最大100万トークン対応のオープンソースモデルQwen2.5-7B-Instruct-1Mと14B-Instruct-1Mをリリースし、推論フレームワークも提供した。

Qwen Blog·1月27日

Qwen2.5-VL! Qwen2.5-VL! Qwen2.5-VL!

Qwenチームは新ビジョン言語モデル「Qwen2.5-VL」をリリースした。3B、7B、72Bの全サイズを公開し、視覚的理解能力を大幅に強化した。

Qwen Blog·1月26日

MoE大規模言語モデルの学習効率を向上させるグローバルバッチ負荷分散は、ほぼ無償の恩恵である

研究者は、MoE大規模言語モデルの学習においてグローバルバッチ負荷分散手法を適用し、ルーティングと専門家の活性化を最適化することで、ほぼ追加コストなしに学習効率を向上させる。

Qwen Blog·1月21日

数学的推論における効果的なプロセス監督への取り組み

研究者は、数学的推論で誤算や論理エラーを頻発する大規模言語モデルに対し、推論過程を検証するプロセス監督手法を提案し、信頼性を向上させる。

Qwen Blog·1月14日