NVIDIA Developer Blog の最新記事
公式66件の記事
資本市場向けに一桁マイクロ秒レベルの推論遅延を実現
NVIDIAが、アルゴリズム取引向けに市場イベントへの応答時間を短縮する技術を開発した。高速電子市場に対応するため、遅延に敏感な企業向けに推論遅延を一桁マイクロ秒レベルに低減するソリューションを提供する。
Gemma 4でAIをエッジおよびオンデバイスに近づける
NVIDIAが最新のマルチモーダル・多言語モデル「Gemma 4」を発表し、クラウドからエッジデバイスまで幅広い展開に対応するモデルを提供した。
CUDAタイルプログラミングがBASICで利用可能に!
NVIDIAがCUDA 13.1でCUDA Tileを導入し、BASIC言語で細粒度並列処理をよりアクセスしやすく柔軟にする次世代タイルベースGPUプログラミングパラダイムを提供した。
NVIDIAの極限共同設計が新たなMLPerf推論記録を達成
NVIDIAは、ハードウェア・ソフトウェア・モデルの共同設計により、AIファクトリーの最高スループットと最低トークンコストを実現し、MLPerf推論ベンチマークで新記録を樹立した。
統一サービスとリアルタイムAIによるAIファクトリーでのトークン生成の加速
NVIDIAは、統一サービスとリアルタイムAIを活用してAIファクトリーでのトークン生成を加速する方法を提案している。GPUの使用可能時間の1%低下が経済的・競争的影響をもたらす環境において、性能向上が重要であると指摘している。
NVIDIA CloudXR 6.0で高忠実度空間コンピューティングコンテンツをあらゆるデバイスにストリーミング
NVIDIAがCloudXR 6.0を発表し、高忠実度の空間コンピューティングコンテンツをあらゆるデバイスにストリーミング可能にした。これにより、XRハードウェアのGPU負荷を軽減しつつ、フォトリアリスティックなレンダリングとアクティブな共同作業を実現する。
NVIDIA CloudXR.jsでブラウザベースのXR体験を構築・ストリーミング
NVIDIAは、高品質なVR/AR体験をブラウザで提供するCloudXR.jsを発表した。これにより、ネイティブアプリ開発や複雑なデバイス管理が不要となり、企業ユーザーへのXR導入が容易になる。
未使用GPUワークロードを統合してAIインフラのスループットを最大化する
NVIDIAが、Kubernetes環境でモデル要件とGPUサイズの不一致による非効率性を解消するため、未使用GPUワークロードを統合する手法を提案している。
NVIDIA DRIVEにおける集中型レーダー処理がより安全でスマートなレベル4自律走行を実現する方法
NVIDIAが、NVIDIA DRIVEプラットフォームで集中型レーダー処理を実装し、従来のカメラと同等の生データを機械学習エンジニアが扱えるようにすることで、レベル4自律走行の安全性と知能性を向上させている。
生成モデルProteina-Complexaを用いたタンパク質結合剤の設計
NVIDIAの研究チームが、生成モデルProteina-Complexaを使用して、標的タンパク質に結合するタンパク質結合剤を設計する新手法を開発した。この技術は、タンパク質ベースの治療薬や触媒の開発を加速させる可能性がある。
ワット当たり性能の最大化によるトークンファクトリー収益とAI効率の拡大
NVIDIAは、AI時代において電力が最大の制約要因であると指摘し、ワット当たり性能の最適化がAIファクトリーの効率向上と収益拡大に不可欠だと主張している。
NVIDIA Nemotron 3エージェントの構築:推論、マルチモーダルRAG、音声、安全性
NVIDIAが、計画・推論・検索・安全制御を専門モデルが連携して処理するエージェントAIシステム「Nemotron 3」を開発した。
NVIDIA IGX Thorが産業・医療・ロボティクスのエッジAIアプリケーションを強化
NVIDIAがIGX Thorプラットフォームを発表し、産業・医療・ロボティクス分野で高性能AIを活用して作業効率や人間と機械の相互作用を向上させるエッジAIアプリケーションを強化する。
機密AIファクトリーのためのゼロトラストアーキテクチャ構築
NVIDIAは、機密データを扱うAIファクトリー向けにゼロトラストセキュリティアーキテクチャを提案している。企業の重要なデータの多くはパブリッククラウド外に存在するため、機密情報保護を目的とした新しいセキュリティ枠組みが必要とされている。
Kubernetes上での分散型LLM推論ワークロードのデプロイ
NVIDIAが、大規模言語モデル(LLM)推論ワークロードの複雑化に対応するため、Kubernetes上でプリフィル段階とデコード段階を分離した分散型推論アーキテクチャを提案している。
NVIDIA AI-QとLangChainによるエンタープライズ検索向けディープエージェントの構築方法
NVIDIAがLangChainと連携し、企業向けAIエージェント「AI-Q」を開発。データの断片化や文脈不足を解決するエンタープライズ検索ソリューションを提供する。
NVIDIAと共にAIグリッドを構築:あらゆる場所で知能をオーケストレートする
NVIDIAは、AIネイティブサービスがAIインフラの新たなボトルネックを露呈していると指摘し、数百万のユーザー・エージェント・デバイスが知能へのアクセスを求める中で、AIグリッド構築による課題解決を提案している。
病院自動化のためのロボットシステム構築におけるシミュレーション活用
NVIDIAは、2030年までに約1000万人の医療従事者が不足する医療危機に対応するため、シミュレーション技術を用いて病院自動化向けロボットシステムを開発している。
NVIDIA Groq 3 LPXの内部:NVIDIA Vera Rubinプラットフォーム向け低遅延推論アクセラレータ
NVIDIAは、NVIDIA Vera Rubinプラットフォーム向けに、低遅延・大規模コンテキスト対応のラックスケール推論アクセラレータ「Groq 3 LPX」を発表した。
NVIDIA DGX Sparkによる自律AIエージェントとワークロードのスケーリング
NVIDIAは、複数の通信チャネルを使用する長時間タスクを管理する自律AIエージェント向けに、DGX Sparkプラットフォームを提供している。
次世代AIの新たなフロンティアに向けたNVIDIA BlueField-4搭載CMXコンテキストメモリストレージプラットフォームの紹介
NVIDIAが、エージェント型AIワークフローで数百万トークンに拡大するコンテキストウィンドウに対応するCMXコンテキストメモリストレージプラットフォームを発表した。
NVIDIA Dynamo 1.0が本番規模のマルチノード推論を実現する仕組み
NVIDIAがDynamo 1.0を発表し、大規模化する推論モデルを複数ノードで効率的に実行する本番環境向けソリューションを提供した。
ニュートンが産業用ロボティクスに接触豊富な操作と移動機能を追加
NVIDIAが物理ベースのロボットシミュレーション「ニュートン」に、移動と操作タスクのための接触豊富な機能を追加し、産業用ロボティクスの現実的なモデリングを強化した。
NVIDIA OpenShellで自律的・自己進化型エージェントをより安全に実行
NVIDIAがOpenShellを発表し、自律的・自己進化型AIエージェントの安全な実行環境を提供する。AIは指示に従うアシスタントから独立して行動するエージェントへ進化した。
NVIDIA DSX AirでAIファクトリーインフラを設計、シミュレート、スケールする
NVIDIAがDSX Airを発表した。同ツールはAIファクトリー構築における計算・ネットワーク・セキュリティ・ストレージシステムの効率的統合を支援し、AI導入までの時間短縮を実現する。
NVIDIA Vera CPU、AIファクトリー向けに高性能・高帯域幅・高効率を実現
NVIDIAがVera CPUを発表し、AIインフラの各層に新たな要件が生じる中、推論モデルのトークン需要増加に対応する高性能・高帯域幅・高効率をAIファクトリー向けに提供する。
NVIDIA Vera Rubin POD:7チップ、5つのラックスケールシステム、1つのAIスーパーコンピューター
NVIDIAは、7つのチップと5つのラックスケールシステムで構成される「Vera Rubin POD」AIスーパーコンピューターを発表した。同システムはトークン駆動型AI処理に最適化されており、急増するトークン消費需要に対応する高性能計算基盤を提供する。
NVIDIA Cosmos World Foundation Modelsによる合成データのスケーリングと物理AI推論
NVIDIAは、人型ロボットや自動運転車などの次世代AI駆動ロボット向けに、高忠実度で物理法則を考慮した合成データを生成する「Cosmos World Foundation Models」を発表した。
NVIDIA Cosmos World Foundation Modelsによる合成データのスケーリングと物理AI推論
NVIDIAは、人型ロボットや自動運転車などの次世代AI駆動ロボット向けに、高忠実度で物理法則を考慮した合成データ生成と推論を可能にする「Cosmos World Foundation Models」を発表した。
NVIDIA WarpでAI向けの高速化・微分可能な計算物理コードを構築
NVIDIAがWarpを発表し、AI駆動のCAE(コンピュータ支援エンジニアリング)向けに、物理基礎モデルを汎用化する高速で微分可能な計算物理コードの構築を可能にした。
階層的で再現可能なレシピでKubernetesのGPUインフラを検証する
NVIDIAは、Kubernetes上でAIクラスターを実行する際に、低レベルのドライバー設定から高レベルのオペレーターまで、完全なソフトウェアスタックを統合的に検証する手法を提案している。
自律走行車とロボティクスのためのエッジファーストLLMで次世代物理AIを構築
NVIDIAが、自律走行車やヒューマノイドロボット向けに、エッジファーストの大規模言語モデルを用いた次世代物理AIの開発を進めている。
Nemotron 3 Superの紹介:エージェント推論のためのオープンなハイブリッドMamba-Transformer MoE
NVIDIAが、エージェントAIシステム向けに推論・コーディング・長文脈処理に特化したオープンソースのハイブリッドMamba-Transformer MoEモデル「Nemotron 3 Super」を発表した。
Unreal Engine向け信頼性の高いAIコーディング:精度向上とトークンコスト削減
NVIDIAが、ゲーム開発におけるAIコードアシスタントの精度向上とコスト削減の取り組みを発表した。スタジオが大規模な世界構築やDLC配信、分散チーム対応を進める中、AIアシスタントの日常的な活用が進んでいる。
NVIDIA RTXの革新がゲーム開発の新時代を牽引
NVIDIAは、RTXのレイトレーシングとAI駆動のニューラルレンダリング技術により、ゲーム制作の方法を再定義し、視覚効果とパフォーマンスの新基準を確立している。
CUDA 13.2が強化されたCUDA Tileサポートと新Python機能を導入
NVIDIAがCUDA 13.2をリリースし、CUDA TileをNVIDIA AmpereとAdaアーキテクチャでサポートし、Python機能も追加した。
NVIDIA Megatron CoreにおけるFalcon-H1ハイブリッドアーキテクチャの実装
NVIDIAが、大規模言語モデル開発の基盤フレームワーク「Megatron Core」に、新しいハイブリッドアーキテクチャ「Falcon-H1」を実装した。この技術は、LLMトレーニングの効率性と拡張性を向上させることを目的としている。
NVIDIA推論転送ライブラリによる分散推論性能の向上
NVIDIAが大規模言語モデルの分散推論を効率化する「推論転送ライブラリ」を発表し、複数GPU間での計算負荷分散とリクエスト処理の最適化を実現した。
分散型サービングから推測作業を排除
NVIDIAが、大規模言語モデルの高性能かつコスト効率の良いサービングにおける分散型アーキテクチャの最適化手法を提案し、推測作業を減らす技術を発表した。
NVIDIA Blackwellが金融分野におけるLLM推論でSTAC-AI記録を樹立
NVIDIAのBlackwellプラットフォームが、金融取引向け大規模言語モデルの推論性能でSTAC-AIベンチマーク記録を達成した。同技術は大量の非構造化データを分析し、金融取引の意思決定を支援する。
NVIDIA CCCLにおける浮動小数点演算の決定性制御
NVIDIAが、同一入力データに対して複数回実行しても同じビット単位の結果を生成する浮動小数点演算の決定性を制御する技術について説明している。
NVIDIA CUDA TileにおけるFlash Attentionのピークパフォーマンス調整
NVIDIAが、現代AIの重要なワークロードであるFlash Attentionの実装方法と、CUDA Tileを使用した最適化テクニックを解説している。
コーディングエージェントでゲームランタイム推論コストを最小化する方法
NVIDIAが、ゲーム向けAIエージェント構築技術スイート「ACE」を提供し、クラウドとオンデバイスのAIモデルを統合することで、ゲーム内推論コストの最適化を実現している。
cuTile.jlがNVIDIA CUDAタイルベースプログラミングをJuliaに導入
NVIDIAがJulia向けにcuTile.jlを発表し、CUDAタイルベースプログラミングを実現。これによりテンソルコアへの自動アクセスが可能になり、JuliaでのGPUプログラミングが強化される。
NVIDIA NeMoを用いた自律ネットワーク向け通信事業者推論モデルの構築
NVIDIAが通信事業者向けに、自律ネットワークを実現する推論モデルをNeMoフレームワークで構築する取り組みを発表した。
開発者が6Gネットワーク構築に活用できる5つの新デジタルツイン製品
NVIDIAが、AIネイティブな6Gネットワークの設計・訓練・検証を支援する5つのデジタルツイン製品を開発者向けに発表した。
NVIDIA GPUアクセラレーテッドエンドポイントを使用したQwen3.5 VLMによるネイティブマルチモーダルエージェントの開発
Alibabaが約4000億パラメータのネイティブマルチモーダルエージェント向けに設計されたオープンソースQwen3.5シリーズを発表した。
NVIDIA Run:aiとNIMによるGPU利用率の最大化
NVIDIAは、異なるリソース要件を持つ推論ワークロードに直面する組織向けに、Run:aiとNIMを活用してGPU利用率を最適化するソリューションを提供している。
NVIDIA Blackwell UltraによるSoftmaxの効率化
NVIDIAの次世代アーキテクチャBlackwell Ultraが、AI計算の重要な関数Softmaxを効率化し、大規模言語モデルの性能向上に貢献する技術革新について。
NVFP4低精度モデルトレーニングによる精度を損なわない高スループットの実現
NVIDIAのNVFP4低精度トレーニング技術は、モデルの精度を維持しながら計算スループットを向上させ、AI開発の効率化とコスト削減に貢献する。