NVIDIA Developer Blog の最新記事
公式66件の記事
NVIDIA Multi-Instance GPUとNUMAノードローカライゼーションによるデータ処理の高速化
NVIDIAのMIG技術とNUMAノード最適化を組み合わせ、GPUリソースの効率的な分割とメモリアクセス最適化により、AI/機械学習ワークロードのデータ処理速度を向上させる手法を紹介。
NVIDIA Run:aiにおけるGPU分割による大規模トークン処理能力の解放
NVIDIA Run:aiのGPU分割技術により、AIワークロードのトークン処理能力を大幅に向上させる方法を紹介。
NVIDIA CUDA.computeでGPU MODEカーネルリーダーボードをトップに
NVIDIAのCUDA.computeがGPU MODEカーネルリーダーボードで最高性能を達成したことを紹介する技術記事。
NVIDIAの極端なハードウェア・ソフトウェア協調設計がSarvam AIの主権モデルに大規模な推論向上をもたらした方法
NVIDIAのハードウェアとソフトウェアの協調設計により、Sarvam AIの主権AIモデルの推論性能が大幅に向上した。
5つの重要なマルチモーダルRAG機能でAI対応知識システムを構築
NVIDIAが提案する5つのマルチモーダルRAG機能を活用し、AI対応の知識システムを効果的に構築する方法について説明しています。
R²D²:NVIDIA Isaac Labによるマルチモーダルロボット学習の拡張
NVIDIA Isaac Labが開発したR²D²は、マルチモーダルロボット学習を拡張する技術で、ロボットの知能向上を目指しています。
大規模研究施設における加速コンピューティングを用いた科学実験のリアルタイム制御
NVIDIAの加速コンピューティング技術により、大規模研究施設での科学実験をリアルタイムで制御・調整できるようになり、研究効率が大幅に向上。
NVIDIA TensorRT LLM AutoDeployによる推論最適化の自動化
NVIDIAがTensorRT LLM AutoDeployを発表し、大規模言語モデルの推論最適化とデプロイを自動化するツールを提供。AI開発の効率化を目指す。
NVFP4がAIトレーニングと推論を加速する3つの方法
NVIDIAのNVFP4技術が、AIモデルの学習速度向上、推論処理の効率化、エネルギー消費削減の3点でAI開発を革新する内容。
AIモデル蒸留のためのライセンス準拠合成データパイプライン構築方法
NVIDIAが、ドメイン特化型AIモデルのファインチューニングや蒸留において、ライセンス準拠の合成データパイプラインを構築する方法を解説している。
Painkiller RTXが生成AIを活用してゲームアセットを大規模に近代化する方法
NVIDIAは、Painkiller RTXで生成AIを統合し、小規模チームが限られたリソースで大規模なビジュアル向上を実現する新基準を設定した。
NVIDIA GPUアクセラレーションエンドポイントを使用したKimi K2.5マルチモーダルVLMの構築
Kimiが最新のオープンソース視覚言語モデル「Kimi K2.5」を発表した。このモデルは汎用マルチモーダルモデルであり、NVIDIA GPUアクセラレーションエンドポイントを活用して構築できる。
Nemotronを使用したRAG向け文書処理パイプラインの構築方法
NVIDIAが、複雑なPDFの解析、ネストされた表の抽出、チャート内データの認識を可能にする、RAG(検索拡張生成)向け文書処理パイプラインの構築方法を紹介している。
JAXとXLAにおける長文脈モデル学習の高速化
NVIDIAが、大規模言語モデルの長文脈学習をJAXとXLAで高速化する技術を発表した。128Kトークン以上の長文脈処理を効率化する手法を開発した。
ハイブリッドエキスパート並列によるMixture-of-Expertsトレーニングの通信最適化
NVIDIAが、大規模MoEモデルのトレーニングにおけるエキスパート並列通信の課題を解決するハイブリッド手法を提案した。
OpenAI Triton向けCUDA Tile IRバックエンドによるGPUプログラミングの進展
NVIDIAがCUDA Tileを発表した。これはNVIDIA Tensor Core向けの移植性を目指すGPUベースのプログラミングモデルであり、GPUのピーク性能を引き出すことを可能にする。