AI専用サーバーの推論性能や動画生成性能を測定する「MLPerf Inference v6.0」の結果が公開される、NVIDIAとAMDの性能を一目で比較可能

AIサーバーの性能評価を実施している業界コンソーシアムのMLCommonsが推論性能ベンチマークテスト「MLPerf Inference v6.0」の結果を公開しました。MLPerf Inference v6.0は大規模言語モデルや動画生成モデルを実行した際の処理速度を測定するベンチマークテストで、すでにNVIDIAやAMDが自社製サーバーのベンチマーク結果を公開しています。
MLCommons Releases New MLPerf Inference v6.0 Benchmark Results - MLCommons
https://mlcommons.org/2026/04/mlperf-inference-v6-0-results/
NVIDIA Extreme Co-Design Delivers New MLPerf Inference Records | NVIDIA Technical Blog
https://developer.nvidia.com/blog/nvidia-extreme-co-design-delivers-new-mlperf-inference-records/
AMD Delivers Breakthrough MLPerf Inference 6.0 Results
https://www.amd.com/en/blogs/2026/amd-delivers-breakthrough-mlperf-inference-6-0-results.html
MLPerf Inferenceのテスト内容はAIの発展に合わせてアップデートされています。MLPerf Inference v6.0ではOpenAIが開発した「gpt-oss-120b」の実行速度テストや、Alibabaの動画生成AI「Wan2.2-T2V-A14B-Diffusers」を用いた動画生成速度テストが導入されました。
すでにCiscoやOracleといったAIサーバープロバイダーがMLPerf Inference v6.0のテスト結果をMLCommonsに提出しているほか、NVIDIAとAMDも自社製AIチップを搭載したサーバーのテスト結果を提出しており、各社のテスト結果をまとめた集計ページも公開されています。
集計ページでAMDとNVIDIAが提出したgpt-oss-120bの実行速度テスト結果を表示したものが以下。トップはNVIDIA GB300 NVL72で、AMD MI355XのカスタムクラスターもNVIDIA GB300 NVL72に肉薄するスコアを記録しています。

Wan2.2-T2V-A14B-Diffusersを用いた動画生成速度テストの結果は以下の通り。記事作成時点ではNVIDIA製AIチップを搭載したサーバーの結果のみが掲載されていました。

NVIDIAは「ソフトウェアの最適化によって、NVIDIA GB300 NVL72の処理性能が2025年8月から2026年2月までに2.7倍向上した」とアピールしています。

AMDはMI355Xで同社初の秒間100万トークンという処理速度を達成したことをアピールしています。

また、AMDはWan2.2-T2V-A14B-Diffusersを用いた動画生成速度テストの結果を自社の公式サイトで公開しています。AMDの発表によると、MI355XはB200と比べて93%のスコアを記録し、その後の最適化で108%にまでスコアを伸ばしたとのことです。

・関連記事
AIインフラストラクチャの性能を測定するMLPerfのバージョン5.0が登場し「NVIDIA」「AMD」「Intel」などが結果を公開 - GIGAZINE
新たに「Llama 2 70B」と「Stable Diffusion XL」が追加されたAIベンチマークテスト「MLPerf Inference v4.0」の結果が発表される - GIGAZINE
AIインフラのトレーニング性能を測定する「MLPerf Training v5.0」の結果が公開される、NVIDIAは前世代から2倍高速化&AMDは一部のテストでNVIDIAを上回る - GIGAZINE
NVIDIA製AI特化チップ「H100」を搭載したシステムがAI処理ベンチマーク「MLPerf Training 4.0」の9つのテストすべてでトップに - GIGAZINE
PCのAI性能を測定できるベンチマークアプリ「MLPerf Client」を世界的なAIベンチマーク機関「MLCommons」がリリース - GIGAZINE
スマホのAI処理性能を測定できるベンチマークアプリ「MLPerf Mobile」をMLCommonsがリリースしたので使ってみた - GIGAZINE
・関連コンテンツ
in AI, ハードウェア, Posted by log1o_hf
You can read the machine translated English article The results of 'MLPerf Inference v6.0,' ….







