【元記事をASCII.jpで読む】

 前回に続き、第2世代EPYCの話だ。前回は技術的な部分を中心に解説したが、今回は実際の性能についてである。まずその前に、価格を補足しておきたい。

第1世代より跳ね上がった第2世代EPYCの価格
それでもCascade Lakeより割安

 前回、価格についてはとくに説明しなかったが、プレスリリースの中で価格が示されているので、これをまとめたのが下表である。

 ハイエンドのEPYC 7742ではついに7000ドル近くまで価格を上げているのがわかる(初代EPYCの場合、ハイエンドのEPYC 7601でも4200ドルでしかなかった)。対抗製品であるインテルCascade Lake-SPベースXeon 8280Lの場合は1万7906ドルであり、これに比べると「ずいぶん安い」という、なにか間違った感想を抱いてしまう。

 Cascade Lake-SPベース第2世代Xeon Scalableと今回の第2世代EPYCを、縦軸価格・横軸コア数としてグラフ化してみたのが下の画像である(*1)

(*1) 1製品しかないXeon Bronze(Xeon Bronze 3204)は省いた。

 近似曲線を見てみるとXeon Platinumの価格の上がり方は壮絶というレベルで、傾向的に近いのはXeon Goldあたり(ただしオフセットが違う)。

 Xeon Silverの上がり方が一番激しいのは、なにしろ8/10/12/16コアしかない製品なので、そもそもこれで近似値を出すのが無理筋というあたりで、あまり参考にはならないかもしれない。

 なんにせよ、第2世代EPYCの価格は、同じコア数であればCascade Lakeベース製品の一番下のグレードと同等(24コア以上は明らかCascade Lake未満)になっていることがよくわかる。

 インテル8月6日プレスリリースを出し、2020年前半に「標準的なXeon Platinum 8200プラットフォーム」で利用できる、56コアのCooper Lakeをリリースすることを明らかにした。

 すでにインテルCascadeLake-APことXeon Platinum 9200シリーズを発表しているが、これはCascade Lake-SPを2ダイ載せたMCM構成で、TDPも400Wを超えるというお化け製品。

 メモリーは12ch出るが、パッケージは独自というか、そもそもSocketですらないBGA構成、つまりマザーボードに直付けという、わりと無理やり感の高いものである。

 Cooper Lakeはまだ14nm世代での製造(リリースによれば、その後に投入される10nmのIce Lakeベースの製品と互換性があるとされる)であり、しかも既存のXeon Platinum 8200用のプラットフォームが利用できるとなると、TDPは205W程度に抑える必要がある。

 おそらくはCascade Lake-APと同じく2ダイのMCM構成となるだろうが、メモリーは6chのまま(DDR4-3200のサポートが追加される程度だろう)になり、また2ダイで205W≒1ダイあたり100Wそこそこなので、定格動作周波数はかなり下げないと厳しいだろう。これで第2世代EPYCと戦うのはなかなか厳しいと思われる。

第2世代EPYCで80の世界記録を達成

 話が逸れてしまったので戻したい。性能の話であるが、AMDは第2世代EPYCで80の世界記録を達成した、と発表している。

 この80の内訳はAMDウェブサイトで細かく説明されているが、以下の具合に、SPECjbbやTPC系のサーバーワークロード向けのテストが多めとなっている。

(*2) ウェブサイトリンクにミスがあり、そのままアクセスしても404エラーとなる。正しくはhttps://www.sap.com/dmc/benchmark/2019/Cert19044.pdfである。

 こうしたベンチマークとは別に実アプリケーションでも、Xeon Platinumと比較してより高い性能を実現できるというのがAMDの主張である。

 ちなみにHPCの分野では、今年1月のCESにおける基調講演の概略をAMD HEROESで書かせていただいたが、ここに出てきたイリノイ大のNAMDベンチマークに関しては、その後4月にインテルData-Centric Innovation Dayというイベントの中で、Cascade Lake-APで10.65ナノ秒/日の性能をアピールして「1ソケットで7nm EPYCより高速」と説明していたが、Cascade Lake-APを1ソケットとするのは(嘘ではないが)無理がある気がする。

 さらに言えばXeon Platinum 8180が8.40ナノ秒/日だったのに、コアの数が倍のXeon Platinum 9282がたったの10.65ナノ秒/日でしかないあたりも不思議である。

 AMDの担当者にこの件を聞いたところ、「消費電力が違うから比較にならない」と一言で終わりであった。HPCの市場でも、実際TCO (Total Cost of Ownership:総保有コスト)が大きなポイントとなっていることを考えると、消費電力は同等にそろえないとまずいような気はする。

第2世代EPYCの導入で
総保有コスト(TCO)を削減できる

 HPC以外のワークロードとしては、Twitterの社内のサーバーを第2世代EPYCに更新したことで、同じ消費電力/冷却能力のままコアの数を40%増やせたという事例が紹介された。

 そのほかにも、オンラインショップ向けのバックエンドXeon 8280×120とEPYC 7772×66で構成した場合、同等のJava処理性能をはるかに少ないTCOで実現できるという。

 それこそオンプレミス向けに2500コア程度のシステムを2ソケットXeonと1ソケット EPYCでそれぞれ構築した場合、まずCPUの数が1/4に減るのでソフトウェアライセンスコストが75%削減でき、消費電力が61%削減(サーバー1台当たりの電気代はXeonが年額1047ドル、EPYCが818ドルで若干下がっている程度だが、台数が半減しているのでトータルで61%減となる計算)、サーバー数を半減したことでラック数を半減できるので、キャビネットレンタル料も半減する。

 3年間のTCOを比較すると、Xeonの構成が343万9876ドル、EPYCの構成が159万699ドルと試算され、TCOがざっくり半分以下になる、と想定されるそうだ。

 もともと価格性能比の良さは第2世代EPYCの大きな売りであり、実際講演のなかでも1ソケットEPYCと2ソケットのCascade Lakeがほぼ同等の性能であることや、同じ価格帯で比較すると性能が2~4倍であるとアピールしていた。

I/O帯域が拡大したことで
各社が対応製品を発表

 性能ではもう1つ、I/O帯域の大きさもポイントとなっている。プレスリリースでも触れられているが、今回の第2世代EPYCの発表にあわせて、以下の発表があった。

1) イスラエルMellanox Technology Ltd.(今年3月にNVIDIAによる買収が発表されたが、買収完了は今年末の予定なので、現時点ではまだ独立企業のままである)はPCI Express Gen4に対応したConnectX-6という200GbpsのInfiniband/Ethernetアダプターを発表した

2) 米Broadcom, Incは200GbpsのEthernetとHBA(Host Based Adapter:Fiber Chaneel向けI/F)を第2世代EPYC向けに発表した

3) MarvellはすでにPCIe Gen4x4に対応したコンシューマー向けNVMe SSDコントローラー8月1日に発表しており、EPYCの発表にあわせてサーバー向けのNVMeOF(NVMe Over Fiber:NVMe SSDを光ファイバーと直結するもの)も発表した

4) Samsungは第2世代EPYCに対応したSSD 2製品(PCIe Gen4x4 U.2タイプで容量30.72TBのものと、PCIe Gen4x8のPCIeカードタイプで容量15.36TBのもの)と、第2世代EPYC向けの高密度RDIMM/LRDIMMを発表した

5) XilinxはPCIe Gen4x16(正確にはGen4 2x8)に対応したFPGAアクセラレータカードとしてAlveo U50を発表など、PCIe Gen4に対応した拡張カード類が投入され始めている。現状インテルはPCIe Gen4に対応していない(これは来年のIce Lake-SP待ちである)から、現時点では事実上第2世代EPYC向け製品と評して差支えないだろう。

 以上のように、インテルに対してかなり競争力の高い製品を手にしたAMDが、今後どの程度のペースサーバー向けシェアを獲得していくかは興味あるところだ。

 ただ見どころはシェアそのものよりも、このAMDの価格競争力に対抗するためには、インテルも壮絶な値下げが必要になると思われることで、これは同社のサーバー部門の利益率を直撃することになりそうな点だろう。今年の第3四半期以降のサーバー部門の動向が楽しみである。

第2世代EPYCの優れた価格競争力 AMD CPUロードマップ