米国カリフォルニア州サンタクララ --(2017 年 3 月 8 日) - NVIDIA (NASDAQ: NVDA) と Microsoft は本日、AI クラウド コンピューティングを推進する、新しいハイパースケール GPU アクセラレーターの詳細な設計を発表しました。 ハイパースケール データ センターに迅速 ...
1月26日の「AI関連ニュース」を主役はむしろ“周辺インフラ”です。①クラウド各社の自社チップ、②メモリ(HBM)供給、③データセンター×電力、④規制(生成AIの安全性)、⑤資金調達(推論=inference)。AIはモデルの性能競争から、「安く・大量に ...
マイクロソフトが3nm製造のAIチップ「Maia 200」を発表。216GBのHBM3Eを採用し、性能・効率を大幅向上。HBM大容量化とASIC競争の加速を象徴する。 記事の内容 マイクロソフトは、データセンター向けAIワークロードに特化した自社開発AIチップの最新世代「Maia 200 ...
データセンターのなどで使われているCPUやGPUはコンシューマー向け製品に比べて性能が非常に高い分、消費電力も非常に高くなっています。例えば、サーバー・データセンター向けのAMD EPYCでは1個で最大450W、グラフィックカードのHopper H100は最大700Wになって ...
2019 年 11 月 18 日、デンバー — SC19 — NVIDIA は本日、Microsoft Azure で利用可能な、クラウド上で動作する新タイプの GPU ...
米マイクロソフトは6月2日、社会課題に対処し、コミュニティにベネフィットをもたらすデジタルインフラの構築・運営を約束する「Datacenter Community Pledge(データセンター・コミュニティ誓約)」を発表した(*1)。 わずか1年の間に人工知能(AI)の導入が ...
NVIDIAが発表した最新GPU「Rubin」は、45℃の温水で冷却するのが特徴で、出口温度は60℃近辺にもなります。この排熱を活用すれば、AIデータセンターの周りに温泉街を作ることも可能かもしれません。100MWの中規模データセンターなら、120~ ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する