AI推論処理の分散実行は、従来、アプリケーションやサーバー側で制御されることが一般的であり、ネットワークは主にデータ転送を担う役割にとどまっていた。そのため、推論処理に用いるGPUリソースの配置や通信遅延がサービス品質に大きく影響し、通信遅延の面で有利である地理的に近い場所にある計算リソースの利用が前提となるなど、柔軟なリソース活用には課題があった。
四国電力グループの株式会社STNet(社長:小林 功、本社:香川県高松市)は、今後のデータセンター事業の高度化を目指して、離れた場所に設置されたGPUサーバーを高速・低遅延な通信ネットワークで連係した「遠隔GPUクラスター」などの実証実験を行います ...
株式会社STNetは4日、離れた場所に設置したGPUサーバーを高速・低遅延な通信ネットワークで接続した「遠隔GPUクラスター」と、液冷方式を採用したGPUサーバーの運用について、実証実験を行うと発表した。同社は実験環境の構築を進め、2026年度上期中に実験 ...
AIがビジネスの中核に据えられる中で、GPUなどの計算リソースはもはや単なる裏方ではなく、企業の競争力を左右する戦略的資産へと変わりつつある。調査会社Gartnerによると、2022年10月から2024年10月にかけて、GPUを含むAIインフラに関する問い合わせ件数は ...