AI推論処理の分散実行は、従来、アプリケーションやサーバー側で制御されることが一般的であり、ネットワークは主にデータ転送を担う役割にとどまっていた。そのため、推論処理に用いるGPUリソースの配置や通信遅延がサービス品質に大きく影響し、通信遅延の面で有利である地理的に近い場所にある計算リソースの利用が前提となるなど、柔軟なリソース活用には課題があった。