HPCシステムズ株式会社(本社:東京都港区、代表取締役 小野 鉄平、以下 HPCシステムズ)は、NVIDIA HGX B200(最新Blackwell GPUアーキテクチャ)を8基搭載したハイエンドGPUサーバー「HPC5000-XGRAGPU8R10S-NVL」を中核とする、ローカルLLM(大規模言語モデル)環境の ...
2018年6月からGPU/HPCサーバーの開発、製造、販売を開始しており、「GAN」などの生成モデルの研究を進めており、2021年5月 ...
生成AI・LLMの需要が急速に拡大していますが、その実現には高性能なGPUが不可欠です。 特にLLM向けのGPUは非常に高価であり、コスト面で課題を抱える方も少なくないのではないでしょうか? ウェビナーでは、日本語のローカルLLMを使用したRAGのデモを交えて ...
[画像1: https://prcdn.freetls.fastly.net/release_image/56944/6/56944-6-f01b6bea822ba5fb957fef58b4d70d98-1920x1080.png?width=536&quality=85%2C75&format=jpeg&auto ...
生成AIのGPUコスト最適化:GPUSOROBAN活用によるLLM運用戦略【デモで使用したソースコードをプレゼント!】 本ウェビナーでは、Deep Researchを構築するデモを交えて、GPUクラウドの使い方を解説! Deep Researchとは、AIが自律的にWEB検索をしてレポートを作成するAI ...
gpt-oss-20bをはじめとしたローカルLLM(大規模言語モデル)導入について連載で詳しく解説してきたが、どれも外部GPUを搭載したゲーミングPCなどの利用を前提としたものだった。 eスポーツが興隆している現在でもゲーミングPCの所有者は限られており、多く ...
ローカルLLMの推奨スペックは? ローカルLLMは処理自体が非常に重たく、GPUを使った処理が基本となる。そのため、ゲーミングPCのような独立GPUを搭載したPCが強く推奨される。 なお、最新のCopilot+ PCであれば独立GPUを使わなくともメモリ搭載量を増やせば ...
今回は、ローカルLLMの実行ツール 「Ollama」 のフロントエンド、Alpacaを紹介します。 Alpacaとは Ollamaに関しては第825回で紹介しました。そこではフロントエンドとして、Open WebUIを使いました。 もちろんOpen WebUIを使うのもいいのですが、Ollamaにはフロント ...
マクニカとneoAI、オンプレミスで動作する"ローカルLLM"を用いた生成AI基盤構築・導入支援にて協業開始 株式会社マクニカ(本社 : 横浜市港北区、代表取締役社長 : 原 一将、以下マクニカ)と株式会社neoAI(本社 : 東京都千代田区、代表取締役 CEO : 千葉 駿介 ...
今回はIPEX-LLMを使用してOllamaを高速化する方法を紹介します。 GPUが必要といっても ローカルでLLMを動作させるのであれば、可能な限りVRAMを多く積んだグラフィックボードが必要です。とはいえ、手軽に手が出せるような価格とはいえません。そもそも ...
2025年はAIエージェント元年とされ、情報処理や業務支援など多様な場面での活用が期待されているが、社会実装においては技術面や計算資源の費用といった課題も残る。2025年3月27日、「クラウドWatch Day|AI×データ活用セミナー」(主催:インプレス ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する