AI処理用プロセッサなどの開発を進めるテクノロジー企業のCerebrasが、高速な推論サービス「Cerebras Inference」を発表しました。Cerebras InferenceはNVIDIAのH100を用いた推論サービスと比べて22倍高速で、コストは5分の1に抑えられるとのことです。 Introducing Cerebras ...
AMD has announced ' Instella-Math,' a language model trained exclusively on AMD GPUs. It has 3 billion parameters and is specialized for inference and mathematical problem solving. Instella-Math was ...
LG AI Research Institute is set to release its inference-type artificial intelligence (AI) model, 'Exaone Deep,' as open source. Exaone Deep is the first domestic model capable of competing with ...
LG CNS, in collaboration with artificial intelligence (AI) startup Cohere, has developed an inference-optimized large language model (LLM) boasting over 111 billion parameters. The new LLM model comes ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する