パナソニック ホールディングス(パナソニックHD)は7月2日、記者発表会を開き、AI開発のストックマークと、パナソニックグループ専用の大規模言語モデル(LLM)の開発で協業すると発表した。性能の指標となるパラメータ数で1000億のモデルを今秋までに構築し ...
パナソニック ホールディングスとストックマークは、パナソニックグループ専用大規模言語モデル(LLM)「Panasonic-LLM-100b」の開発で協業した。今回開発するLLMのモデルサイズは1,000億パラメータを想定しており、企業が開発する自社専用のLLMとしては国内最大 ...
東京大学松尾研究室は18日、日本語と英語に対応した100億パラメータサイズの大規模言語モデル(LLM)「Weblab-10B」を事前学習と事後学習(ファインチューニング)により開発し、モデルを公開した。 近年の大規模言語モデルは、インターネットから収集した大量 ...
NEC、130億パラメータで世界トップクラスの日本語性能を有する軽量なLLMを開発 NECは、Generative AI(生成AI)における日本語大規模言語モデル(Large Language Model、以下LLM)を開発しました。 本LLMは独自に収集・加工した多言語データを利用し、NECが開発した汎用的な ...
日本電気(NEC)は7月6日、Generative AI(生成AI)における日本語大規模言語モデル(Large Language Model:LLM)を開発したと発表した。 同LLMは、独自に収集・加工した多言語データを利用した、いわゆるファウンデーションモデル(基盤モデル)になるという。
Google announced the large-scale language model (LLM) ' Gemma 2 ' in June 2024. Gemma 2 was initially announced with two parameter sizes, 9 billion (9B) and 27 billion (27B), but the company has ...
~省コスト・省リソースを実現し、お客様のオンプレミス環境でのプライベートLLM導入を加速~ 株式会社リコー(社長執行役員:大山 晃)は、米Meta Platforms社が提供する「Llama-3.3-70B-Instruct」の日本語性能を向上させた「Llama-3.3-Swallow-70B-v0.4*1」をベースモデル ...
パナソニック ホールディングス株式会社(以下、パナソニックHD)とストックマーク株式会社(以下、ストックマーク)は、パナソニックグループ専用大規模言語モデル(Large Language Model、以下、LLM)「Panasonic-LLM-100b」の開発で協業することを発表します。
リコー、日英中3言語に対応した700億パラメータの大規模言語モデル(LLM)を開発、お客様のプライベートLLM構築支援を強化 〜高速処理と省コストを同時実現し、環境負荷低減にも貢献〜 株式会社リコー(社長執行役員 : 大山 晃)は、お客様の業務効率化や ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する