横浜市立大学 国際商学部・大学院データサイエンス研究科 黒木淳教授、同志社大学 商学部商学科 廣瀬喜貴准教授らの研究グループは、大規模言語モデルBERT(*1)を用いて、1980〜2019年の公会計研究(PSAR)論文306本分のフルテキストを対象として ...
Googleが自然言語モデル「BERT」における高精度な多言語埋め込みを可能にする「Language-agnostic BERT sentence embedding model (LaBSE)」を発表しました。LaBSEは109もの言語を事前学習しており、学習データにない言語でも高精度な処理を行うことが可能です。
株式会社Laboro.AIは、本年4月に公開した当社オリジナル日本語版BERTモデルに蒸留を施し軽量・高速化を図った『 Laboro DistilBERT 』を開発し、非商用途に無償公開いたしました。 <今回のポイント> ・︎本年4月に公開した当社BERTモデルをさらに軽量・高速化 ...
BERT stands for Bidirectional Encoder Representations from Transformers. It is a type of deep learning model developed by Google in 2018, primarily used in natural language processing tasks such as ...