確か昨年2018年にはグーグル翻訳の精度が飛躍的に上昇した話題で、適当な日本語を翻訳させてその成果を実感した。しかし、人間に比べれるとまだまだと感じた。 最近、ツイッターで英語を母国語とする方が僕の日本語ツイートを理解されており翻訳 ...
BERT(Bidirectional Encoder Representations from Transformers)は、2018年10月にGoogleが開発した自然言語処理(NLP)のモデルです。このモデルは、Transformerアーキテクチャのエンコーダ部分をベースに構築されています。 BERTの大きな特徴は、「文脈を双方向に理解できる ...
Googleから発表された自然言語処理モデル「Bidirectional Encoder Representations from Transformers(BERT)」は、膨大な既存のテキストデータから文脈理解や感情分析を事前学習するため、自然言語処理モデルをゼロから学習させる必要がなく、あらかじめ言語の知識を備えた ...