こんにちは! AI技術の「なぜ?」を解き明かす、現役インフラエンジニアのコシです。 前回は、Transformerの核心である「Self-Attention」が、Query・Key・Valueという3つの要素を使って、いかにして単語間の「関連度」を計算し、文脈を理解しているかを解き明かし ...
Transformerは RNNのような順番に処理する構造を持たず、全単語を同時に見る Self-Attentionは「単語同士の関係はわかるが、順番はわからない」 例:「犬が猫を追いかける」と「猫が犬を追いかける」 Self-Attentionだけでは、どっちの主語か区別できない 2. 解決策 ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する