Mathematical exposition of decoder-only transformer architectures using Einstein summation notation. Covers multi-head attention, RoPE/ALiBi positional encoding, FlashAttention, KV caching, ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する