Conversation
Notices
-
にせねこ (nixeneko@nixeneko.info)'s status on Sunday, 21-Mar-2021 22:19:27 JST にせねこ ゼロから作るDeep Learning 2、第8章読んだ。ページ数は他と比べて多いがそんなに難しくなかった。最後は発展技術の紹介だけだし。前半はAttentionといふ仕組みを利用してseq2seqの性能を上げる話、後半はAttentionの応用について。Attention自体はベクトル列Xとベクトルyの類似度のベクトルを出力するネットワーク(2次元の場合。バッチ処理するともう一次元増える)。類似度の計算は内積とか、全結合レイヤとか。 - sumiyaki likes this.