seq2seqでsemanticmemoryを作る 1
ぼーっとしてなかなか集中力でず、禁断コーヒーに手を出してしまう。
シャキッ。集中できた。
けど、やっぱり集中力とか色々有限なんだなぁと思う。うーむ。
seq2seqを用いてRNNAE作ろうと思った。
前にもtensorflowで作ったことがあるので、楽勝だろうと思ったら、案外迷走。
他の人から見て再現性が高いものにしたかったので、公式ライブラリのseq2seqを使いたかった。
前のは、tensorflowのチュートリアルの使ったけど、バージョン古すぎるので断念。
じゃあ、今流行りのkerasでやろうとしたけれども、公式ドキュメント色々簡素すぎて結局自分で色々atteintionとかsoftmaxの調整とかemmbadiingとか作らないといけない感じだった。
人様のkerasプログラムも精度出ればいいけど、再現性と信頼性という意味でできれば避けたかった。
ので、元祖tenorrflowの公式チュートリアルをこころみたけれども、
全部チュートリアルjupyterなっとる!という悲しみ。
わかりやすいけど、色々やる辛いなーと思う。
そこで、思い出したのがopenNMT。
これは簡単。サクッと行けそうな感じ。
だけど、後々自分で色々中弄ろうとした時。(multi入力にしようとした時)
困るなーとも思う。
やはりtensorflowのチュートリアルをpython用に書き換えるのが一番なのかな・・・。
早く文章生成やりたかったのになぁ。