(整理予定)言語処理道一合目

対話システム・言語処理についてぼちぼち頑張るブログ

seq2seqでsemanticmemoryを作る 1

ぼーっとしてなかなか集中力でず、禁断コーヒーに手を出してしまう。

シャキッ。集中できた。

けど、やっぱり集中力とか色々有限なんだなぁと思う。うーむ。

 

seq2seqを用いてRNNAE作ろうと思った。

前にもtensorflowで作ったことがあるので、楽勝だろうと思ったら、案外迷走。

 

他の人から見て再現性が高いものにしたかったので、公式ライブラリのseq2seqを使いたかった。

 

 

前のは、tensorflowのチュートリアルの使ったけど、バージョン古すぎるので断念。

 

じゃあ、今流行りのkerasでやろうとしたけれども、公式ドキュメント色々簡素すぎて結局自分で色々atteintionとかsoftmaxの調整とかemmbadiingとか作らないといけない感じだった。

人様のkerasプログラムも精度出ればいいけど、再現性と信頼性という意味でできれば避けたかった。

ので、元祖tenorrflowの公式チュートリアルをこころみたけれども、

全部チュートリアルjupyterなっとる!という悲しみ。

わかりやすいけど、色々やる辛いなーと思う。

 

そこで、思い出したのがopenNMT。

これは簡単。サクッと行けそうな感じ。

だけど、後々自分で色々中弄ろうとした時。(multi入力にしようとした時)

困るなーとも思う。

 

やはりtensorflowのチュートリアルpython用に書き換えるのが一番なのかな・・・。

 

早く文章生成やりたかったのになぁ。