(整理予定)言語処理道一合目

対話システム・言語処理についてぼちぼち頑張るブログ

multi modalな 入力でテキスト生成(対話文)を行う 5日目

 続き

kenkyuublog.hatenadiary.jp

 

お熱上がる。へろへろ。

 

multi domain

multi encoder

multi modal

一体どれが参照したのかしら

って思っていたけど

 

multi modalに焦点を当てて

 

multi modalな翻訳タスクのコードは見つかった

GitHub - iacercalixto/MultimodalNMT: Multi-modal Neural Machine Translation in PyTorch

 

しかし、対話がない。

連想対話モデル: 発話文から連想した視覚情報を用いた応答文生成

この方どうやって構築されたんだろ。

完全に何もコード参照せず一からではないと思うし。

翻訳の関連研究やっぱり参照したのかな??

 

やっぱり、翻訳タスクが熱いから、ここのコードを参照すべきなのかな?

 

早くコード見たい!

 

変なこと言うと

論文⇄数式⇄コード

で先行研究を理解するのが、ミステリを読む類の面白さだと思う!