論文読み:Rich Short Text Conversation Using Semantic Key Controlled Sequence Generation
どんなもの?
・seq2seq型対話システムの応答に「多様性がない、情報量が少ない問題」「複数の生成候補から、トピックや情報量を考慮して生成をコントロールするのは無難しい」この二つのタスクに対して、「external memory」という外部メモリを利用する提案手法を持ちい解決に挑んだ。
先行研究と比べてどこがすごい?
先行研究と比べてすごいのは、semantic情報をどのように応答に反映させるかをコントロールできること。また、トピックに関連するキーワードを応答にしようとすると、生成の範囲が狭まるため、キーワードに複数用いて出力するようにした。
(でもこれtopicattentionと何が違うんだろう。)
技術や手法のキモはどこ?
(読み込んでないから恐らくだけど、)
下記2つのen-decのシステムが存在する。
・(en-dec)external memory
・(seq2eq)ベースとなる対話文の学習
よって、二つの学習情報が入った分散表現を手に入れることができる。
それぞれ、2系統で学習し。semantickey を用いて、二つの情報を結びつける。二つの情報(形は分散表現)を繋げるのにattentionを用いている。
肝は、外部知識に外部に取り付けて、応答をコントロールできるようにしたこと!(確かにここ大事だよね)。三上さんもコントロールできないのが問題だって書いてたし
どうやって有効だと証明した?
評価方法は2つ
①Diversity・・・・生成文章で出力された単語数/学習文中にあった全ての単語
おんなじような応答ばかり出していたら分子がへる
②Substantiality・・・文章中に含まれる意味ある単語の数
議論はある?
external semantic memory のデータのスパース性により、おかしな応答を出してしまうこともあった。
ので。将来的にはこの問題を解決したいと述べている。
自分コメント:この外部知識の機構を外にだして、コンとロールできるようにするってのは、私がやりたいとおもっていたことだし、外部のトピックjとかを持つ文章をRNNとかEn-decで与えて、attentionでやったのはなるほど!その手か!とおもった。わたしも文章単位でのattentionかけたいけどどうしようyっておもってたから。このやり方があったのかというう驚き
また、この論文中の、mantic key.
Regarding the topic model used in our experiments, we
seek to train such a model that fit into the short text scenarの後につづくように、トピックモデルをつかうと(トピック)ナンバー単位でやると、キーワードに比べて曖昧すぎて、キーワードよち
次に読むべき論文は?
次に読むべき論文は
“A knowledge-grounded neural conversation model,(2017)arXiv preprin
一番似ている研究らし
他
・Emotional chatting machine: Emotional conversation generation with internal and external memory(2017)
・Controllable text generation,(2017)