(整理予定)言語処理道一合目

対話システム・言語処理についてぼちぼち頑張るブログ

論文読み:Rich Short Text Conversation Using Semantic Key Controlled Sequence Generation

どんなもの?

 ・seq2seq型対話システムの応答に「多様性がない、情報量が少ない問題」「複数の生成候補から、トピックや情報量を考慮して生成をコントロールするのは無難しい」この二つのタスクに対して、「external memory」という外部メモリを利用する提案手法を持ちい解決に挑んだ。

 

先行研究と比べてどこがすごい?

先行研究と比べてすごいのは、semantic情報をどのように応答に反映させるかをコントロールできること。また、トピックに関連するキーワードを応答にしようとすると、生成の範囲が狭まるため、キーワードに複数用いて出力するようにした。

(でもこれtopicattentionと何が違うんだろう。)

 

技術や手法のキモはどこ?

(読み込んでないから恐らくだけど、)

下記2つのen-decのシステムが存在する。

・(en-dec)external memory

・(seq2eq)ベースとなる対話文の学習

よって、二つの学習情報が入った分散表現を手に入れることができる。

それぞれ、2系統で学習し。semantickey を用いて、二つの情報を結びつける。二つの情報(形は分散表現)を繋げるのにattentionを用いている。

 

肝は、外部知識に外部に取り付けて、応答をコントロールできるようにしたこと!(確かにここ大事だよね)。三上さんもコントロールできないのが問題だって書いてたし

 

どうやって有効だと証明した?

評価方法は2つ

①Diversity・・・・生成文章で出力された単語数/学習文中にあった全ての単語

おんなじような応答ばかり出していたら分子がへる

②Substantiality・・・文章中に含まれる意味ある単語の数

 

議論はある?

external semantic memory のデータのスパース性により、おかしな応答を出してしまうこともあった。

ので。将来的にはこの問題を解決したいと述べている。

 

自分コメント:この外部知識の機構を外にだして、コンとロールできるようにするってのは、私がやりたいとおもっていたことだし、外部のトピックjとかを持つ文章をRNNとかEn-decで与えて、attentionでやったのはなるほど!その手か!とおもった。わたしも文章単位でのattentionかけたいけどどうしようyっておもってたから。このやり方があったのかというう驚き

また、この論文中の、mantic key.

Regarding  the topic model  used in our experiments,  we

seek to train such a model that fit into the short text scenarの後につづくように、トピックモデルをつかうと(トピック)ナンバー単位でやると、キーワードに比べて曖昧すぎて、キーワードよち

 

次に読むべき論文は?

次に読むべき論文は

“A knowledge-grounded neural conversation model,(2017)arXiv preprin

一番似ている研究らし

・Emotional chatting machine: Emotional conversation generation with internal and external memory(2017)

・Controllable text generation,(2017)