図面 (/)

技術 情報処理装置、情報処理方法、及びプログラム

出願人 エヌ・ティ・ティレゾナント株式会社
発明者 中辻真池田成宏伊東久相樂翔太藤田明久
出願日 2016年10月3日 (4年3ヶ月経過) 出願番号 2016-195731
公開日 2018年4月12日 (2年8ヶ月経過) 公開番号 2018-060273
状態 特許登録済
技術分野 検索装置
主要キーワード 中間ベクトル コサイン値 損失関数 回答生成 特徴ベクトル群 カテゴリベクトル 更新ベクトル 特徴ベクトル列
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2018年4月12日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (7)

課題

質問に対して、違和感を低減した自然な文面回答を生成する。

解決手段

情報処理装置1は、機械学習された学習結果に基づいて、入力質問文に対する回答文を生成する回答生成部134を備える。学習結果は、質問文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて学習して生成された質問中間ベクトルと、複数の部分項目それぞれに対応し、正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて学習して生成された正解中間ベクトルと、複数の部分項目それぞれに対応し、不正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて学習して生成された不正解中間ベクトルとの複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習される。

概要

背景

近年、機械学習(例えば、深層学習(Deep Learning)手法)を利用して、入力された質問に対して、回答を出力する技術が知られている(例えば、非特許文献1を参照)。このような従来技術を用いた情報処理装置では、例えば、過去に蓄積された回答などの予め用意された既存の回答のうちから、適切であると推定された回答が選択されて出力される。

概要

質問に対して、違和感を低減した自然な文面の回答を生成する。情報処理装置1は、機械学習された学習結果に基づいて、入力質問文に対する回答文を生成する回答生成部134を備える。学習結果は、質問文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて学習して生成された質問中間ベクトルと、複数の部分項目それぞれに対応し、正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて学習して生成された正解中間ベクトルと、複数の部分項目それぞれに対応し、不正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて学習して生成された不正解中間ベクトルとの複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習される。

目的

本発明は、上記問題を解決すべくなされたもので、その目的は、質問に対して、違和感を低減した自然な文面の回答を生成することができる情報処理装置、情報処理方法、及びプログラムを提供する

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

(分野番号表示ON)※整理標準化データをもとに当社作成

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

入力された入力質問文を取得する質問取得部と、質問文と、回答文において、予め定められた文章筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得部によって取得された前記入力質問文に対する回答文を生成する回答生成部とを備え、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とする情報処理装置

請求項2

前記学習結果は、前記質問文に含まれる単語の特徴ベクトルと、前記質問文に関連する用語の特徴ベクトルとを平均化して学習された追加ベクトルに基づいて生成された、前記質問中間ベクトル、前記正解中間ベクトル、及び不正解中間ベクトルに基づいて学習されることを特徴とする請求項1に記載の情報処理装置。

請求項3

前記質問特徴ベクトル群は、前記質問文と前記追加ベクトルとに基づいて変換され、前記正解特徴ベクトル群は、前記正解文と前記追加ベクトルとに基づいて変換され、前記不正解特徴ベクトル群は、前記不正解文と前記追加ベクトルとに基づいて変換されることを特徴とする請求項2に記載の情報処理装置。

請求項4

前記学習結果は、前記複数の部分項目のうちの第1の部分項目に対応する前記正解中間ベクトル及び前記不正解中間ベクトルに基づいて、前記第1の部分項目と異なる第2の部分項目に対応する正解特徴ベクトル群及び不正解特徴ベクトル群が更新されて学習されることを特徴とする請求項1から請求項3のいずれか一項に記載の情報処理装置。

請求項5

前記学習情報に基づいて機械学習し、前記学習結果を生成する学習処理部を備えることを特徴とする請求項1から請求項4のいずれか一項に記載の情報処理装置。

請求項6

質問取得部が、入力された入力質問文を取得する質問取得ステップと、回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップとを含み、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とする情報処理方法

請求項7

コンピュータに、質問取得部が、入力された入力質問文を取得する質問取得ステップと、回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップとを実行させるためのプログラムであり、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とするプログラム。

技術分野

0001

本発明は、情報処理装置情報処理方法、及びプログラムに関する。

背景技術

0002

近年、機械学習(例えば、深層学習(Deep Learning)手法)を利用して、入力された質問に対して、回答を出力する技術が知られている(例えば、非特許文献1を参照)。このような従来技術を用いた情報処理装置では、例えば、過去に蓄積された回答などの予め用意された既存の回答のうちから、適切であると推定された回答が選択されて出力される。

先行技術

0003

Tan M, Xiang B, Zhou B, “LSTM-BASED DEEPLEARNING MODELS FOR NONFACTOID ANSWERSELECTION”1511.04108v1, 12 Nov 2015

発明が解決しようとする課題

0004

しかしながら、上述した従来の情報処理装置では、例えば、質問が理由や事象の説明に基づく回答を求めるNon-Factoid型質問である場合に、回答が複雑な長文になるが、質問に対して、予め用意された既存の回答が出力されるため、新たな回答を生成することは困難である。そのため、上述した従来の情報処理装置では、質問に対して、文面に違和感のある不自然な回答が出力される場合があった。

0005

本発明は、上記問題を解決すべくなされたもので、その目的は、質問に対して、違和感を低減した自然な文面の回答を生成することができる情報処理装置、情報処理方法、及びプログラムを提供することにある。

課題を解決するための手段

0006

上記問題を解決するために、本発明の一態様は、入力された入力質問文を取得する質問取得部と、質問文と、回答文において、予め定められた文章筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得部によって取得された前記入力質問文に対する回答文を生成する回答生成部とを備え、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とする情報処理装置である。

0007

また、本発明の一態様は、上記の情報処理装置において、前記学習結果は、前記質問文に含まれる単語の特徴ベクトルと、前記質問文に関連する用語の特徴ベクトルとを平均化して学習された追加ベクトルに基づいて生成された、前記質問中間ベクトル、前記正解中間ベクトル、及び不正解中間ベクトルに基づいて学習されることを特徴とする。

0008

また、本発明の一態様は、上記の情報処理装置において、前記質問特徴ベクトル群は、前記質問文と前記追加ベクトルとに基づいて変換され、前記正解特徴ベクトル群は、前記正解文と前記追加ベクトルとに基づいて変換され、前記不正解特徴ベクトル群は、前記不正解文と前記追加ベクトルとに基づいて変換されることを特徴とする。

0009

また、本発明の一態様は、上記の情報処理装置において、前記学習結果は、前記複数の部分項目のうちの第1の部分項目に対応する前記正解中間ベクトル及び前記不正解中間ベクトルに基づいて、前記第1の部分項目と異なる第2の部分項目に対応する正解特徴ベクトル群及び不正解特徴ベクトル群が更新されて学習されることを特徴とする。

0010

また、本発明の一態様は、上記の情報処理装置において、前記学習情報に基づいて機械学習し、前記学習結果を生成する学習処理部を備えることを特徴とする。

0011

また、本発明の一態様は、質問取得部が、入力された入力質問文を取得する質問取得ステップと、回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップとを含み、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とする情報処理方法である。

0012

また、本発明の一態様は、コンピュータに、質問取得部が、入力された入力質問文を取得する質問取得ステップと、回答生成部が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、前記質問取得ステップによって取得された前記入力質問文に対する回答文を生成する回答生成ステップとを実行させるためのプログラムであり、前記学習結果は、前記質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の前記単語の並び順に基づいて生成した質問特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された質問中間ベクトルと、前記複数の部分項目それぞれに対応した正解中間ベクトルであって、前記正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された正解中間ベクトルと、前記複数の部分項目それぞれに対応した不正解中間ベクトルであって、前記不正解文を単語ごとに変換された特徴ベクトルを前記双方向の前記単語の並び順に基づいて生成した不正解特徴ベクトル群に基づいて、前記単語の並びを前記双方向に学習して生成された不正解中間ベクトルとの前記複数の部分項目の組合せに基づいて算出される損失関数により最適化されて学習されることを特徴とするプログラムである。

発明の効果

0013

本発明によれば、質問に対して、違和感を低減した自然な文面の回答を生成することができる。

図面の簡単な説明

0014

本実施形態による情報処理システムの一例を示す機能ブロック図である。
本実施形態における学習処理部及び学習処理の一例を説明する図である。
本実施形態におけるセマンティクスバイアスをかけた単語ベクトル学習手法の一例を説明する図である。
本実施形態における情報処理装置の質問文から回答文を生成する処理の一例を示すフローチャートである。
本実施形態における回答文の生成の概念の一例を説明する図である。
本実施形態における回答生成方式と、従来技術との比較を示す図である。

実施例

0015

以下、本発明の一実施形態による情報処理装置について図面を参照して説明する。

0016

図1は、本実施形態による情報処理システム100の一例を示す概略ブロック図である。
図1に示すように、情報処理システム100は、情報処理装置1と、端末装置2とを備えている。情報処理装置1と、端末装置2とは、ネットワークNW1を介して接続されている。
情報処理システム100は、例えば、情報処理装置1に接続した端末装置2に、投稿された質問及び回答を表示して、ユーザ間で情報共有するQ&Aサービスなどの情報サービスを提供する。

0017

端末装置2は、情報処理システム100が提供する情報サービスを利用するために、ユーザが使用するクライアント端末である。なお、図1に示す例では、説明を簡略化するため、情報処理装置1に1台の端末装置2が接続されている例を示しているが、複数の端末装置2が、情報処理装置1に接続されてもよい。

0018

情報処理装置1は、例えば、Q&Aサービスなどの情報サービスを提供するサーバ装置である。情報処理装置1は、例えば、端末装置2を介してユーザから受け付けた質問文を、Q&Aサービスに登録して閲覧可能にするとともに、端末装置2を介して他のユーザから受け付けた回答文を登録して閲覧可能にする。また、情報処理装置1は、機械学習を利用して、登録された質問文に対する回答文を生成し、当該回答文をQ&Aサービスに登録して閲覧可能にする。また、情報処理装置1は、NW(ネットワーク)通信部11と、記憶部12と、制御部13とを備えている。

0019

NW通信部11は、例えば、インターネットなどを利用してネットワークNW1に接続し、ネットワークNW1を介して各種情報の通信を行う。NW通信部11は、例えば、ネットワークNW1を介して、接続要求のあった端末装置2に接続し、各種情報の通信を行う。

0020

記憶部12は、情報処理装置1が実行する各種処理に利用される情報を記憶する。記憶部12は、例えば、サービス記憶部121と、学習結果記憶部122とを備えている。
サービス記憶部121は、例えば、ユーザによって端末装置2からQ&Aサービスに投稿された質問文及び回答文などの投稿情報を記憶する。
学習結果記憶部122は、後述する学習処理部132によって、機械学習された学習結果を記憶する。なお、学習結果の詳細については後述する。

0021

制御部13は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、情報処理装置1を統括的に制御する。制御部13は、例えば、上述したQ&Aサービスなどの情報サービスを提供する処理や、学習結果記憶部122が記憶する学習結果の生成処理、情報処理装置1がNW通信部11を介して取得した質問文に対する回答文の市営処理などの各種処理を実行する。また、制御部13は、サービス提供部131と、学習処理部132と、質問取得部133と、回答生成部134とを備えている。

0022

サービス提供部131は、情報処理装置1が提供する情報サービスに関する処理を実行する。サービス提供部131は、例えば、端末装置2からNW通信部11を介して、受け付けた質問文及び回答文を投稿情報として、サービス記憶部121に記憶させる。また、サービス提供部131は、例えば、Q&Aサービスの閲覧を希望する端末装置2に対して、サービス記憶部121に記憶されている投稿情報を、NW通信部11を介して端末装置2に出力し、端末装置2に表示させる。また、サービス提供部131は、後述する回答生成部134が生成した回答文を、サービス記憶部121に記憶させる。なお、サービス提供部131は、Q&Aサービスにおいて、例えば、「恋」、「家族」、「料理」など、カテゴリ分類)ごとに分かれて、情報をユーザに提供するものとする。

0023

学習処理部132は、質問文と、回答文において、予め定められた文章の筋道(シナリオ)により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習を実行して学習結果を生成する。ここで、例えば、回答文の文章の筋道(シナリオ)を、「結論」、「補足」の順に定めた場合には、部分項目は、「結論」及び「補足」であり、回答文の文章の筋道(シナリオ)を、「雑談」、「事例」、「結論」の順番に定めた場合には、部分項目は、「雑談」、「事例」、及び「結論」である。
なお、以下の説明では、複数の部分項目の一例として、「結論」及び「補足」である場合について説明する。

0024

また、学習処理部132は、例えば、サービス記憶部121が記憶するQ&Aサービスの投稿情報(質問文及び回答文)を入力情報として、深層学習(デープラーニング)技術を利用して、学習結果を生成する。学習処理部132は、学習処理の入力情報(学習情報)として、質問文と、正解の回答文、及び正解以外の回答文の中から任意に抽出した不正解文の組を学習情報として使用する。学習処理部132は、生成した学習結果を学習結果記憶部122に記憶させる。ここで、図2を参照して、本実施形態における学習処理部132の構成及び学習処理について説明する。

0025

図2は、本実施形態における学習処理部132及び学習処理の一例を説明する図である。
図2に示すように、学習処理部132は、ベクトル変換部10と、QA−LSTM(Question Answering-Long Short-Term Memory)部(20−1、20−2)と、損失関数生成部30とを備えている。

0026

ベクトル変換部10は、学習情報の組に含まれる、質問文、正解文、及び不正解文をそれぞれ特徴ベクトルに変換する。なお、正解文及び不正解文は、例えば、「結論」と「補足」の部分項目のそれぞれに分けて特徴ベクトルを生成する。また、ベクトル変換部10は、例えば、サービス記憶部121が記憶する学習情報に基づいて、セマンティクスでバイアスをかけて単語ベクトルを事前学習する。例えば、「恋愛」のカテゴリのQ&Aサービスにおいて、「距離」、「好き」、「恋人」などの単語(トークン)が含まれる可能性が高く、これらをより強調するように、バイアスをかける学習を行う。具体的には、ベクトル変換部10は、例えば、図3に示すような学習手法を用いて、事前学習を行う。

0027

図3は、本実施形態におけるセマンティクスでバイアスをかけた単語ベクトルの学習手法の一例を説明する図である。
図3に示す例は、「単語A」、「単語B」、・・・「単語F」、「単語G」の順番に並ぶ対象文があった場合に、ベクトル変換部10は、例えば、当該対象文(例えば、質問文)のカテゴリトークン及びタイトルトークンと、「単語A」、「単語B」、・・・「単語F」とのそれぞれを単語ベクトルに変換して平均化し、与えられた文脈において以下の言葉「単語G」を予測する学習を行う。ここで、カテゴリトークンは、当該対象文のカテゴリ(分類)を示す単語(用語)であり、例えば、上述したQ&Aサービスのカテゴリである「恋愛」、「家族」などである。また、タイトルトークンは、当該対象文(例えば、質問文)に割り当てられたタイトルから抽出される名詞により定義され、例えば、上述した「距離」、「好き」、「恋人」などである。1つのカテゴリトークンが、例えば、質問文に割り当てられる間に、複数のタイトルトークンが、タイトルから抽出されてもよい。

0028

ベクトル変換部10は、単語ベクトルだけでなく、カテゴリトークンのカテゴリベクトル及びカテゴリトークンのタイトルベクトルを学習する。これらの追加ベクトルは、セマンティクスのバイアスとして機能する。このように、ベクトル変換部10は、例えば、質問文に含まれる単語の特徴ベクトルと、質問文に関連する用語の特徴ベクトルとを平均化して、追加ベクトル(例えば、カテゴリベクトル及びタイトルベクトル)を事前学習し、当該追加ベクトルに基づいて、学習情報の組に含まれる、質問文、正解文、及び不正解文をそれぞれに対して、単語ごとに特徴ベクトルに変換する。なお、ベクトル変換部10は、事前学習した学習結果を学習結果記憶部122に記憶させる。

0029

例えば、図2に示す例では、ベクトル変換部10は、質問文を、特徴ベクトルの集合である特徴ベクトル列Wqに変換する。また、ベクトル変換部10は、「結論」の正解文を、特徴ベクトルの集合である特徴ベクトル列Wac+に変換し、「結論」の不正解文を、特徴ベクトルの集合である特徴ベクトル列Wac−に変換する。また、ベクトル変換部10は、「補足」の正解文を、特徴ベクトルの集合である特徴ベクトル列Was+に変換し、「補足」の不正解文を、特徴ベクトルの集合である特徴ベクトル列Was−に変換する。

0030

QA−LSTM部(20−1、20−2)は、双方向に学習するニューラルネットワークであるbiLSTM(bidirectional Long Short-Term Memory)である。QA−LSTM部20−1は、「結論」用のbiLSTMであり、QA−LSTM部20−2は、「補足」用のbiLSTMである。なお、本実施形態において、QA−LSTM部20−1と、QA−LSTM部20−2とは、同様の構成であり、学習処理部132が備える任意のQA−LSTM部を示す場合、又は特に区別しない場合には、QA−LSTM部20として説明する。

0031

QA−LSTM部20は、質問埋め込みベクトル生成部21と、正解埋め込みベクトル生成部22と、不正解埋め込みベクトル生成部23とを備えている。
質問埋め込みベクトル生成部21は、質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列24(質問特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、質問埋め込みベクトルOqを生成する。質問埋め込みベクトル生成部21は、例えば、質問文の特徴ベクトル列Wqから双方向ベクトル列24を生成し、当該双方向ベクトル列24の各要素の最大値を抽出して蓄積するマックスプーリング(Max pooling)処理により質問埋め込みベクトルOq(質問中間ベクトル)を生成する。

0032

正解埋め込みベクトル生成部22は、正解文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列25(正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、正解埋め込みベクトルOa+を生成する。正解埋め込みベクトル生成部22は、例えば、正解文の特徴ベクトル列Wa+から双方向ベクトル列25を生成し、当該双方向ベクトル列25の各要素の最大値を抽出して蓄積するマックスプーリング処理により正解埋め込みベクトルOa+(正解中間ベクトル)を生成する。

0033

不正解埋め込みベクトル生成部23は、不正解文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列26(不正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して、正解埋め込みベクトルOa−を生成する。不正解埋め込みベクトル生成部23は、例えば、不正解文の特徴ベクトル列Wa−から双方向ベクトル列26を生成し、当該双方向ベクトル列26の各要素の最大値を抽出して蓄積するマックスプーリング処理により不正解埋め込みベクトルOa−(不正解中間ベクトル)を生成する。

0034

なお、QA−LSTM部20の基本となるLSTMについては、非特許文献1に開示されている。基本的なLSTMでは、学習する際に、入力される時系列の入力X={x(1),x(2),・・・,x(N)}とし、x(t)をt番目の単語の特徴ベクトルとした場合に、双方向ベクトル列(24、25、26)の内部のベクトルである各双方向ベクトルh(t)が、t時間ごとに以下の式(1)により更新される。

0035

0036

ここで、基本的なLSTMのアーキテクチャにおいて、3つのゲート(input it,forget ft,output ot)と、セルメモリーベクトルctとがある。また、しσ()はシグモイド関数である。また、Wi、Wf、Wo、Wc、Ui、Uf,Uo、Uc、bi、bf,bo、bcは学習されるネットワークパラメータである。

0037

QA−LSTM部20−1は、「結論」用のbiLSTMであり、特徴ベクトル列(Wq、Wac+、Wac−)に基づいて、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。QA−LSTM部20−1は、質問埋め込みベクトル生成部21−1と、正解埋め込みベクトル生成部22−1と、不正解埋め込みベクトル生成部23−1とを備えている。質問埋め込みベクトル生成部21−1は、特徴ベクトル列Wqから双方向ベクトル列24−1を生成し、マックスプーリング処理により質問埋め込みベクトルOqcを生成する。また、正解埋め込みベクトル生成部22−1は、特徴ベクトル列Wac+から双方向ベクトル列25−1を生成し、マックスプーリング処理により正解埋め込みベクトルOac+を生成する。また、不正解埋め込みベクトル生成部23−1は、特徴ベクトル列Wac−から双方向ベクトル列26−1を生成し、マックスプーリング処理により正解埋め込みベクトルOac−を生成する。

0038

QA−LSTM部20−2は、「補足」用のbiLSTMであり、特徴ベクトル列(Wq、Was+、Was−)に基づいて、質問埋め込みベクトルOqs、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−を生成する。QA−LSTM部20−2は、質問埋め込みベクトル生成部21−2と、正解埋め込みベクトル生成部22−2と、不正解埋め込みベクトル生成部23−2とを備えている。質問埋め込みベクトル生成部21−2は、特徴ベクトル列Wqから双方向ベクトル列24−2を生成し、マックスプーリング処理により質問埋め込みベクトルOqsを生成する。また、正解埋め込みベクトル生成部22−2は、特徴ベクトル列Was+から双方向ベクトル列25−2を生成し、マックスプーリング処理により正解埋め込みベクトルOas+を生成する。また、不正解埋め込みベクトル生成部23−2は、特徴ベクトル列Was−から双方向ベクトル列26−2を生成し、マックスプーリング処理により不正解埋め込みベクトルOas−を生成する。

0039

また、QA−LSTM部20−2は、学習する際に、アテンションメカニズムを利用して、双方向ベクトル列25−2及び双方向ベクトル列26−2を更新する。QA−LSTM部20−2は、例えば、QA−LSTM部20−1が生成した「結論」に対応する正解埋め込みベクトルOas+及び不正解埋め込みベクトルOas−ルに基づいて、「補足」に対応する双方向ベクトル列25−2(正解特徴ベクトル群)及び双方向ベクトル列26−2(不正解特徴ベクトル群)を更新する。具体的に、QA−LSTM部20−2は、以下の式(2)により、双方向ベクトル列25−2及び双方向ベクトル列26−2の内部ベクトルである双方向ベクトルhs(t)を更新する。

0040

0041

ここで、tは、時間のステップであり、Wsm、Wcm、及びwmbは、アテンションパラメータである。また、〜hs(t)は、更新後の双方向ベクトルを示す。なお、本文中の上付の〜は文字の真上に付けられた記号を表すものとする。

0042

損失関数生成部30は、QA−LSTM部20−1が生成した質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−と、QA−LSTM部20−2が生成した質問埋め込みベクトルOqs、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−とに基づいて、コサイン類似度を利用した損失関数Lを生成する。損失関数生成部30は、「結論」と、「補足」と、「正解」、「不正解」との組み合わせに基づいて、損失関数Lを生成する。損失関数生成部30は、例えば、以下の式(3)により、損失関数Lを算出する。なお、損失関数Lは、学習中の質問と回答との各組合せにおけるコサイン値が最大になるように設定されている。

0043

0044

ここで、[y,z]は、ベクトルyとベクトルzとの結合を示す。Oqは、[Oqc,Oqs]である。また、Mは、定数を示し、k(0<k<1)は、マージンコントロールするパラメータである。
学習処理部132は、上述のような構成を用いて算出された損失関数Lによって最適化して学習結果を生成し、生成した学習結果を学習結果記憶部122に記憶させる。学習処理部132は、上述した式(1)の「結論」用のパラメータセット{Wi、Wf、Wo、Wc、Ui、Uf,Uo、Uc、bi、bf,bo、bc}cと、「補足」用のパラメータセット{Wi、Wf、Wo、Wc、Ui、Uf,Uo、Uc、bi、bf,bo、bc}sと、アテンションパラメータ{Wsm、Wcm、wmb}とを含む学習結果を生成する。

0045

なお、上述した例では、回答文のシナリオを「結論」及び「補足」の2つの部分項目により構成する例を説明したが、2つ以上の部分項目により構成するようにしてもよい。その場合、学習処理部132によって学習される学習結果は、質問文から生成された質問埋め込みベクトルOqと、複数の部分項目それぞれに対応した正解埋め込みベクトルOa+と、複数の部分項目それぞれに対応した不正解中間ベクトルOa−との複数の部分項目の組合せに基づいて算出される損失関数Lにより最適化されて学習される。

0046

図1に説明に戻り、質問取得部133は、情報処理装置1に入力された入力質問文を取得する。質問取得部133は、例えば、サービス記憶部121が記憶している質問文の中から、入力質問文を取得する。

0047

回答生成部134は、上述した学習処理部132によって学習された学習結果に基づいて、質問取得部133によって取得された入力質問文に対する回答文を生成する。ここで、学習結果は、上述したように、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された結果であり、学習結果記憶部122に記憶されている。すなわち、回答生成部134は、学習結果記憶部122が記憶する学習結果に基づいて、複数の部分項目を結合して生成された回答文を生成する。また、回答生成部134は、生成した回答文をサービス提供部131に供給して、当該回答文を、入力質問文の回答の投稿として、サービス記憶部121に記憶させる。

0048

次に、図面を参照して、本実施形態による情報処理装置1の動作について説明する。
<学習処理>
ます、情報処理装置1における学習処理部132の学習処理について、図2を参照して説明する。

0049

学習処理部132は、以下の(1)〜(6)の手順をN回繰り返して、学習処理を実行する。

0050

(1)学習処理部132は、まず、学習情報のそれぞれの組情報(質問文q、「結論」の正解文ac+、「結論」の不正解文ac−、「補足」の正解文as+、「補足」の不正解文as−)を取得する。学習処理部132のベクトル変換部10が、当該組情報を特徴ベクトル列(Wq、Wac+、Wac−、Was+、Was−)に変換する。

0051

(2)次に、QA−LSTM部20−1は、特徴ベクトル列(Wq、Wac+、Wac−)に基づいて、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。QA−LSTM部20−1は、双方向ベクトル列(24−1、25−1、26−1)のt番目の各双方向ベクトル(hqc(t)、hac+(t)、hac−(t))をそれぞれマックスプーリング処理して、質問埋め込みベクトルOqc、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を生成する。

0052

(3)次に、QA−LSTM部20−2は、まず、質問埋め込みベクトルOqsを生成する。QA−LSTM部20−2は、双方向ベクトル列24−2のt番目の各双方向ベクトルhqs(t)をマックスプーリング処理して、質問埋め込みベクトルOqsを生成する。

0053

(4)次に、QA−LSTM部20−2は、双方向ベクトル列(25−2、26−2)のt番目の各双方向ベクトル(has+(t)、has−(t))を、正解埋め込みベクトルOac+、及び不正解埋め込みベクトルOac−を用いて更新する。すなわち、QA−LSTM部20−2は、上述した式(2)を用いて、各双方向ベクトル(has+(t)、has−(t))を更新して、更新ベクトル(〜has+(t)、〜has−(t))を生成する。

0054

(5)次に、QA−LSTM部20−2は、更新ベクトル(〜has+(t)、〜has−(t))をそれぞれマックスプーリング処理して、正解埋め込みベクトルOas+、及び不正解埋め込みベクトルOas−を生成する。

0055

(6)次に、学習処理部132は、生成した各埋め込みベクトル(Oqc、Oac+、Oac−、Oqs、Oas+、Oas−)の組合せにより、損失関数Lを算出する。学習処理部132の損失関数生成部30が、例えば、上述した式(3)を用いて、損失関数Lを算出する。そして、学習処理部132は、算出した損失関数Lにより、各パラメータを最適化する。学習処理部132は、例えば、「結論」用のパラメータセット{Wi、Wf、Wo、Wc、Ui、Uf,Uo、Uc、bi、bf,bo、bc}cと、「補足」用のパラメータセット{Wi、Wf、Wo、Wc、Ui、Uf,Uo、Uc、bi、bf,bo、bc}sと、アテンションパラメータ{Wsm、Wcm、wmb}とを最適化する。

0056

学習処理部132は、上述した(1)〜(6)の手順をN回繰り返してして学習し、当該学習結果を学習結果記憶部122に記憶させる。

0057

<回答文の生成処理>
次に、図面を参照して、本実施形態における情報処理装置1の質問文から回答文を生成する処理について説明する。
図4は、本実施形態における情報処理装置1の質問文から回答文を生成する処理の一例を示すフローチャートである。

0058

図4に示すように、情報処理装置1は、まず、質問文をサービス記憶部121から取得する(ステップS101)。情報処理装置1の質問取得部133は、サービス記憶部121が記憶している質問文の中から、入力質問文を取得する。

0059

次に、情報処理装置1の回答生成部134は、質問文と、学習結果記憶部122が記憶する学習結果とに基づいて、回答文を生成する(ステップS102)。回答生成部134は、例えば、図2及び図3示す学習処理により学習されたが学習結果に基づいて、質問文から回答文を生成する。

0060

なお、回答生成部134は、既存の回答文を単に選択するのではなく、文章の筋道を考慮した部分項目を適切に組み合わせて新たな回答文を生成する。例えば、図5に示す例は、部分項目を、「雑談」、「事例」、及び「結論」とした場合の回答文の生成例である。

0061

図5において、回答生成部134は、学習結果に基づいて、「雑談」、「事例」、及び「結論」の組合せの適正(部分項目のつながりの適正)を考慮して、例えば、「雑談」として、“いろいろありますね。”を選択し、「事例」として、“人は出会いと別れを繰り返すから。”を選択する。また、回答生成部134は、「結論」として、“時間が解決する。”を選択する。そして、回答生成部134は、“いろいろありますね。人は出会いと別れを繰り返すから。時間が解決する。”という回答文を生成する。なお、回答生成部134は、学習結果が部分項目のつながりの適正を考慮しているため、部分項目の各項目単体として最適なものが選択されるのではなく、違和感のない回答文が生成されるように、部分項目の各項目を選択して、回答文を生成する。

0062

次に、情報処理装置1の回答生成部134は、サービス記憶部121に回答文を記憶させる(ステップS103)。すなわち、回答生成部134は、生成した回答文をサービス提供部131に供給して、当該回答文を、入力質問文の回答の投稿として、サービス記憶部121に記憶させる。これにより、情報処理装置1にネットワークNW1を介して接続し端末装置2から、質問文に対して、回答生成部134が生成した回答文を閲覧可能になる。ステップS103の処理後に、情報処理装置1は、回答文を生成する処理を終了する。

0063

次に、図6を参照して、本実施形態による情報処理装置1が生成した回答文の評価結果について説明する。

0064

図6は、本実施形態における回答生成方式と、従来技術との比較を示す図である。
図6において、「QA−LSTM」は、比較のために、非特許文献1に記載の技術を使用した場合の評価結果を示している。なお、「QA−LSTM」では、本実施形態のように回答文の生成を実行しないため、選択された部分項目を単純に結合して評価している。
また、「Sematic−LSTM」は、本実施形態によるセマンティクスでバイアスを「QA−LSTM」に適用した場合の評価結果である。なお、この場合も「QA−LSTM」と同様に、回答文の生成を実行しないため、選択された部分項目を単純に結合して評価している。

0065

また、「本実施形態の回答生成方式」は、学習処理部132の方式であり、上述した式(2)のアテンションメカニズムを利用しない場合「アテンションなし」と、アテンションメカニズムを利用する場合「アテンションあり」との評価結果である。なお、「本実施形態の回答生成方式」では、上述した本実施形態によるセマンティクスでバイアスをかける処理を適用している。

0066

また、評価結果は、トップKに対する平均適合率APを示している、なお、平均適合率APは、以下の式(4)により算出される。

0067

0068

ここで、Njは、ランクがK番目である場合に、トップjのうちの正しい回答の数を示し、Dは、(質問とペアにされる)全ての正しい回答の数を示している。

0069

また、評価の際に使用した学習情報は、Q&Aサービス「教えてgoo」において、「恋愛相談」、「旅行」、「医療」などを含む16個のカテゴリに蓄積された質問文及び回答文を使用している。また、部分項目は、「結論」及び「補足」の2つの場合である。

0070

図6に示すように、本実施形態による手法を使用した「Sematic−LSTM」、及び「本実施形態の回答生成方式」(「アテンションなし」、「アテンションあり」)のいずれの場合も、従来技術の「QA−LSTM」よりも平均適合率APが高い。例えば、「本実施形態の回答生成方式」(「アテンションあり」)の平均適合率AP(K=1)の値は、“0.3901”であり、「QA−LSTM」の平均適合率AP(K=1)の値である“0.3262”よりも約20%高い値である。
また、上述したQ&Aサービス「教えてgoo」の恋愛相談において、123個に質問に対して、本実施形態による情報処理装置1により生成した回答文を適用した場合に、123個のうち、21個の回答文がベストアンサー(最適回答)に質問者によって選ばれた。

0071

以上説明したように、本実施形態による情報処理装置1は、質問取得部133と、回答生成部134とを備える。質問取得部133は、入力された入力質問文を取得する。回答生成部134は、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された学習結果に基づいて、質問取得部133によって取得された入力質問文に対する回答文を生成する。ここで、学習結果は、質問埋め込みベクトルOq(質問中間ベクトル)と、複数の部分項目それぞれに対応した正解埋め込みベクトル(Oac+、Oas+)(正解中間ベクトル)と、複数の部分項目それぞれに対応した不正解埋め込みベクトル(Oac−、Oas−)(不正解中間ベクトル)と、の複数の部分項目の組合せに基づいて算出される損失関数Lにより最適化されて学習される。質問埋め込みベクトルOqは、質問文を単語ごとに変換された特徴ベクトルを時系列の順方向及び逆方向の双方向の単語の並び順に基づいて生成した双方向ベクトル列24(質問特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。正解埋め込みベクトル(Oac+、Oas+)は、正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した双方向ベクトル列25(正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。不正解埋め込みベクトル(Oac−、Oas−)は、不正解文を単語ごとに変換された特徴ベクトルを双方向の単語の並び順に基づいて生成した双方向ベクトル列26(不正解特徴ベクトル群)に基づいて、単語の並びを双方向に学習して生成される。

0072

これにより、本実施形態による情報処理装置1は、学習結果に基づいて、各部分項目の回答のつながりを最適化して選択された各部分項目の回答文が結合されて、新たな回答文を作成することができる。よって、本実施形態による情報処理装置1は、質問に対して、違和感を低減した自然な文面の回答を生成することができる。

0073

また、本実施形態では、例えば、上記の式(3)に基づいて、損失関数Lが算出される。損失関数Lは、各部分項目の組み合わせを同時に最適化するため、本実施形態による情報処理装置1は、回答文を生成するのに適切な部分項目を選択することができる。

0074

また、本実施形態では、学習結果は、学習処理部132によって、質問文に含まれる単語の特徴ベクトルと、質問文に関連する用語の特徴ベクトルとを平均化して学習された追加ベクトル(例えば、カテゴリベクトル及びタイトルベクトル)に基づいて生成された、質問埋め込みベクトルOq、正解埋め込みベクトル(Oac+、Oas+)、及び不正解埋め込みベクトル(Oac−、Oas−)に基づいて学習される。例えば、双方向ベクトル列24は、質問文と追加ベクトルとに基づいて変換され、双方向ベクトル列25は、正解文と追加ベクトルとに基づいて変換され、双方向ベクトル列26は、不正解文と追加ベクトルとに基づいて変換される。すなわち、学習結果は、学習処理部132によって、カテゴリによるセマンティクスでバイアスをかけて学習される。
これにより、本実施形態による情報処理装置1は、質問に対して、例えば、カテゴリに特化した回答を生成することができる。よって、本実施形態による情報処理装置1は、質問に対して、さらに最適な回答文を生成することができる。

0075

また、本実施形態では、学習結果は、学習処理部132によって、複数の部分項目のうちの第1の部分項目(例えば、「結論」)に対応する正解埋め込みベクトル(Oac+)及び不正解埋め込みベクトル(Oac−)に基づいて、第1の部分項目と異なる第2の部分項目(例えば、「補正」)に対応する双方向ベクトル列25−2及び双方向ベクトル列26−2が更新されて学習される。すなわち、学習処理部132は、上述した式(2)を用いたアテンションメカニズムにより、双方向ベクトル列25−2及び双方向ベクトル列26−2の各双方向ベクトル(h(t))を更新させて学習する。
これにより、本実施形態による情報処理装置1は、部分項目の間の関連(例えば、部分項目のつながり)を最適化した学習を行うことができる。そのため、本実施形態による情報処理装置1は、部分項目を組み合わせて、より自然な回答文を生成することができる。

0076

また、本実施形態による情報処理装置1は、学習情報に基づいて機械学習し、学習結果を生成する学習処理部132を備える。
これにより、本実施形態による情報処理装置1は、自装置で学習して学習結果を生成することができる。また、本実施形態による情報処理装置1は、例えば、再学習して、質問に対する回答を改善することができる。

0077

なお、学習処理部132は、所定の条件(例えば、定期的、あるいは、平均適合率APが所定の値以下に低下した、など)に基づいて、学習結果を再学習してもよい。
これにより、本実施形態による情報処理装置1は、時間の変化に対応して、質問に対する回答を改善することができる。

0078

また、本実施形態による情報処理方法は、質問取得ステップと、回答生成ステップとを含む。質問取得ステップにおいて、質問取得部133が、入力された入力質問文を取得する。回答生成ステップにおいて、回答生成部134が、質問文と、回答文において、予め定められた文章の筋道により分割される複数の部分項目それぞれに対応する正解文及び不正解文との組を複数有する学習情報に基づいて、機械学習された上述した学習結果に基づいて、質問取得ステップによって取得された入力質問文に対する回答文を生成する。
これにより、本実施形態による情報処理方法は、上述した情報処理装置1と同様の効果を奏し、質問に対して、違和感を低減した自然な文面の回答を生成することができる。

0079

なお、本発明は、上記の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の実施形態において、情報処理装置1は、学習処理部132を備える例を説明したが、これに限定されるものではなく、学習結果を取得できる状態であれば、学習処理部132を備えなくてもよい。

0080

また、情報処理装置1は、サービス記憶部121と、学習結果記憶部122とを備える例を説明したが、サービス記憶部121と、学習結果記憶部122とのいずれか一方又は両方を、例えば、外部のサーバ装置が備えるようにしてもよい。また、情報処理装置1は、制御部13が備える機能部の一部を外部のサーバ装置が備えるようにしてもよい。
なお、上記の実施形態において、情報処理装置1は、1台のサーバ装置により構成される例を説明したが、複数の装置により構成されてもよい。

0081

また、上記の実施形態において、情報処理装置1は、回答文を「結論」及び「補足」の2つの部分項目により構成する場合の一例を説明したが、これに限定されるものではなく、3つ以上の部分項目に対応させてもよい。
また、上記の実施形態において、情報処理装置1は、部分項目ごとにQA−LSTM部20を備える手法と、カテゴリによるセマンティクスでバイアスをかけて学習される手法と、アテンションメカニズムによる手法とを適用する例を説明したが、これに限定されるものではない。情報処理装置1は、例えば、これらの手法の一部を適用しない形態であってもよいし、これらの手法のうちの1つを適用形態であってもよい。

0082

なお、上述した情報処理装置1が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した情報処理装置1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した情報処理装置1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。

0083

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に情報処理装置1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル差分プログラム)であってもよい。

0084

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。

0085

1情報処理装置
2端末装置
10ベクトル変換部
11 NW通信部
12 記憶部
13 制御部
20、20−1、20−2QA−LSTM部
21、21−1、21−2質問埋め込みベクトル生成部
22、22−1、22−2正解埋め込みベクトル生成部
23、23−1、23−2 不正解埋め込みベクトル生成部
24、24−1、24−2、25、25−1、25−2、26、26−1、26−2 双方向ベクトル列
30損失関数生成部
100情報処理システム
121サービス記憶部
122学習結果記憶部
131サービス提供部
132学習処理部
133 質問取得部
134回答生成部
NW1 ネットワーク

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

この 技術と関連性が強い技術

関連性が強い 技術一覧

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ