図面 (/)

技術 学習装置、推定装置、データ生成装置、学習方法、及び学習プログラム

出願人 オムロン株式会社
発明者 岡本大和橋本敦史
出願日 2019年3月14日 (2年0ヶ月経過) 出願番号 2019-047710
公開日 2020年9月17日 (6ヶ月経過) 公開番号 2020-149504
状態 未査定
技術分野 イメージ分析 学習型計算機 交通制御システム
主要キーワード 背景条件 事故リスク 観測環境 音圧計 増減幅 移動販売 車載データ 利用フェーズ
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2020年9月17日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (20)

課題

導入コストが比較的に低廉で、かつデータの取得に関する属性相違ロバスト学習済みモデル構築する。

解決手段

本発明の一側面に係る学習装置は、各学習データセットについて、第2メタ識別器による識別の結果がメタデータ適合するように第2符号器及び第2メタ識別器を訓練する第1訓練ステップ推定器による推定の結果が正解データに適合するように各符号器及び推定器を訓練する第2訓練ステップ、第1メタ識別器による識別の結果がメタデータに適合するように第1メタ識別器を訓練する第3訓練ステップ、並びに、第1メタ識別器による識別の結果がメタデータに適合しないように第1符号器を訓練する第4訓練ステップを実行する。第3訓練ステップ及び第4訓練ステップは交互に繰り返し実行される。

概要

背景

道路に設置されたカメラ等の各種センサにより得られたデータを用いて、交通に関する様々な事象推定するシステムの開発が行われている。例えば、特許文献1には、エリアの状況を示すエリア情報に基づいて、緊急車両、輸送手段移動販売等に所定の対象に関する需要予測する方法が提案されている。具体的には、エリア情報、及び当該エリア情報に対応する所定の対象に関する需要を示す正解データにより構成される学習データを使用して、回帰モデルニューラルネットワーク等の機械学習を実施する。この機械学習により構築された学習済みモデルを利用して、エリアの状況を示すエリア情報から所定の対象に関する需要を予測する。

機械学習により構築された学習済みのモデルによれば、与えられた訓練データと同種の未知のデータに対して、回帰分類等の推定(予測を含む)タスクを実行することができる。ただし、学習済みのモデルによる推定の精度は、与えられた学習データ(詳細には、訓練データ)を取得した条件等の取得の属性に依存し得る。例えば、道路に設定されたセンサから得られるデータを訓練データとして用いて、当該道路の交通流を予測する場面を想定する。この場面において、データに現れる道路の交通流の特性は、様々な要因により相違し得る。

要因の一例として、観測対象が相違すると、データに現れる交通流の特性は根本的に相違し得る。例えば、分岐点合流点、直線道路、曲がり道等の道路の属性に起因して、交通流の特性は相違し得る。また、同じ地点観測している(すなわち、観測対象が同じ)場合でも、データを取得する方法に起因して、得られるデータに現れる交通流の特性は相違し得る。例えば、道路近傍側方から測定することで得られたデータと道路よりやや離れた上方の位置から測定することで得られたデータとでは、データに現れる交通流の状態は相違し得る。

そのため、学習済みのモデルによる推定の精度は、訓練データを取得した条件等の取得の属性に依存し得る。例えば、分岐及び合流のない直線の道路を観測するセンサにより得られたデータからこの道路の交通流を予測するように訓練された学習済みのモデルを構築したと想定する。この場合、合流点を含む曲がり道の道路を観測するセンサにより得られたデータに対してこの学習済みのモデルを利用したとすると、この学習済みのモデルは誤った予測をする可能性が高い。同様に、道路から離れた上方の位置より当該道路を観測するセンサにより得られたデータから当該道路の交通流を予測するように訓練された学習済みのモデルを構築したと想定する。この場合、同じ道路を側方から観測する別のセンサにより得られたデータに対してこの学習済みのモデルを利用したとすると、この学習済みのモデルは誤った予測をする可能性が高い。つまり、訓練データの取得の属性と推定タスクの対象となる未知のデータの取得の属性とが異なれば、学習済みのモデルは適切に推定できなくなる可能性がある。

これに対して、想定されるあらゆる要因を考慮して、学習済みのモデルを構築することが考えられる。例えば、複数の地点で得られたデータを1つのモデルの機械学習に使用することが考えられる。しかしながら、この場合には、その複数の地点を含むエリアでの交通流を予測するように訓練された学習済みのモデルを構築することは可能であるものの、当該モデルの構造が複雑になってしまい、学習済みのモデルを他のエリアに転用するのは困難である。更には、学習データが膨大になり、学習が収束しない可能性がある。

そのため、あらゆる要因に対応する入力を受け付けるようにモデルの構造を複雑にするのではなく、訓練データにより得られた学習の成果を、取得の属性の異なる未知のデータに適用可能に何らかの方策を行うのが好ましい。この試みの一つとして、ドメイン適応が知られている。ドメイン適応とは、あるドメインで取得された学習データを利用して所定のタスクを遂行する能力習得した学習済みのモデルを他のドメインで取得されたデータに適応させる手法である。非特許文献1には、このドメイン適応の手法の一つが提案されている。

具体的には、非特許文献1では、まず、訓練データとなるソース画像データ及び当該ソース画像データに写る対象物を示す正解データ(ラベル)の組み合わせにより構成されたデータセットを用意する。また、これに対応するソース抽出器及び分類器を用意する。そして、事前学習として、用意されたデータセットにより、ソース抽出器及び分類器を訓練する。ソース抽出器は、入力された画像データから特徴量を抽出するように訓練される。分類器は、ソース画像データから抽出された特徴量に基づいて、当該ソース画像データに写る対象物を分類するように訓練される。

次に、推定タスクの対象となる対象画像データを用意する。また、これに対応する対象抽出器と、ソース抽出器及び対象抽出器の出力を識別するための識別器とを用意する。そして、ソース抽出器によりソース画像データから抽出された特徴量と対象抽出器により対象画像データから抽出された特徴量とを識別するように識別器を訓練するのに対して、この識別器による識別が誤るように対象抽出器を敵対的に訓練する。この敵対的学習により、対象抽出器は、ソース抽出器と共通の特徴空間に対象画像データをマッピングする、すなわち、ソース抽出器と共通の特徴を抽出するように訓練される。その結果、ソース画像データで訓練された分類器を対象画像データにも適用することができるようになる。つまり、訓練された対象抽出器と分類器とを利用することで、ソース画像データと同じように、対象画像データに写る対象物を分類することができる。

概要

導入コストが比較的に低廉で、かつデータの取得に関する属性の相違にロバストな学習済みのモデルを構築する。本発明の一側面に係る学習装置は、各学習データセットについて、第2メタ識別器による識別の結果がメタデータ適合するように第2符号器及び第2メタ識別器を訓練する第1訓練ステップ推定器による推定の結果が正解データに適合するように各符号器及び推定器を訓練する第2訓練ステップ、第1メタ識別器による識別の結果がメタデータに適合するように第1メタ識別器を訓練する第3訓練ステップ、並びに、第1メタ識別器による識別の結果がメタデータに適合しないように第1符号器を訓練する第4訓練ステップを実行する。第3訓練ステップ及び第4訓練ステップは交互に繰り返し実行される。

目的

本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、導入コストが比較的に低廉で、かつデータの取得に関する属性の相違にロバストな学習済みのモデルを構築するための技術を提供する

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

訓練データ、前記訓練データの取得に関する属性を示すメタデータ、及び前記訓練データに含まれる特徴を示す正解データの組み合わせによりそれぞれ構成される複数の学習データセットを取得するデータ取得部と、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器を含む学習モデル機械学習を実施する学習処理部であって、前記第1符号器は、与えられた入力データを第1特徴量に変換するように構成され、前記第2符号器は、前記入力データを第2特徴量に変換するように構成され、前記第1メタ識別器は、前記第1符号器の出力値が入力され、前記入力データの取得に関する属性を前記第1特徴量から識別するように構成され、前記第2メタ識別器は、前記第2符号器の出力値が入力され、前記入力データの取得に関する属性を前記第2特徴量から識別するように構成され、前記推定器は、前記第1符号器及び前記第2符号器の出力値が入力され、前記第1特徴量及び前記第2特徴量から前記入力データに含まれる特徴を推定するように構成され、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第2符号器に与えることで前記第2メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第2符号器及び前記第2メタ識別器を訓練する第1訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器及び前記第2符号器に与えることで前記推定器から得られる推定の結果が前記正解データに適合するように、前記第1符号器、前記第2符号器及び前記推定器を訓練する第2訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第1メタ識別器を訓練する第3訓練ステップ、並びに、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合しないように、前記第1符号器を訓練する第4訓練ステップ、を含み、前記第3訓練ステップ及び前記第4訓練ステップを交互に繰り返し実行する、学習処理部と、を備える、学習装置

請求項2

前記複数の学習データセットに含まれる少なくとも1つ以上の第1の学習データセット、及び少なくとも1つ以上の第2の学習データセットは、それぞれの前記メタデータにより示される属性が相違するように異なるドメインから得られる、請求項1に記載の学習装置。

請求項3

前記第1訓練ステップでは、前記第2符号器は、前記メタデータにより示される前記訓練データの取得に関する属性に対応する成分を前記第2特徴量が含むように訓練され、前記第4訓練ステップでは、前記第1符号器は、前記各学習データセットの前記訓練データを取得するドメインに共通に現れる情報に対応する成分を前記第1特徴量が含むように訓練される、請求項1又は2に記載の学習装置。

請求項4

前記各訓練ステップでは、前記訓練データと共にノイズが前記各符号器に入力されて、各訓練が実行される、請求項1から3のいずれか1項に記載の学習装置。

請求項5

前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1符号器から前記第1特徴量として得られる出力値と前記訓練データを前記第2符号器に与えることで前記第2符号器から前記第2特徴量として得られる出力値との相互情報量が少なくなるように、前記第1符号器及び前記第2符号器を訓練する第5訓練ステップを更に含む、請求項1から4のいずれか1項に記載の学習装置。

請求項6

前記第4訓練ステップでは、前記各学習データセットについて、前記メタデータに対応するダミーメタデータであって、対応する前記メタデータとは異なる値で構成されたダミーメタデータが取得され、前記識別の結果が前記メタデータに適合しないように前記第1符号器を訓練することは、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記ダミーメタデータに適合するように前記第1符号器を訓練することにより構成される、請求項1から5のいずれか1項に記載の学習装置。

請求項7

前記ダミーメタデータは、対応する学習データセットとは異なる学習データセットのメタデータにより構成される、請求項6に記載の学習装置。

請求項8

前記学習モデルは、前記第1特徴量及び前記第2特徴量から前記入力データを復号化するように構成される復号器を更に含み、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第1符号器及び前記第2符号器に与えることで前記復号器により得られる復号化データが前記訓練データに適合するように、前記第1符号器、前記第2符号器及び前記復号器を訓練する第6訓練ステップを更に含む、請求項1から7のいずれか1項に記載の学習装置。

請求項9

前記第1、第2、及び第6訓練ステップでは、前記訓練データを前記第2符号器に与えることで前記第2符号器から前記第2特徴量として出力値が取得され、取得された当該出力値と共にノイズが前記第2メタ識別器、前記推定器、及び前記復号器に入力されて、各訓練が実行される、請求項8に記載の学習装置。

請求項10

前記データ取得部は、前記学習処理部が前記学習モデルの機械学習を実施した後に、前記複数の学習データセットのうちの少なくともいずれかの訓練データを前記第1符号器に与えることで前記第1符号器から前記第1特徴量として出力値を取得し、前記訓練データを前記第2符号器に与えることで前記第2符号器から前記第2特徴量として出力値を取得し、及び前記第1符号器から取得された前記出力値を前記復号器に入力し、かつ前記第2符号器から得られた前記出力値と共にノイズを前記復号器に入力することで、前記復号器から前記復号化データとして出力データを取得し、前記学習処理部は、取得された前記出力データを新たな訓練データとして利用して、前記学習モデルの機械学習を再度実施する、請求項8又は9に記載の学習装置。

請求項11

前記学習モデルは、前記第1符号器の出力値が入力され、前記第1特徴量から前記入力データに含まれる特徴を推定するように構成された他の推定器を更に含み、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記他の推定器から得られる推定の結果が前記正解データ又は前記訓練データに含まれる他の特徴を示す他の正解データに適合するように、前記第1符号器及び前記他の推定器を訓練する第7訓練ステップを更に含む、請求項1から10のいずれか1項に記載の学習装置。

請求項12

前記訓練データは、道路走行する車両を観察するセンサにより得られたセンシングデータであり、前記メタデータは、前記取得に関する属性として、前記道路の属性、前記センサの観察角度、前記センサの設置間隔、前記センサの種類又はこれらの組み合わせを示し、前記正解データは、前記特徴として、前記道路の交通状況に関する情報を示す、請求項1から11のいずれか1項に記載の学習装置。

請求項13

前記訓練データは、被験者の状態を観察するセンサにより得られたセンシングデータであり、前記メタデータは、前記取得に関する属性として、前記被験者の識別情報、前記センシングデータを取得した時間に関する属性、前記センサの設置状況に関する属性、前記センサの設置場所、又はこれらの組み合わせを示し、前記正解データは、前記特徴として、前記被験者の状態を示す、請求項1から11のいずれか1項に記載の学習装置。

請求項14

前記訓練データは、製品の写る画像データであり、前記メタデータは、前記取得に関する属性として、前記製品の属性、前記製品の撮影条件、前記製品を製造する工場の属性又はこれらの組み合わせを示し、前記正解データは、前記特徴として、前記製品の状態を示す、請求項1から11のいずれか1項に記載の学習装置。

請求項15

対象データを取得するデータ取得部と、請求項1から14のいずれか1項に記載の学習装置により訓練された前記第1符号器、前記第2符号器、及び前記推定器を利用して、取得された対象データに含まれる特徴を推定する推定部と、前記特徴を推定した結果に関する情報を出力する出力部と、を備える、推定装置

請求項16

対象データを取得するデータ取得部と、請求項11に記載の学習装置により訓練された前記第1符号器及び前記他の推定器を利用して、取得された対象データに含まれる特徴を推定する推定部と、前記特徴を推定した結果に関する情報を出力する出力部と、を備える、推定装置。

請求項17

前記学習装置により訓練された前記第2符号器及び前記第2メタ識別器を利用して、前記対象データの取得に関する属性を識別し、当該識別の結果に基づいて、前記特徴を推定した結果を採用するか否かを判定する評価部を更に備える、請求項15又は16に記載の推定装置。

請求項18

対象データを取得するデータ取得部と、請求項8から10のいずれか1項に記載の学習装置により訓練された前記第1符号器に前記対象データを与えることで前記第1符号器から前記第1特徴量として出力値を取得し、訓練された前記復号器を利用して、前記第2符号器から取得される出力値を与えずに、前記第1符号器から取得された前記出力値から前記対象データを復号化することで、復号化データを生成するデータ生成部と、生成された前記復号化データを所定の記憶領域に保存する保存処理部と、を備える、データ生成装置

請求項19

コンピュータが、訓練データ、前記訓練データの取得に関する属性を示すメタデータ、及び前記訓練データに含まれる特徴を示す正解データの組み合わせによりそれぞれ構成される複数の学習データセットを取得するステップと、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器を含む学習モデルの機械学習を実施するステップであって、前記第1符号器は、与えられた入力データを第1特徴量に変換するように構成され、前記第2符号器は、前記入力データを第2特徴量に変換するように構成され、前記第1メタ識別器は、前記第1符号器の出力値が入力され、前記入力データの取得に関する属性を前記第1特徴量から識別するように構成され、前記第2メタ識別器は、前記第2符号器の出力値が入力され、前記入力データの取得に関する属性を前記第2特徴量から識別するように構成され、前記推定器は、前記第1符号器及び前記第2符号器の出力値が入力され、前記第1特徴量及び前記第2特徴量から前記入力データに含まれる特徴を推定するように構成され、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第2符号器に与えることで前記第2メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第2符号器及び前記第2メタ識別器を訓練する第1訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器及び前記第2符号器に与えることで前記推定器から得られる推定の結果が前記正解データに適合するように、前記第1符号器、前記第2符号器及び前記推定器を訓練する第2訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第1メタ識別器を訓練する第3訓練ステップ、並びに、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合しないように、前記第1符号器を訓練する第4訓練ステップ、を含み、前記第3訓練ステップ及び前記第4訓練ステップを交互に繰り返し実行する、ステップと、を実行する、学習方法

請求項20

コンピュータに、訓練データ、前記訓練データの取得に関する属性を示すメタデータ、及び前記訓練データに含まれる特徴を示す正解データの組み合わせによりそれぞれ構成される複数の学習データセットを取得するステップと、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器を含む学習モデルの機械学習を実施するステップであって、前記第1符号器は、与えられた入力データを第1特徴量に変換するように構成され、前記第2符号器は、前記入力データを第2特徴量に変換するように構成され、前記第1メタ識別器は、前記第1符号器の出力値が入力され、前記入力データの取得に関する属性を前記第1特徴量から識別するように構成され、前記第2メタ識別器は、前記第2符号器の出力値が入力され、前記入力データの取得に関する属性を前記第2特徴量から識別するように構成され、前記推定器は、前記第1符号器及び前記第2符号器の出力値が入力され、前記第1特徴量及び前記第2特徴量から前記入力データに含まれる特徴を推定するように構成され、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第2符号器に与えることで前記第2メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第2符号器及び前記第2メタ識別器を訓練する第1訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器及び前記第2符号器に与えることで前記推定器から得られる推定の結果が前記正解データに適合するように、前記第1符号器、前記第2符号器及び前記推定器を訓練する第2訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第1メタ識別器を訓練する第3訓練ステップ、並びに、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合しないように、前記第1符号器を訓練する第4訓練ステップ、を含み、前記第3訓練ステップ及び前記第4訓練ステップを交互に繰り返し実行する、ステップと、を実行させるための、学習プログラム

技術分野

0001

本発明は、学習装置推定装置データ生成装置学習方法、及び学習プログラムに関する。

背景技術

0002

道路に設置されたカメラ等の各種センサにより得られたデータを用いて、交通に関する様々な事象推定するシステムの開発が行われている。例えば、特許文献1には、エリアの状況を示すエリア情報に基づいて、緊急車両、輸送手段移動販売等に所定の対象に関する需要予測する方法が提案されている。具体的には、エリア情報、及び当該エリア情報に対応する所定の対象に関する需要を示す正解データにより構成される学習データを使用して、回帰モデルニューラルネットワーク等の機械学習を実施する。この機械学習により構築された学習済みモデルを利用して、エリアの状況を示すエリア情報から所定の対象に関する需要を予測する。

0003

機械学習により構築された学習済みのモデルによれば、与えられた訓練データと同種の未知のデータに対して、回帰分類等の推定(予測を含む)タスクを実行することができる。ただし、学習済みのモデルによる推定の精度は、与えられた学習データ(詳細には、訓練データ)を取得した条件等の取得の属性に依存し得る。例えば、道路に設定されたセンサから得られるデータを訓練データとして用いて、当該道路の交通流を予測する場面を想定する。この場面において、データに現れる道路の交通流の特性は、様々な要因により相違し得る。

0004

要因の一例として、観測対象が相違すると、データに現れる交通流の特性は根本的に相違し得る。例えば、分岐点合流点、直線道路、曲がり道等の道路の属性に起因して、交通流の特性は相違し得る。また、同じ地点観測している(すなわち、観測対象が同じ)場合でも、データを取得する方法に起因して、得られるデータに現れる交通流の特性は相違し得る。例えば、道路近傍側方から測定することで得られたデータと道路よりやや離れた上方の位置から測定することで得られたデータとでは、データに現れる交通流の状態は相違し得る。

0005

そのため、学習済みのモデルによる推定の精度は、訓練データを取得した条件等の取得の属性に依存し得る。例えば、分岐及び合流のない直線の道路を観測するセンサにより得られたデータからこの道路の交通流を予測するように訓練された学習済みのモデルを構築したと想定する。この場合、合流点を含む曲がり道の道路を観測するセンサにより得られたデータに対してこの学習済みのモデルを利用したとすると、この学習済みのモデルは誤った予測をする可能性が高い。同様に、道路から離れた上方の位置より当該道路を観測するセンサにより得られたデータから当該道路の交通流を予測するように訓練された学習済みのモデルを構築したと想定する。この場合、同じ道路を側方から観測する別のセンサにより得られたデータに対してこの学習済みのモデルを利用したとすると、この学習済みのモデルは誤った予測をする可能性が高い。つまり、訓練データの取得の属性と推定タスクの対象となる未知のデータの取得の属性とが異なれば、学習済みのモデルは適切に推定できなくなる可能性がある。

0006

これに対して、想定されるあらゆる要因を考慮して、学習済みのモデルを構築することが考えられる。例えば、複数の地点で得られたデータを1つのモデルの機械学習に使用することが考えられる。しかしながら、この場合には、その複数の地点を含むエリアでの交通流を予測するように訓練された学習済みのモデルを構築することは可能であるものの、当該モデルの構造が複雑になってしまい、学習済みのモデルを他のエリアに転用するのは困難である。更には、学習データが膨大になり、学習が収束しない可能性がある。

0007

そのため、あらゆる要因に対応する入力を受け付けるようにモデルの構造を複雑にするのではなく、訓練データにより得られた学習の成果を、取得の属性の異なる未知のデータに適用可能に何らかの方策を行うのが好ましい。この試みの一つとして、ドメイン適応が知られている。ドメイン適応とは、あるドメインで取得された学習データを利用して所定のタスクを遂行する能力習得した学習済みのモデルを他のドメインで取得されたデータに適応させる手法である。非特許文献1には、このドメイン適応の手法の一つが提案されている。

0008

具体的には、非特許文献1では、まず、訓練データとなるソース画像データ及び当該ソース画像データに写る対象物を示す正解データ(ラベル)の組み合わせにより構成されたデータセットを用意する。また、これに対応するソース抽出器及び分類器を用意する。そして、事前学習として、用意されたデータセットにより、ソース抽出器及び分類器を訓練する。ソース抽出器は、入力された画像データから特徴量を抽出するように訓練される。分類器は、ソース画像データから抽出された特徴量に基づいて、当該ソース画像データに写る対象物を分類するように訓練される。

0009

次に、推定タスクの対象となる対象画像データを用意する。また、これに対応する対象抽出器と、ソース抽出器及び対象抽出器の出力を識別するための識別器とを用意する。そして、ソース抽出器によりソース画像データから抽出された特徴量と対象抽出器により対象画像データから抽出された特徴量とを識別するように識別器を訓練するのに対して、この識別器による識別が誤るように対象抽出器を敵対的に訓練する。この敵対的学習により、対象抽出器は、ソース抽出器と共通の特徴空間に対象画像データをマッピングする、すなわち、ソース抽出器と共通の特徴を抽出するように訓練される。その結果、ソース画像データで訓練された分類器を対象画像データにも適用することができるようになる。つまり、訓練された対象抽出器と分類器とを利用することで、ソース画像データと同じように、対象画像データに写る対象物を分類することができる。

0010

特開2019−028489号公報

先行技術

0011

Eric Tzeng, et al. "Adversarral Discriminative Domain Adaptation" arXiv preprint arXiv:1702.05464, 2017.

発明が解決しようとする課題

0012

非特許文献1の方法によれば、推定タスクの対象となる未知のデータと訓練データとの間で取得の属性が相違する場合でも、学習済みのモデルは、当該未知のデータに対して推定タスクを適切に実行可能であることを期待することができる。しかしながら、本件発明者は、この非特許文献1による従来の方法には、次のような問題点があることを見出した。すなわち、この方法では、対象画像データを取得するドメイン毎に対象抽出器を生成することになるため、導入コストが高いという問題点がある。

0013

また、推定タスクによっては、データの取得に関する属性の相違を考慮したほうがよい可能性がある。例えば、道路を観測するセンサから得られたデータからその道路で渋滞の生じる可能性を予測する学習済みのモデルを構築する場面を想定する。このケースにおいて、一車線及び二車線の道路それぞれを観測する各センサから得られたデータが訓練データには含まれており、学習済みのモデルは、一車線よりも二車線の道路の方が渋滞の生じる可能性が低いとの知見を当該訓練データにより得ていると更に想定する。この場合、三車線の道路を観測するセンサから得られた未知のデータに対して、訓練データと取得に関する属性が相違するものの、学習済みのモデルは、比較的に高い精度でこの道路の渋滞予測を行うことができる可能性がある。

0014

これに対して、従来の方法では、対象抽出器の敵対的学習により、対象画像データを取得するドメインに特有の事象に関する情報は損失する。更には、対象画像データを取得するドメインとソース画像データを取得するドメインとで共通する事象に関する全ての情報が対象抽出器の学習に反映されるとは限らず、この共通する事象に関する一部の情報が損失する可能性がある。したがって、従来の方法では、このような情報の損失が生じることで、学習済みのモデルによる推定タスクの精度が低くなってしまう可能性があるという問題点がある。

0015

なお、このような問題点は、道路の状況を観測するセンサにより得られたデータから当該道路の状況を推定するための学習済みのモデルを構築する場面に特有のものではない。所定のデータに対して所定の推定タスクを行うための学習済みのモデルを構築するあらゆる場面でこの問題が生じ得る。所定の推定タスクを行うための学習済みのモデルを構築する場面とは、例えば、対象者の状態を観察するセンサにより得られたデータから当該対象者の状態を推定するための学習済みのモデルを構築する場面、カメラにより得られた画像データに写る人物の属性を推定するための学習済みのモデルを構築する場面、車載データにより得られるデータから車両に与える指令を推定するための学習済みのモデルを構築する場面、顧客情報からレコメンド的中率を推定するための学習済みのモデルを構築する場面、画像データに写る製品の状態を推定するための学習済みのモデルを構築する場面等である。これらの場面で利用される所定のデータは、例えば、画像データ、音データ、数値データ、テキストデータ、その他センサにより得られる測定データ等である。これらの場面でも、従来の方法では、対象データを取得するドメイン毎に対象抽出器を生成することになるため、導入コストが高いという問題点がある。また、対象抽出器の学習において、情報の損失が生じることで、学習済みのモデルによる推定タスクの精度が低くなってしまう可能性があるという問題点がある。

0016

本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、導入コストが比較的に低廉で、かつデータの取得に関する属性の相違にロバストな学習済みのモデルを構築するための技術を提供することである。

課題を解決するための手段

0017

本発明は、上述した課題を解決するために、以下の構成を採用する。

0018

すなわち、本発明の一側面に係る学習装置は、訓練データ、前記訓練データの取得に関する属性を示すメタデータ、及び前記訓練データに含まれる特徴を示す正解データの組み合わせによりそれぞれ構成される複数の学習データセットを取得するデータ取得部と、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器を含む学習モデルの機械学習を実施する学習処理部であって、前記第1符号器は、与えられた入力データを第1特徴量に変換するように構成され、前記第2符号器は、前記入力データを第2特徴量に変換するように構成され、前記第1メタ識別器は、前記第1符号器の出力値が入力され、前記入力データの取得に関する属性を前記第1特徴量から識別するように構成され、前記第2メタ識別器は、前記第2符号器の出力値が入力され、前記入力データの取得に関する属性を前記第2特徴量から識別するように構成され、前記推定器は、前記第1符号器及び前記第2符号器の出力値が入力され、前記第1特徴量及び前記第2特徴量から前記入力データに含まれる特徴を推定するように構成され、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第2符号器に与えることで前記第2メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第2符号器及び前記第2メタ識別器を訓練する第1訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器及び前記第2符号器に与えることで前記推定器から得られる推定の結果が前記正解データに適合するように、前記第1符号器、前記第2符号器及び前記推定器を訓練する第2訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第1メタ識別器を訓練する第3訓練ステップ、並びに、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合しないように、前記第1符号器を訓練する第4訓練ステップ、を含み、前記第3訓練ステップ及び前記第4訓練ステップを交互に繰り返し実行する、学習処理部と、を備える。

0019

当該構成に係る学習装置では、4つの訓練ステップにより、学習モデルの各部分の機械学習が行われる。第1訓練ステップでは、第2符号器及び第2メタ識別器が、各学習データセットについて、訓練データを第2符号器に与えることで第2メタ識別器から得られる識別の結果がメタデータに適合するように訓練される。この訓練の結果により、訓練データの取得に関する属性を第2メタ識別器が適切に識別可能となるように、第2符号器により得られる第2特徴量には、当該取得に関する属性に対応する成分が含まれるようになる。第2訓練ステップでは、第1符号器、第2符号器、及び推定器が、各学習データセットについて、訓練データを第1符号器及び第2符号器に与えることで推定器から得られる推定の結果が正解データに適合するように訓練される。この訓練の結果により、第1符号器及び第2符号器による得られる第1特徴量及び第2特徴量には、訓練データに含まれる特徴、すなわち、推定タスクの正解に対応する成分が含まれるようになる。

0020

第3訓練ステップでは、訓練データを第1符号器に与えることで第1メタ識別器から得られる識別の結果がメタデータに適合するように第1メタ識別器を訓練する。これに対して、第4訓練ステップでは、訓練データを第1符号器に与えることで第1メタ識別器から得られる識別の結果がメタデータに適合しないように第1符号器を訓練する。すなわち、第3訓練ステップ及び第4訓練ステップでは、第1符号器及び第1メタ識別器の敵対的学習を実施する。これにより、第1メタ識別器の識別性能が向上するのに対応して、この第1メタ識別器による識別が失敗するように、第1符号器により得られる第1特徴量には、訓練データの取得に関する属性に対応する成分が含まれないようになる。

0021

すなわち、当該構成に係る機械学習の結果、訓練データに含まれる特徴に関して、第2符号器の符号化により得られる第2特徴量には、メタデータに対応する成分が含まれやすくなるのに対して、第1符号器の符号化により得られる第1特徴量には、メタデータ以外の情報に対応する成分が含まれやすくなる。推定器は、この両方の特徴量から訓練データに含まれる特徴を推定するように訓練される。したがって、学習済みの第1符号器、第2符号器、及び推定器を利用することで、データを取得するドメインに特有の情報、及び共通の情報の両方に基づいて、データに含まれる特徴を推定するタスクを実行することができる。そのため、データを取得するドメインに特有の情報が推定タスクに有益であるケースで、学習済みのモデルによる推定の精度を高めることができる。

0022

また、データの取得に関する属性に特有の情報が推定タスクの精度に悪影響を及ぼす場合には、第2符号器により得られる第2特徴量は利用せずに、第1符号器により得られる第1特徴量に基づいて、データに含まれる特徴を推定するようにすればよい。これにより、推定タスクを実行する際に、メタデータに対応する成分の影響を除外することができる。そのため、データの取得に関する属性に特有の情報が推定タスクの精度に悪影響を及ぼすケース(例えば、データを取得するドメインに共通に現れる事象を推定するケース)でも、学習済みのモデルによる推定の精度を高めることができる。

0023

加えて、学習済みの第2符号器に入力データを入力することで、当該第2符号器から第2特徴量として得られる出力値は、当該入力データのドメイン(すなわち、データの取得に関する属性)を推定した結果に対応する。この推定の結果が正しければ、第2符号器から得られる出力値を第2メタ識別器に入力することで、第2メタ識別器から得られる出力値(メタデータの識別結果)は、入力データの取得に関する属性に適合する。そのため、未知のデータを第2符号器に入力し、第2メタ識別器から得られる識別の結果が未知のデータの取得に関する属性に適合しているか否かにより、上記学習済みのモデルにより推定タスクを適切に遂行可能か否か、を判定することができる。これにより、学習済みのモデルが適切に推定タスクを実行できない未知のデータが与えられているときに、この未知のデータに対して当該学習済みのモデルにより推定タスクを実行するのを避けることができる。また、異なるドメインのデータで学習済みの複数のモデルが存在する場合には、未知のデータに対して適切な学習済みのモデルを選択することができる。

0024

更に、当該構成では、第1符号器及び第2符号器の2つの符号器が用意される。第1符号器が、メタデータ以外の情報に対応する成分を含む特徴量(第1特徴量)を抽出する役割を果たす。第2符号器が、メタデータに対応する特徴量(第2特徴量)を抽出する役割を果たす。異なるドメインから得られたデータに第1符号器及び第2符号器を共通に利用することができる。そのため、当該構成によれば、データを取得するドメイン毎に抽出器を用意しなくてよい。

0025

したがって、当該構成によれば、データを取得するドメイン毎に学習済みの抽出器を用意する手間を省略することができる。また、データの取得に関する属性に特有の情報が推定タスクに有用なケース及び悪影響を及ぼすケースの両方で、比較的に高精度に推定タスクを実行可能な学習済みのモデルを構築することができる。更には、学習済みの第2符号器及び第2メタ識別器を利用することで、学習済みのモデルが未知のデータに対して適切に推定タスクを遂行可能か否か、を評価することができる。この評価の結果に基づいて、適切に推定タスクを遂行不能な未知のデータに対して学習済みのモデルが利用されるのを防止したり、未知のデータに適切な学習済みのモデルを選択したりすることができる。そのため、当該構成によれば、導入コストが比較的に低廉で、かつデータの取得に関する属性の相違にロバストな学習済みのモデルを構築することができる。

0026

なお、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器はそれぞれ、演算に利用される演算パラメータであって、機械学習により調整される演算パラメータを備える。このような第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器の種類はそれぞれ、機械学習可能なモデル(学習器)であれば、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器それぞれには、例えば、ニューラルネットワーク、サポートベクタマシン、回帰モデル、決定木モデル等が用いられてよい。第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器それぞれにニューラルネットワークが用いられる場合、各ニューロン間の結合の重み、各ニューロン閾値等が、上記演算パラメータの一例である。各特徴量データ形式は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。

0027

訓練データの種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。訓練データには、例えば、画像データ、音データ、数値データ、テキストデータ、その他センサにより得られる測定データ等が利用されてよい。センサは、例えば、画像センサ(カメラ)、赤外線センサ音センサマイクロフォン)、超音波センサ光センサ圧力センサ気圧センサ温度センサ等であってよい。また、センサは、例えば、環境センサバイタルセンサ車載センサホームセキュリティセンサ等であってよい。環境センサは、例えば、気圧計温度計湿度計音圧計、音センサ、紫外線センサ照度計雨量計ガスセンサ等であってよい。バイタルセンサは、例えば、血圧計脈拍計心拍計心電計筋電計体温計、皮膚電気反応計、マイクロ波センサ脳波計脳磁計活動量計血糖値測定器眼電位センサ、眼球運動計測器等であってよい。車載センサは、例えば、画像センサ、レーザセンサ、マイクロ波センサ等であってよい。ホームセキュリティセンサは、例えば、画像センサ、赤外線センサ、活性度音声)センサ、ガス(CO2等)センサ、電流センサスマートメータ家電照明等の電力使用量計測するセンサ)等であってよい。訓練データは、複数の異なる種類のデータにより構成されてよい。この場合、第1符号器及び第2符号器はそれぞれ、訓練データの種類毎に用意されてよい。すなわち、第1符号器及び第2符号器はそれぞれ複数の部分符号器を備えてよい。各部分符号器は、対応する種類の訓練データの入力を受け付けて、入力された対応する種類の訓練データを特徴量に変換するように構成されてよい。

0028

メタデータは、訓練データの取得に関する属性を示すように構成される。この訓練データの取得に関する属性は、訓練データを取得した何らかの条件を識別可能なあらゆる情報を含んでよい。例えば、当該訓練データの取得に関する属性は、訓練データを取得した時間に関する属性を含んでもよい。時間に関する属性は、例えば、時間帯種別曜日の種別、平日及び休日の別、月の種別、季節の種別等を含んでもよい。時間帯の種別は、、昼、夜等の区分により表現されてもよいし、7時から9時まで等のように所定の時間の区分により表現されてもよい。

0029

また、訓練データがセンサにより得られる場合、訓練データの取得に関する属性は、センサに関連するあらゆる種類の情報を含んでよい。例えば、訓練データの取得に関する属性は、センサの利用形態に関する属性、センサの仕様に関する属性、センサの観測環境に関する属性等を含んでもよい。センサの利用形態に関する属性は、例えば、センサの動作設定に関する属性、センサの設置状況に関する属性等を含んでもよい。センサの動作設定に関する属性は、例えば、計測範囲設定値、計測範囲の分解能の設定値、サンプリング周波数の設定値等を含んでもよい。センサの設置状況に関する属性は、例えば、センサの設置角度センサ周囲の温度、センサと観測対象との間の距離、センサの設置間隔等を含んでもよい。センサの仕様に関する属性は、例えば、センサの性能に関する属性、センサの機器情報に関する属性、センサの初期設置条件に関する属性等を含んでもよい。センサの性能に関する属性は、例えば、センサの感度限界ダイナミックレンジ空間分解能の設定可能範囲、サンプリング周波数の設定可能範囲等を含んでもよい。センサの機器情報に関する属性は、例えば、センサの種別、センサの名称、センサの説明等を含んでもよい。センサの初期設置条件に関する属性は、例えば、設置場所固有名詞等の情報を含んでもよい。センサの観測環境に関する属性は、例えば、場所、天候気温湿度照度等を含んでもよい。

0030

また、訓練データが対象物に対して得られる場合、訓練データの取得に関する属性は、当該対象物に関するあらゆる種類の情報を含んでもよい。訓練データがセンサにより得られる場合、センサによる観測対象が当該対象物であってよい。訓練データの取得に関する属性は、例えば、対象物の種別、対象物を識別するための識別情報等を含んでもよい。対象物が人物である場合、訓練データの取得に関する属性は、例えば、人物(被験者)の識別子、性別年齢体格人種等の識別情報(個人情報)を含んでもよい。また、訓練データが人物の何らかの行動に対して得られる場合には、訓練データの取得に関する属性は、人物の行動に関するあらゆる種類の情報を含んでもよい。

0031

正解データは、訓練データに含まれる特徴、すなわち、訓練データに対する推定タスクの正解を示すように構成される。訓練データに含まれる特徴は、分類、回帰等の推定(予測を含む)タスクの対象となり得るものであれば、その種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。特徴を推定することには、分類すること、回帰すること等が含まれてよい。特徴は、データから推定可能なあらゆる要素を含んでよい。特徴を推定することには、未来の何らかの要素を予測することが含まれてよい。この場合、特徴は、未来に現れる要素の予兆を含んでよい。正解データは、習得させる推定タスクに応じて適宜決定されてよい。正解データは、例えば、特徴のカテゴリを示す情報、特徴の表れる確率を示す情報、特徴の値を示す情報、特徴の写る範囲を示す情報等により構成されてよい。なお、第2訓練ステップ以外の訓練ステップでは、この正解データを含まない学習データセット、すなわち、正解データ及びメタデータの組み合わせにより構成された学習データセットが更に利用されてよい。

0032

上記一側面に係る学習装置において、前記複数の学習データセットに含まれる少なくとも1つ以上の第1の学習データセット、及び少なくとも1つ以上の第2の学習データセットは、それぞれの前記メタデータにより示される属性が相違するように異なるドメインから得られてよい。当該構成によれば、データの取得に関する属性の相違にロバストな学習済みのモデルを構築することができる。

0033

なお、異なるドメインとは、訓練データの取得に関する属性が相違することであり、メタデータが複数の属性を示す場合には、少なくとも一部の属性が相違することである。ドメインは、例えば、データを取得する条件等のデータの取得に関する属性を規定する。一例として、カメラによりデータを取得する場面を想定した場合、カメラの向き、カメラの解像度、環境の明るさ、撮影対象等の撮影条件が異なれば、訓練データの取得に関する属性が相違する。この場合、それぞれの撮影条件は異なるドメインの一例である。

0034

上記一側面に係る学習装置において、前記第1訓練ステップでは、前記第2符号器は、前記メタデータにより示される前記訓練データの取得に関する属性に対応する成分を前記第2特徴量が含むように訓練されてよく、第4訓練ステップでは、前記第1符号器は、前記各学習データセットの前記訓練データを取得するドメインに共通に現れる情報に対応する成分を前記第1特徴量が含むように訓練されてよい。当該構成によれば、データの取得に関する属性の相違にロバストな学習済みのモデルを構築することができる。なお、ドメインに共通に現れる情報とは、例えば、メタデータにより示される訓練データの取得に関する属性に依存しない情報である。一例として、異なる撮影条件及び背景数字撮影した画像データが与えられた場合、数字の種別は、ドメインに共通に現れる情報である。

0035

上記一側面に係る学習装置において、前記各訓練ステップでは、前記訓練データと共にノイズが前記各符号器に入力されて、各訓練が実行されてよい。複数の学習データセットのうちの一部の訓練データと他の訓練データとのランダム性が極めて相違する場合、又は他の訓練データに比べて一部の訓練データに大きな欠損が存在する場合、その相違の特性に対応する成分を第1特徴量に入らないようにするのは困難である。すなわち、その相違の特性を第1符号器に学習させないようにするのは困難である。そのため、これらの場合には、第1メタ識別器がその相違の特性から取得の属性を識別することができてしまい、第4訓練ステップにおいて、第1メタ識別器による識別が失敗するように第1符号器を訓練することが困難となってしまう可能性がある。これに対して、当該構成では、訓練データにと共にノイズを各符号器に入力するようにすることで、その相違の特性を埋めることができ、これによって、第4訓練ステップを適切に完了することができるようになる。したがって、当該構成によれば、上記のような訓練データが与えられた場合でも、データの取得に関する属性の相違にロバストな学習済みのモデルを構築することができる。

0036

上記一側面に係る学習装置において、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1符号器から前記第1特徴量として得られる出力値と前記訓練データを前記第2符号器に与えることで前記第2符号器から前記第2特徴量として得られる出力値との相互情報量が少なくなるように、前記第1符号器及び前記第2符号器を訓練する第5訓練ステップを更に含んでもよい。当該構成によれば、第5訓練ステップの成果により、メタデータに対応する成分は第2特徴量に含まれやすくなるのに対して、メタデータ以外の情報に対応する成分が、第1特徴量に更に含まれやすく、かつ第2特徴量に含まれ難くすることができる。これにより、メタデータに対応する成分及びそれ以外の情報に対応する成分を第2特徴量及び第1特徴量に適切に分配することができる。その結果、特に、データを取得するドメインに共通に現れる事象を第1特徴量から推定するケースで、学習済みのモデルによる推定の精度を高めることができる。

0037

上記一側面に係る学習装置において、前記第4訓練ステップでは、前記各学習データセットについて、前記メタデータに対応するダミーメタデータであって、対応する前記メタデータとは異なる値で構成されたダミーメタデータが取得されてよい。そして、前記識別の結果が前記メタデータに適合しないように前記第1符号器を訓練することは、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記ダミーメタデータに適合するように前記第1符号器を訓練することにより構成されてよい。当該構成によれば、第4訓練ステップの処理を簡易化することができる。

0038

上記一側面に係る学習装置において、前記ダミーメタデータは、対応する学習データセットとは異なる学習データセットのメタデータにより構成されてよい。当該構成によれば、ダミーメタデータを生成する計算量を抑えることができ、第4訓練ステップの処理コストを低減することができる。

0039

対象の学習データセットについて、ダミーメタデータとして利用するメタデータを取得する他の学習データセットを選択する方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、複数の学習データセットから他の学習データセットをランダムに選択し、選択された学習データセットのメタデータを対象の学習データセットのダミーメタデータとして利用してもよい。また、例えば、学習データセットの訓練データとメタデータとの対応関係を任意の方向にずらすことで、対象の学習データセットに割り当てられた他の学習データセットのメタデータをダミーメタデータとして利用してもよい。また、例えば、複数の学習データセットの中から1つの学習データセットを選択し、選択された学習データセットのメタデータを全ての学習データセットのダミーメタデータとして利用してもよい。

0040

なお、ダミーメタデータを生成する方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。この方法の他、例えば、ダミーメタデータは、メタデータの値を反転することで生成されてよい。また、例えば、ダミーメタデータは、メタデータの値とは相違するランダムな値(例えば、乱数)により構成されてよい。複数の学習データセットのうちダミーメタデータとメタデータとが一致する学習データセットが存在してもよい。この場合、当該学習データセットを訓練にそのまま利用してもよいし、当該学習データセットのダミーメタデータを変更するようにしてもよい。

0041

また、第1メタ識別器から得られる識別の結果がメタデータに適合しないように第1符号器を訓練する方法は、このダミーメタデータを与える方法に限られなくてもよい。例えば、第1メタ識別器の出力値とメタデータとの誤差が大きくなる方向の勾配を算出し、算出された勾配を逆伝播することで、第1符号器を訓練してもよい。

0042

上記一側面に係る学習装置において、前記学習モデルは、前記第1特徴量及び前記第2特徴量から前記入力データを復号化するように構成される復号器を更に含んでよい。前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第1符号器及び前記第2符号器に与えることで前記復号器により得られる復号化データが前記訓練データに適合するように、前記第1符号器、前記第2符号器及び前記復号器を訓練する第6訓練ステップを更に含んでよい。当該構成によれば、復号器の訓練により、第1特徴量及び第2特徴量から入力データを復元可能であることが保証される。すなわち、第1特徴量及び第2特徴量において、入力データに関する情報の欠損がないことを保証することができる。したがって、当該構成によれば、上記いずれのケースにおいても、特徴量に変換する過程で情報の欠損を抑えることができるため、データの取得に関する属性の相違にロバストで、高精度に推定タスクを遂行可能な学習済みのモデルを構築することができる。

0043

上記一側面に係る学習装置において、前記第1、第2、及び第6訓練ステップでは、前記訓練データを前記第2符号器に与えることで前記第2符号器から前記第2特徴量として出力値が取得され、取得された当該出力値と共にノイズが前記第2メタ識別器、前記推定器、及び前記復号器に入力されて、各訓練が実行されてよい。当該構成によれば、第2特徴量にノイズを付与した訓練を実施することで、データの取得に関する属性の相違するドメインを学習することができる。これにより、データの取得に関する属性の相違にロバストで、高精度に推定タスクを遂行可能な学習済みのモデルを構築することができる。なお、第2特徴量と共にノイズを入力する形態は、このような例に限定されなくてもよい。例えば、第1、第2、及び第6訓練ステップのうちの少なくともいずれかにおいて、ノイズの入力が省略されてもよい。

0044

上記一側面に係る学習装置において、前記データ取得部は、前記学習処理部が前記学習モデルの機械学習を実施した後に、前記複数の学習データセットのうちの少なくともいずれかの訓練データを前記第1符号器に与えることで前記第1符号器から前記第1特徴量として出力値を取得し、前記訓練データを前記第2符号器に与えることで前記第2符号器から前記第2特徴量として出力値を取得し、及び前記第1符号器から取得された前記出力値を前記復号器に入力し、かつ前記第2符号器から得られた前記出力値と共にノイズを前記復号器に入力することで、前記復号器から前記復号化データとして出力データを取得してもよい。前記学習処理部は、取得された前記出力データを新たな訓練データとして利用して、前記学習モデルの機械学習を再度実施してもよい。当該構成によれば、第2特徴量と共にノイズを入力することで得られた復号化データを新たな訓練データとして機械学習に使用することで、データの取得に関する属性の相違するドメインを学習することができる。これにより、データの取得に関する属性の相違にロバストで、高精度に推定タスクを遂行可能な学習済みのモデルを構築することができる。

0045

なお、新たな訓練データに関連付けられる正解データは適宜取得されてよい。例えば、正解データにより示される特徴が訓練データの取得に関する属性に依存しない場合、新たな訓練データの生成に利用した元の訓練データに関連付けられた正解データを新たな訓練データに関連付けてよい。また、例えば、推定器による推定の結果を正解データとして新たな訓練データに関連付けてもよい。また、例えば、新たな正解データを生成し、生成された新たな正解データを新たな訓練データに関連付けてもよい。同様に、新たな訓練データに関連付けるメタデータは適宜取得されてよい。例えば、第2特徴量と共にノイズを入力することで第2メタ識別器から得られた識別の結果をメタデータとして新たな訓練データとして関連付けてもよい。また、例えば、新たなメタデータを生成し、生成された新たなメタデータを新たな訓練データに関連付けてもよい。

0046

上記一側面に係る学習装置において、前記学習モデルは、前記第1符号器の出力値が入力され、前記第1特徴量から前記入力データに含まれる特徴を推定するように構成された他の推定器を更に含んでもよい。前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記他の推定器から得られる推定の結果が前記正解データ又は前記訓練データに含まれる他の特徴を示す他の正解データに適合するように、前記第1符号器及び前記他の推定器を訓練する第7訓練ステップを更に含んでもよい。当該構成によれば、第7訓練ステップの機械学習により、特徴の推定に利用可能な情報に対応する成分が第1特徴量に含まれることを保証することができる。これにより、特に、データを取得するドメインに共通に現れる事象を第1特徴量から推定するケースで、学習済みのモデルによる推定の精度を高めることができる。

0047

なお、学習済みの他の推定器は、第1特徴量に基づいて推定タスクを遂行するのに利用されてよい。他の正解データにより示される他の特徴は、正解データにより示される特徴とは別の特徴であって、ドメインに共通に現れる特徴であることが望ましい。他の推定器から得られる推定の結果が正解データに適合するように第1符号器及び他の推定器を訓練するケースでは、正解データにより示される特徴は、ドメインに共通に現れる特徴であることが望ましい。

0048

上記各側面に係る学習装置は、所定のデータに対して所定の推定タスクを行うための学習済みのモデルを構築するあらゆる場面に適用されてよい。上記各側面に係る学習装置は、例えば、道路の状況を観測するセンサにより得られたデータから当該道路の状況を推定するための学習済みのモデルを構築する場面、対象者の状態を観察するセンサにより得られたデータから当該対象者の状態を推定するための学習済みのモデルを構築する場面、カメラにより得られた画像データに写る人物の属性を推定するための学習済みのモデルを構築する場面、車載データにより得られるデータから車両に与える指令を推定するための学習済みのモデルを構築する場面、顧客情報からレコメンドの的中率を推定するための学習済みのモデルを構築する場面、画像データに写る製品の状態を推定するための学習済みのモデルを構築する場面等に適用されてよい。

0049

例えば、上記一側面に係る学習装置において、前記訓練データは、道路を走行する車両を観察するセンサにより得られたセンシングデータであってよい。前記メタデータは、前記取得に関する属性として、前記道路の属性、前記センサの観察角度、前記センサの設置間隔、前記センサの種類又はこれらの組み合わせを示してよい。前記正解データは、前記特徴として、前記道路の交通状況に関する情報を示してよい。当該構成によれば、道路を観察するセンサにより得られたセンシングデータから道路の交通状況を推定する場面において、データの取得に関する属性の相違にロバストな学習済みのモデルを構築することができる。

0050

また、例えば、上記一側面に係る学習装置において、前記訓練データは、被験者の状態を観察するセンサにより得られたセンシングデータであってよい。前記メタデータは、前記取得に関する属性として、前記被験者の識別情報、前記センシングデータを取得した時間に関する属性、前記センサの設置状況に関する属性、前記センサの設置場所、又はこれらの組み合わせを示してよい。前記正解データは、前記特徴として、前記被験者の状態を示してよい。当該構成によれば、対象者の状態を観察するセンサにより得られたセンシングデータから当該対象者の状態を推定するための学習済みのモデルを構築する場面において、データの取得に関する属性の相違にロバストな学習済みのモデルを構築することができる。

0051

また、例えば、上記一側面に係る学習装置において、前記訓練データは、製品の写る画像データであってよい。前記メタデータは、製品の属性、製品の撮影条件、製品を製造する工場の属性又はこれらの組み合わせを示してもよい。前記正解データは、前記特徴として、製品の状態を示してもよい。当該構成によれば、画像データに写る製品の状態を推定するための学習済みのモデルを構築する場面において、データの取得に関する属性の相違にロバストな学習済みのモデルを構築することができる。

0052

なお、画像データに写る製品は、例えば、電子機器電子部品自動車部品薬品食品等の製造ラインで搬送される製品であってよい。電子部品は、例えば、基盤チップコンデンサ液晶リレー巻線等であってよい。自動車部品は、例えば、コンロッドシャフトエンジンブロックパワーウィンドウスイッチパネル等であってよい。薬品は、例えば、包装済み錠剤、未包装の錠剤等であってよい。製品は、製造過程完了後に生成される最終品であってもよいし、製造過程の途中で生成される中間品であってもよいし、製造過程を経過する前に用意される初期品であってもよい。製品の状態は、例えば、欠陥に関するものであってよい。この場合、製品の状態は、製品に欠陥が含まれるか否か、製品に含まれる欠陥の種類、製品に含まれる欠陥の範囲又はこれらの組み合わせにより表現されてよい。これに応じて、特徴は、例えば、傷、汚れクラック打痕バリ色ムラ異物混入等の製品の欠陥に関するものであってよい。

0053

また、本発明の一側面に係る学習装置は、画像データ、前記画像データの取得に関する属性を示すメタデータ、及び前記画像データに含まれる特徴を示す正解データの組み合わせによりそれぞれ構成される複数の学習データセットを取得するデータ取得部と、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器を含む学習モデルの機械学習を実施する学習処理部であって、前記第1符号器は、与えられた入力データを第1特徴量に変換するように構成され、前記第2符号器は、前記入力データを第2特徴量に変換するように構成され、前記第1メタ識別器は、前記第1符号器の出力値が入力され、前記入力データの取得に関する属性を前記第1特徴量から識別するように構成され、前記第2メタ識別器は、前記第2符号器の出力値が入力され、前記入力データの取得に関する属性を前記第2特徴量から識別するように構成され、前記推定器は、前記第1符号器及び前記第2符号器の出力値が入力され、前記第1特徴量及び前記第2特徴量から前記入力データに含まれる特徴を推定するように構成され、前記機械学習を実施することは、前記各学習データセットについて、前記画像データを前記第2符号器に与えることで前記第2メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第2符号器及び前記第2メタ識別器を訓練する第1訓練ステップ、前記各学習データセットについて、前記画像データを前記第1符号器及び前記第2符号器に与えることで前記推定器から得られる推定の結果が前記正解データに適合するように、前記第1符号器、前記第2符号器及び前記推定器を訓練する第2訓練ステップ、前記各学習データセットについて、前記画像データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第1メタ識別器を訓練する第3訓練ステップ、並びに、前記各学習データセットについて、前記画像データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合しないように、前記第1符号器を訓練する第4訓練ステップ、を含み、前記第3訓練ステップ及び前記第4訓練ステップを交互に繰り返し実行する、学習処理部と、を備える。

0054

また、本発明の一側面に係る学習装置は、センシングデータ、前記センシングデータの取得に関する属性を示すメタデータ、及び前記センシングデータに含まれる特徴を示す正解データの組み合わせによりそれぞれ構成される複数の学習データセットを取得するデータ取得部と、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器を含む学習モデルの機械学習を実施する学習処理部であって、前記第1符号器は、与えられた入力データを第1特徴量に変換するように構成され、前記第2符号器は、前記入力データを第2特徴量に変換するように構成され、前記第1メタ識別器は、前記第1符号器の出力値が入力され、前記入力データの取得に関する属性を前記第1特徴量から識別するように構成され、前記第2メタ識別器は、前記第2符号器の出力値が入力され、前記入力データの取得に関する属性を前記第2特徴量から識別するように構成され、前記推定器は、前記第1符号器及び前記第2符号器の出力値が入力され、前記第1特徴量及び前記第2特徴量から前記入力データに含まれる特徴を推定するように構成され、前記機械学習を実施することは、前記各学習データセットについて、前記センシングデータを前記第2符号器に与えることで前記第2メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第2符号器及び前記第2メタ識別器を訓練する第1訓練ステップ、前記各学習データセットについて、前記センシングデータを前記第1符号器及び前記第2符号器に与えることで前記推定器から得られる推定の結果が前記正解データに適合するように、前記第1符号器、前記第2符号器及び前記推定器を訓練する第2訓練ステップ、前記各学習データセットについて、前記センシングデータを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第1メタ識別器を訓練する第3訓練ステップ、並びに、前記各学習データセットについて、前記センシングデータを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合しないように、前記第1符号器を訓練する第4訓練ステップ、を含み、前記第3訓練ステップ及び前記第4訓練ステップを交互に繰り返し実行する、学習処理部と、を備える。

0055

また、本発明の形態は、上記学習装置に限られなくてもよい。本発明の一側面は、上記学習装置により構築された学習済みの学習モデルを利用する装置であってもよい。例えば、本発明の一側面は、上記学習装置により構築された学習済みの学習モデルを利用して、所定のデータに対して所定の推定タスクを実行するように構成された推定装置であってもよい。この推定装置は、適用場面における推定タスクの種類に応じて、予測装置監視装置診断装置検査装置等の称されてよい。また、例えば、本発明の一側面は、上記学習装置により構築された復号器を含む学習済みの学習モデルを利用して、新たなデータを生成するように構成されたデータ生成装置であってもよい。

0056

例えば、本発明の一側面に係る推定装置は、対象データを取得するデータ取得部と、上記いずれかの側面に係る学習装置により訓練された前記第1符号器、前記第2符号器、及び前記推定器を利用して、取得された対象データに含まれる特徴を推定する推定部と、前記特徴を推定した結果に関する情報を出力する出力部と、を備える。

0057

また、例えば、本発明の一側面に係る推定装置は、対象データを取得するデータ取得部と、上記一側面に係る学習装置により訓練された前記第1符号器及び前記他の推定器を利用して、取得された対象データに含まれる特徴を推定する推定部と、前記特徴を推定した結果に関する情報を出力する出力部と、を備える。なお、他の推定器は、学習装置による学習装置の機械学習とは無関係に構築された学習済みの推定器に置き換えられてもよい。

0058

また、上記一側面に係る推定装置は、前記学習装置により訓練された前記第2符号器及び前記第2メタ識別器を利用して、前記対象データの取得に関する属性を識別し、当該識別の結果に基づいて、前記特徴を推定した結果を採用するか否かを判定する評価部を更に備えてもよい。なお、推定した結果を採用しないことは、推定部による推定処理を実行した後、当該推定の結果を破棄すること、及び推定処理を実行しないことを含んでよい。

0059

また、例えば、本発明の一側面に係る推定装置は、対象画像データを取得するデータ取得部と、上記いずれかの側面に係る学習装置により訓練された前記第1符号器、前記第2符号器、及び前記推定器を利用して、取得された対象画像データに含まれる特徴を推定する推定部と、前記特徴を推定した結果に関する情報を出力する出力部と、を備える。

0060

また、例えば、本発明の一側面に係る推定装置は、対象画像データを取得するデータ取得部と、上記一側面に係る学習装置により訓練された前記第1符号器及び前記他の推定器を利用して、取得された対象画像データに含まれる特徴を推定する推定部と、前記特徴を推定した結果に関する情報を出力する出力部と、を備える。他の推定器は、学習装置による学習装置の機械学習とは無関係に構築された学習済みの推定器に置き換えられてもよい。

0061

また、上記一側面に係る推定装置は、前記学習装置により訓練された前記第2符号器及び前記第2メタ識別器を利用して、前記対象画像データの取得に関する属性を識別し、当該識別の結果に基づいて、前記特徴を推定した結果を採用するか否かを判定する評価部を更に備えてもよい。なお、推定した結果を採用しないことは、推定部による推定処理を実行した後、当該推定の結果を破棄すること、及び推定処理を実行しないことを含んでよい。

0062

また、例えば、本発明の一側面に係る推定装置は、対象センシングデータを取得するデータ取得部と、上記いずれかの側面に係る学習装置により訓練された前記第1符号器、前記第2符号器、及び前記推定器を利用して、取得された対象センシングデータに含まれる特徴を推定する推定部と、前記特徴を推定した結果に関する情報を出力する出力部と、を備える。

0063

また、例えば、本発明の一側面に係る推定装置は、対象センシングデータを取得するデータ取得部と、上記一側面に係る学習装置により訓練された前記第1符号器及び前記他の推定器を利用して、取得された対象センシングデータに含まれる特徴を推定する推定部と、前記特徴を推定した結果に関する情報を出力する出力部と、を備える。他の推定器は、学習装置による学習装置の機械学習とは無関係に構築された学習済みの推定器に置き換えられてもよい。

0064

また、上記一側面に係る推定装置は、前記学習装置により訓練された前記第2符号器及び前記第2メタ識別器を利用して、前記対象センシングデータの取得に関する属性を識別し、当該識別の結果に基づいて、前記特徴を推定した結果を採用するか否かを判定する評価部を更に備えてもよい。なお、推定した結果を採用しないことは、推定部による推定処理を実行した後、当該推定の結果を破棄すること、及び推定処理を実行しないことを含んでよい。

0065

また、例えば、本発明の一側面に係るデータ生成装置は、対象データを取得するデータ取得部と、上記一側面に係る学習装置により訓練された前記第1符号器に前記対象データを与えることで前記第1符号器から前記第1特徴量として出力値を取得し、訓練された前記復号器を利用して、前記第2符号器から取得される出力値を与えずに、前記第1符号器から取得された前記出力値から前記対象データを復号化することで、復号化データを生成するデータ生成部と、生成された前記復号化データを所定の記憶領域に保存する保存処理部と、を備える。

0066

また、例えば、本発明の一側面に係るデータ生成装置は、対象画像データを取得するデータ取得部と、上記一側面に係る学習装置により訓練された前記第1符号器に前記対象画像データを与えることで前記第1符号器から前記第1特徴量として出力値を取得し、訓練された前記復号器を利用して、前記第2符号器から取得される出力値を与えずに、前記第1符号器から取得された前記出力値から前記対象画像データを復号化することで、復号化データを生成するデータ生成部と、生成された前記復号化データを所定の記憶領域に保存する保存処理部と、を備える。

0067

また、例えば、本発明の一側面に係るデータ生成装置は、対象センシングデータを取得するデータ取得部と、上記一側面に係る学習装置により訓練された前記第1符号器に前記対象センシングデータを与えることで前記第1符号器から前記第1特徴量として出力値を取得し、訓練された前記復号器を利用して、前記第2符号器から取得される出力値を与えずに、前記第1符号器から取得された前記出力値から前記対象センシングデータを復号化することで、復号化データを生成するデータ生成部と、生成された前記復号化データを所定の記憶領域に保存する保存処理部と、を備える。

0068

また、上記各形態に係る学習装置、推定装置、及びデータ利用装置それぞれの別の態様として、本発明の一側面は、以上の各構成の全部又はその一部を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記憶した、コンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記憶媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、本発明の一側面は、上記いずれかの形態に係る学習装置と、いずれかの形態に係る推定装置及びデータ生成装置の少なくともいずれかとにより構成されるシステムであってよい。

0069

例えば、本発明の一側面に係る学習方法は、コンピュータが、訓練データ、前記訓練データの取得に関する属性を示すメタデータ、及び前記訓練データに含まれる特徴を示す正解データの組み合わせによりそれぞれ構成される複数の学習データセットを取得するステップと、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器を含む学習モデルの機械学習を実施するステップであって、前記第1符号器は、与えられた入力データを第1特徴量に変換するように構成され、前記第2符号器は、前記入力データを第2特徴量に変換するように構成され、前記第1メタ識別器は、前記第1符号器の出力値が入力され、前記入力データの取得に関する属性を前記第1特徴量から識別するように構成され、前記第2メタ識別器は、前記第2符号器の出力値が入力され、前記入力データの取得に関する属性を前記第2特徴量から識別するように構成され、前記推定器は、前記第1符号器及び前記第2符号器の出力値が入力され、前記第1特徴量及び前記第2特徴量から前記入力データに含まれる特徴を推定するように構成され、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第2符号器に与えることで前記第2メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第2符号器及び前記第2メタ識別器を訓練する第1訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器及び前記第2符号器に与えることで前記推定器から得られる推定の結果が前記正解データに適合するように、前記第1符号器、前記第2符号器及び前記推定器を訓練する第2訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第1メタ識別器を訓練する第3訓練ステップ、並びに、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合しないように、前記第1符号器を訓練する第4訓練ステップ、を含み、前記第3訓練ステップ及び前記第4訓練ステップを交互に繰り返し実行する、ステップと、を実行する、情報処理方法である。

0070

また、例えば、本発明の一側面に係る学習プログラムは、コンピュータに、訓練データ、前記訓練データの取得に関する属性を示すメタデータ、及び前記訓練データに含まれる特徴を示す正解データの組み合わせによりそれぞれ構成される複数の学習データセットを取得するステップと、第1符号器、第2符号器、第1メタ識別器、第2メタ識別器、及び推定器を含む学習モデルの機械学習を実施するステップであって、前記第1符号器は、与えられた入力データを第1特徴量に変換するように構成され、前記第2符号器は、前記入力データを第2特徴量に変換するように構成され、前記第1メタ識別器は、前記第1符号器の出力値が入力され、前記入力データの取得に関する属性を前記第1特徴量から識別するように構成され、前記第2メタ識別器は、前記第2符号器の出力値が入力され、前記入力データの取得に関する属性を前記第2特徴量から識別するように構成され、前記推定器は、前記第1符号器及び前記第2符号器の出力値が入力され、前記第1特徴量及び前記第2特徴量から前記入力データに含まれる特徴を推定するように構成され、前記機械学習を実施することは、前記各学習データセットについて、前記訓練データを前記第2符号器に与えることで前記第2メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第2符号器及び前記第2メタ識別器を訓練する第1訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器及び前記第2符号器に与えることで前記推定器から得られる推定の結果が前記正解データに適合するように、前記第1符号器、前記第2符号器及び前記推定器を訓練する第2訓練ステップ、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合するように、前記第1メタ識別器を訓練する第3訓練ステップ、並びに、前記各学習データセットについて、前記訓練データを前記第1符号器に与えることで前記第1メタ識別器から得られる識別の結果が前記メタデータに適合しないように、前記第1符号器を訓練する第4訓練ステップ、を含み、前記第3訓練ステップ及び前記第4訓練ステップを交互に繰り返し実行する、ステップと、を実行させるための、プログラムである。

発明の効果

0071

本発明によれば、導入コストが比較的に低廉で、かつデータの取得に関する属性の相違にロバストな学習済みのモデルを構築することができる。

図面の簡単な説明

0072

図1は、本発明が適用される場面の一例を模式的に例示する。
図2は、実施の形態に係る学習装置のハードウェア構成の一例を模式的に例示する。
図3は、実施の形態に係る推定装置のハードウェア構成の一例を模式的に例示する。
図4は、実施の形態に係るデータ生成装置のハードウェア構成の一例を模式的に例示する。
図5Aは、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。
図5Bは、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。
図5Cは、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。
図5Dは、実施の形態に係る学習装置のソフトウェア構成の一例を模式的に例示する。
図6は、実施の形態に係る推定装置のソフトウェア構成の一例を模式的に例示する。
図7は、実施の形態に係るデータ生成装置のソフトウェア構成の一例を模式的に例示する。
図8は、実施の形態に係る学習装置の処理手順の一例を例示する。
図9は、実施の形態に係る学習装置の機械学習の処理手順の一例を例示する。
図10は、実施の形態に係る推定装置の処理手順の一例を例示する。
図11は、実施の形態に係るデータ生成装置の処理手順の一例を例示する。
図12は、本発明が適用される他の場面の一例を模式的に例示する。
図13Aは、他の形態に係る予測装置のハードウェア構成の一例を模式的に例示する。
図13Bは、他の形態に係る予測装置のソフトウェア構成の一例を模式的に例示する。
図14は、本発明が適用される他の場面の一例を模式的に例示する。
図15Aは、他の形態に係る監視装置のハードウェア構成の一例を模式的に例示する。
図15Bは、他の形態に係る監視装置のソフトウェア構成の一例を模式的に例示する。
図16は、本発明が適用される他の場面の一例を模式的に例示する。
図17は、本発明が適用される他の場面の一例を模式的に例示する。
図18Aは、他の形態に係る検査装置のハードウェア構成の一例を模式的に例示する。
図13Bは、他の形態に係る検査装置のソフトウェア構成の一例を模式的に例示する。
図19は、本発明が適用される他の場面の一例を模式的に例示する。
図20Aは、他の形態に係る監視装置のハードウェア構成の一例を模式的に例示する。
図20Bは、他の形態に係る監視装置のソフトウェア構成の一例を模式的に例示する。
図21は、本発明が適用される他の場面の一例を模式的に例示する。
図22Aは、他の形態に係る監視装置のハードウェア構成の一例を模式的に例示する。
図22Bは、他の形態に係る監視装置のソフトウェア構成の一例を模式的に例示する。
図23は、本発明が適用される他の場面の一例を模式的に例示する。
図24Aは、他の形態に係る推奨装置のハードウェア構成の一例を模式的に例示する。
図24Bは、他の形態に係る推奨装置のソフトウェア構成の一例を模式的に例示する。

実施例

0073

以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータマシン語等で指定される。

0074

§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本発明を適用した場面の一例を模式的に例示する。

0075

図1に示されるとおり、本実施形態に係るシステムは、学習装置1、推定装置2、及びデータ生成装置3を備えている。学習装置1及び推定装置2により、学習モデル5の機械学習を実施し、当該機械学習の成果を利用して、対象データに含まれる特徴を推定する推定システムが構成される。また、学習装置1及びデータ生成装置3により、学習モデル5の機械学習を実施し、当該機械学習の成果を利用して、対象データに関連する新たなデータを生成するデータ生成システムが構成される。

0076

本実施形態に係る学習装置1は、学習モデル5の機械学習を実施するように構成されたコンピュータである。具体的に、本実施形態に係る学習装置1は、複数の学習データセット121を取得する。各学習データセット121は、訓練データ122、当該訓練データ122の取得に関する属性を示すメタデータ123、及び当該訓練データ122に含まれる特徴(すなわち、当該訓練データ122に対する推定タスクの正解)を示す正解データ124の組み合わせにより構成される。

0077

訓練データ122の種類は、特に限定されなくてもよく、学習モデル5に習得させる推定タスクに応じて適宜選択されてよい。訓練データ122には、例えば、画像データ、音データ、数値データ、テキストデータ、その他センサにより得られる測定データ等であってよい。図1の例では、センサSにより得られるセンシングデータに含まれる特徴を推定する能力を学習モデル5に習得させる場面が想定されている。そのため、本実施形態では、訓練データ122は、センサS又はこれと同種のセンサ(以下、同種のセンサを含んでセンサSと称する)により得られるセンシングデータである。

0078

センサSの種類は、特に限定されなくてもよく、学習モデル5に習得させる推定タスクに応じて適宜選択されてよい。センサSは、例えば、画像センサ(カメラ)、赤外線センサ、音センサ(マイクロフォン)、超音波センサ、光センサ、圧力センサ、気圧センサ、温度センサ等であってよい。また、センサSは、例えば、環境センサ、バイタルセンサ、車載センサ、ホームセキュリティセンサ等であってよい。環境センサは、例えば、気圧計、温度計、湿度計、音圧計、音センサ、紫外線センサ、照度計、雨量計、ガスセンサ等であってよい。バイタルセンサは、例えば、血圧計、脈拍計、心拍計、心電計、筋電計、体温計、皮膚電気反応計、マイクロ波センサ、脳波計、脳磁計、活動量計、血糖値測定器、眼電位センサ、眼球運動計測器等であってよい。車載センサは、例えば、画像センサ、レーザセンサ、マイクロ波センサ等であってよい。ホームセキュリティセンサは、例えば、画像センサ、赤外線センサ、活性度(音声)センサ、ガス(CO2等)センサ、電流センサ、スマートメータ(家電、照明等の電力使用量を計測するセンサ)等であってよい。

0079

メタデータ123は、訓練データ122の取得に関する属性を示すように構成される。この訓練データ122の取得に関する属性は、訓練データ122を取得した何らかの条件を識別可能なあらゆる情報を含んでよい。例えば、当該訓練データ122の取得に関する属性は、訓練データ122を取得した時間に関する属性を含んでもよい。時間に関する属性は、例えば、時間帯の種別、曜日の種別、平日及び休日の別、月の種別、季節の種別等を含んでもよい。時間帯の種別は、朝、昼、夜等の区分により表現されてもよいし、7時から9時まで等のように所定の時間の区分により表現されてもよい。

0080

また、本実施形態では、訓練データ122は、センサSにより得られるため、訓練データ122の取得に関する属性は、センサSに関連するあらゆる種類の情報を含んでよい。例えば、訓練データ122の取得に関する属性は、センサSの利用形態に関する属性、センサSの仕様に関する属性、センサSの観測環境に関する属性等を含んでもよい。センサSの利用形態に関する属性は、例えば、センサSの動作設定に関する属性、センサSの設置状況に関する属性等を含んでもよい。センサSの動作設定に関する属性は、例えば、計測範囲の設定値、計測範囲の分解能の設定値、サンプリング周波数の設定値等を含んでもよい。センサSの設置状況に関する属性は、例えば、センサSの設置角度、センサSの周囲の温度、センサSと観測対象との間の距離、センサSの設置間隔等を含んでもよい。センサSの仕様に関する属性は、例えば、センサSの性能に関する属性、センサSの機器情報に関する属性、センサSの初期設置条件に関する属性等を含んでもよい。センサSの性能に関する属性は、例えば、センサSの感度限界、ダイナミックレンジ、空間分解能の設定可能範囲、サンプリング周波数の設定可能範囲等を含んでもよい。センサSの機器情報に関する属性は、例えば、センサSの種別、センサSの名称、センサSの説明等を含んでもよい。センサSの初期設置条件に関する属性は、例えば、設置場所の固有名詞等の情報を含んでもよい。センサSの観測環境に関する属性は、例えば、場所、天候、気温、湿度、照度等を含んでもよい。

0081

また、訓練データ122が何らかの対象物に対して得られる場合、訓練データ122の取得に関する属性は、当該対象物に関するあらゆる種類の情報を含んでもよい。本実施形態では、センサSによる観察対象が当該対象物であってよい。訓練データ122の取得に関する属性は、例えば、対象物の種別、対象物を識別するための識別情報等を含んでもよい。対象物が人物である場合、訓練データ122の取得に関する属性は、例えば、人物(被験者)の識別子、性別、年齢、体格、人種等の識別情報(個人情報)を含んでもよい。また、訓練データ122が人物の何らかの行動に対して得られる場合には、訓練データ122の取得に関する属性は、人物の行動に関するあらゆる種類の情報を含んでもよい。

0082

正解データ124は、訓練データ122に含まれる特徴、すなわち、訓練データ122に対する推定タスクの正解を示すように構成される。訓練データ122に含まれる特徴は、分類、回帰等の推定(予測を含む)タスクの対象となり得るものであれば、その種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。特徴を推定することには、分類すること、回帰すること等が含まれてよい。特徴は、データから推定可能なあらゆる要素を含んでよい。特徴を推定することには、未来の何らかの要素を予測することが含まれてよい。この場合、特徴は、未来に現れる要素の予兆を含んでよい。正解データ124は、習得させる推定タスクに応じて適宜決定されてよい。正解データ124は、例えば、特徴のカテゴリを示す情報、特徴の表れる確率を示す情報、特徴の値を示す情報、特徴の写る範囲を示す情報等により構成されてよい。

0083

一例として、道路の交通状況を予測する場面では、センサSには、道路を走行する車両を観察するセンサとして、カメラ、超音波センサ、赤外線センサ等が用いられてよい。これに応じて、訓練データ122は、画像データ、単位時間当たりの車両の通過台数の計測結果を示すデータ、平均速度の計測結果を示すデータ等であってよい。メタデータ123は、道路の属性、センサSの観察角度、センサSの設置間隔、センサSの種類等を示す情報により構成されてよい。道路の属性は、例えば、直線道路であるか否か、曲がり道であるか否か、有料道路料金所があるか否か、合流点であるか否か、分岐点であるか否か等により示されてよい。正解データ124は、道路の交通状況に関する情報により構成されてよい。交通状況は、訓練データ122により現れる現在のものであってもよいし、未来のものであってもよい。道路の交通状況に関する情報は、例えば、渋滞発生の有無、渋滞発生の確率、発生した渋滞の継続時間、センサSの設置場所から所定の場所までの所要時間等により表現されてよい。渋滞発生の有無は、所定時間後に渋滞が発生するか否かにより表現されてもよい。

0084

本実施形態に係る学習装置1は、取得された複数の学習データセット121を使用して、学習モデル5の機械学習を実施する。本実施形態では、学習モデル5は、第1符号器51、第2符号器52、第1メタ識別器53、第2メタ識別器54、及び推定器55を含んでいる。第1符号器51は、与えられた入力データを第1特徴量に変換するように構成される。第2符号器52は、与えられた入力データを第2特徴量に変換するように構成される。各特徴量のデータ形式は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。第1メタ識別器53は、第1符号器51の出力値(第1特徴量)が入力され、入力された第1特徴量から入力データの取得に関する属性を識別するように構成される。第2メタ識別器54は、第2符号器52の出力値(第2特徴量)が入力され、入力された第2特徴量から入力データの取得に関する属性を識別するように構成される。推定器55は、第1符号器51及び第2符号器52の出力値(第1特徴量及び第2特徴量)が入力され、入力された第1特徴量及び第2特徴量から入力データに含まれる特徴を推定するように構成される。

0085

本実施形態では、機械学習を実施することは、第1〜第4訓練ステップを含む。第1訓練ステップでは、学習装置1は、各学習データセット121について、訓練データ122を第2符号器52に与えることで第2メタ識別器54から得られる識別の結果がメタデータ123に適合するように、第2符号器52及び第2メタ識別器54を訓練する。第2訓練ステップでは、学習装置1は、各学習データセット121について、訓練データ122を第1符号器51及び第2符号器52に与えることで推定器55から得られる推定の結果が正解データ124に適合するように、第1符号器51、第2符号器52及び推定器55を訓練する。

0086

第3訓練ステップでは、学習装置1は、各学習データセット121について、訓練データ122を第1符号器51に与えることで第1メタ識別器53から得られる識別の結果がメタデータ123に適合するように、第1メタ識別器53を訓練する。第4訓練ステップでは、学習装置1は、各学習データセット121について、訓練データ122を第1符号器51に与えることで第1メタ識別器53から得られる識別の結果がメタデータ123に適合しないように、第1符号器51を訓練する。学習装置1は、第3訓練ステップ及び第4訓練ステップを交互に繰り返し実行する。なお、以下、説明の便宜上、各メタ識別器(53、54)により得られる識別の結果を「メタ識別」とも記載する。

0087

本実施形態に係る推定装置2は、学習済みの学習モデル5を利用して、対象データに対して推定タスクを遂行するように構成されたコンピュータである。本実施形態では、推定装置2には、センサSが接続されている。推定装置2は、センサSから対象データを取得する。推定装置2は、学習済みの学習モデル5を利用して、取得された対象データに含まれる特徴を推定する。そして、推定装置2は、推定の結果に関する情報を出力する。

0088

本実施形態に係るデータ生成装置3は、学習済みの学習モデル5を利用して、対象データに関連する新たなデータを生成するように構成されたコンピュータである。本実施形態では、データ生成装置3には、センサSが接続されている。データ生成装置3は、センサSから対象データを取得する。データ生成装置3は、学習済みの学習モデル5を利用して、取得された対象データに関連する新たなデータを生成する。新たなデータは、取得された対象データから抽出された第1特徴量及び第2特徴量の少なくともいずれかであってよい。また、新たなデータは、後述する復号器により生成された復号化データであってもよい。データ生成装置3は、生成された新たなデータを所定の記憶領域に保存する。

0089

以上のとおり、本実施形態では、学習装置1の第1訓練ステップにより、訓練データ122の取得に関する属性を第2メタ識別器54が適切に識別可能となるように、学習済みの第2符号器52により得られる第2特徴量には、当該取得に関する属性に対応する成分が含まれるようになる。また、第2訓練ステップにより、学習済みの第1符号器51及び第2符号器52により得られる第1特徴量及び第2特徴量には、訓練データ122に含まれる特徴(すなわち、推定タスクの正解)に対応する成分が含まれるようになる。更に、本実施形態では、第3訓練ステップ及び第4訓練ステップにより、第1符号器51及び第1メタ識別器53の敵対的学習を実施する。これにより、第1メタ識別器53の識別性能が向上するのに対応して、この第1メタ識別器53による識別が失敗するように、学習済みの第1符号器51により得られる第1特徴量には、訓練データ122の取得に関する属性に対応する成分が含まれないようになる。

0090

すなわち、本実施形態では、上記機械学習の結果、訓練データ122に含まれる特徴に関して、学習済みの第2符号器52の符号化により得られる第2特徴量には、メタデータ123に対応する成分が含まれやすくなる。これに対して、学習済みの第1符号器51により得られる第1特徴量には、訓練データ122に含まれる特徴に関する、メタデータ123以外の情報に対応する成分が含まれやすくなる。推定器55は、この両方の特徴量から訓練データ122に含まれる特徴を推定するように訓練される。一例として、上記道路の交通状況を予測する場面では、第1特徴量は、ドメインに共通の情報として、スポット的に発生する交通流の数及びその増減変化傾向に対応する成分を含むようになる。一方、第2特徴量は、ドメインに特有の情報として、定常的に表れる地形起因の交通流の傾向、及び複数の地点で共起する交通流の傾向に対応する成分を含むようになる。推定器55は、これら両方の情報に基づいて、渋滞発生の確率、渋滞の有無等を推定するタスクを遂行することができる。したがって、本実施形態に係る推定装置2では、学習済みの第1符号器51、第2符号器52、及び推定器55を利用することで、対象データを取得するドメインに特有の情報、及び共通の情報の両方に基づいて、対象データに含まれる特徴を推定するタスクを実行することができる。そのため、対象データを取得するドメインに特有の情報が推定タスクに有益であるケースで、対象データに含まれる特徴を推定する精度を高めることができる。

0091

また、対象データの取得に関する属性に特有の情報が推定タスクの精度に悪影響を及ぼす場合、推定装置2は、学習済みの第2符号器52により得られる第2特徴量は利用せずに、学習済みの第1符号器51により得られる第1特徴量に基づいて、対象データに含まれる特徴を推定することができる。これにより、推定タスクを実行する際に、対象データの取得に関する属性に対応する成分の影響を除外することができる。そのため、対象データの取得に関する属性の情報が推定タスクの精度に悪影響を及ぼすケースにおいても、対象データに含まれる特徴を推定する精度を高めることができる。

0092

加えて、学習済みの第2符号器52に入力データを入力することで、当該第2符号器52から第2特徴量として得られる出力値は、当該入力データのドメイン(すなわち、入力データの取得に関する属性)を推定した結果に対応する。この推定の結果が正しければ、第2符号器52から得られる出力値を学習済みの第2メタ識別器54に入力することで、当該第2メタ識別器54から得られる出力値(すなわち、メタ識別の結果)は、入力データの取得に関する属性に適合する。そのため、本実施形態に係る推定装置2では、対象データを第2符号器52に入力し、第2メタ識別器54から得られるメタ識別の結果が対象データの取得に関する属性に適合しているか否かにより、当該対象データに対して学習済みの学習モデル5が推定タスクを適切に遂行可能か否か、を判定することができる。これにより、学習済みの学習モデル5が適切に推定タスクを遂行できない対象データが与えられているときに、この対象データに対して推定タスクを遂行するのを避けることができる。また、異なるドメインから得られた学習データセットにより学習済みの複数の学習モデル5が存在する場合には、対象データに対して適切な学習済みの学習モデル5を選択することができる。

0093

更に、本実施形態では、第1符号器51及び第2符号器52の2つの符号器が用意される。第1符号器51が、データの取得に関する属性以外の情報に対応する成分を含む特徴量(第1特徴量)を抽出する役割を果たす。第2符号器52が、データの取得に関する属性に対応する特徴量(第2特徴量)を抽出する役割を果たす。異なるドメインから得られた対象データに第1符号器51及び第2符号器52を共通に利用することができる。そのため、本実施形態では、対象データを取得するドメイン毎に抽出器を用意しなくてもよい。

0094

したがって、本実施形態によれば、対象データを取得するドメイン毎に学習済みの抽出器を用意する手間を省略することができる。また、対象データの取得に関する属性に特有の情報が推定タスクに有用なケース及び悪影響を及ぼすケースの両方で、比較的に高精度に推定タスクを実行可能な学習済みの学習モデル5を構築することができる。更には、学習済みの第2符号器52及び第2メタ識別器54を利用することで、学習済みの学習モデル5が対象データに対して適切に推定タスクを遂行可能か否か、を評価することができる。この評価の結果に基づいて、適切に推定タスクを遂行不能な対象データに対して学習済みの学習モデル5が利用されるのを防止したり、対象データに適切な学習済みの学習モデル5を選択したりすることができる。そのため、本実施形態によれば、導入コストが比較的に低廉で、かつ対象データの取得に関する属性の相違にロバストな学習済みの学習モデル5を構築することができる。

0095

なお、図1の例では、学習装置1、推定装置2、及びデータ生成装置3は、ネットワークを介して互いに接続されている。ネットワークの種類は、例えば、インターネット無線通信網移動通信網電話網専用網等から適宜選択されてよい。ただし、各装置1〜3の間でデータをやりとりする方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、学習装置1、推定装置2、及びデータ生成装置3では、記憶媒体を利用して、データがやりとりされてよい。

0096

また、図1の例では、学習装置1、推定装置2、及びデータ生成装置3は、それぞれ別個のコンピュータである。しかしながら、本実施形態に係るシステムの構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、学習装置1、推定装置2、及びデータ生成装置3のうちの少なくともいずれかのペアは一体のコンピュータであってよい。また、例えば、学習装置1、推定装置2、及びデータ生成装置3のうちの少なくともいずれかは、複数台のコンピュータにより構成されてよい。

0097

§2 構成例
[ハードウェア構成]
次に、図2を用いて、本実施形態に係る学習装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る学習装置1のハードウェア構成の一例を模式的に例示する。

0098

図2に示されるとおり、本実施形態に係る学習装置1は、制御部11、記憶部12、通信インタフェース13、入力装置14、出力装置15、及びドライブ16が電気的に接続されたコンピュータである。なお、図2では、通信インタフェースを「通信I/F」と記載している。

0099

制御部11は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。記憶部12は、メモリの一例であり、例えば、ハードディスクドライブソリッドステートドライブ等で構成される。本実施形態では、記憶部12は、学習プログラム81、複数の学習データセット121、学習結果データ128等の各種情報を記憶する。

0100

学習プログラム81は、学習モデル5の機械学習に関する後述の情報処理(図8図9)を学習装置1に実行させるためのプログラムである。学習プログラム81は、当該情報処理の一連命令を含む。複数の学習データセット121は、当該学習モデル5の機械学習に利用される。学習結果データ128は、学習済みの学習モデル5に関する情報を示す。学習結果データ128は、学習プログラム81の実行結果として得られる。詳細は後述する。

0101

通信インタフェース13は、例えば、有線LAN(Local Area Network)モジュール無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。学習装置1は、この通信インタフェース13を利用することで、ネットワークを介したデータ通信を他の情報処理装置(例えば、推定装置2、データ生成装置3)と行うことができる。

0102

入力装置14は、例えば、マウスキーボード等の入力を行うための装置である。また、出力装置15は、例えば、ディスプレイスピーカ等の出力を行うための装置である。オペレータは、入力装置14及び出力装置15を介して、学習装置1を操作することができる。入力装置14及び出力装置15は、タッチパネルディスプレイ等により一体的に構成されてもよい。

0103

ドライブ16は、例えば、CDドライブDVDドライブ等であり、記憶媒体91に記憶されたプログラムを読み込むためのドライブ装置である。ドライブ16の種類は、記憶媒体91の種類に応じて適宜選択されてよい。上記学習プログラム81及び複数の学習データセット121の少なくともいずれかは、この記憶媒体91に記憶されていてもよい。

0104

記憶媒体91は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。学習装置1は、この記憶媒体91から、上記学習プログラム81及び複数の学習データセット121の少なくともいずれかを取得してもよい。

0105

ここで、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限定される訳ではなく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。

0106

なお、学習装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部11は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサFPGA(field-programmable gate array)、DSP(digital signal processor)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。通信インタフェース13、入力装置14、出力装置15及びドライブ16の少なくともいずれかは省略されてもよい。学習装置1は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、学習装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用サーバ装置、汎用のPC(Personal Computer)等であってもよい。

0107

<推定装置>
次に、図3を用いて、本実施形態に係る推定装置2のハードウェア構成の一例について説明する。図3は、本実施形態に係る推定装置2のハードウェア構成の一例を模式的に例示する。

0108

図3に示されるとおり、本実施形態に係る推定装置2は、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、ドライブ26及び外部インタフェース27が電気的に接続されたコンピュータである。なお、図3では、外部インタフェースを「外部I/F」と記載している。本実施形態に係る推定装置2の制御部21〜ドライブ26はそれぞれ、上記学習装置1の制御部11〜ドライブ16それぞれと同様に構成されてよい。

0109

すなわち、制御部21は、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。本実施形態では、記憶部22は、推定プログラム82、学習結果データ128等の各種情報を記憶する。

0110

推定プログラム82は、学習済みの学習モデル5を利用して、対象データに含まれる特徴を推定する後述の情報処理(図10)を推定装置2に実行させるためのプログラムである。推定プログラム82は、当該情報処理の一連の命令を含む。詳細は後述する。

0111

通信インタフェース23は、例えば、有線LANモジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。推定装置2は、この通信インタフェース23を利用することで、ネットワークを介したデータ通信を他の情報処理装置(例えば、学習装置1)と行うことができる。

0112

入力装置24は、例えば、マウス、キーボード等の入力を行うための装置である。出力装置25は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置24及び出力装置25を介して、推定装置2を操作することができる。入力装置24及び出力装置25は、タッチパネルディスプレイ等により一体的に構成されてもよい。

0113

ドライブ26は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体92に記憶されたプログラムを読み込むためのドライブ装置である。上記推定プログラム82及び学習結果データ128のうちの少なくともいずれかは、記憶媒体92に記憶されていてもよい。また、推定装置2は、記憶媒体92から、上記推定プログラム82及び学習結果データ128のうちの少なくともいずれかを取得してもよい。記憶媒体92の種類は、ディスク型であってもよいし、ディスク型以外であってもよい。

0114

外部インタフェース27は、例えば、USB(Universal Serial Bus)ポート専用ポート等であり、外部装置と接続するためのインタフェースである。外部インタフェース27の種類及び数は、接続される外部装置の種類及び数に応じて適宜選択されてよい。本実施形態では、推定装置2は、外部インタフェース27を介して、センサSに接続される。

0115

センサSは、推定タスクの対象となる対象データを取得するのに利用される。センサSの種類及び配置場所は、特に限定されなくてもよく、遂行する推定タスクの種類に応じて適宜決定されてよい。なお、センサSとの接続方法は、このような例に限定されなくてよい。例えば、センサSが通信インタフェースを備えている場合、推定装置2は、外部インタフェース27ではなく、通信インタフェース23を介して、センサSに接続されてよい。

0116

なお、推定装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部21は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、DSP等で構成されてよい。記憶部22は、制御部21に含まれるRAM及びROMにより構成されてもよい。通信インタフェース23、入力装置24、出力装置25、ドライブ26及び外部インタフェース27の少なくともいずれかは省略されてもよい。推定装置2は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、推定装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC等であってもよい。

0117

<データ生成装置>
次に、図4を用いて、本実施形態に係るデータ生成装置3のハードウェア構成の一例について説明する。図4は、本実施形態に係るデータ生成装置3のハードウェア構成の一例を模式的に例示する。

0118

図4に示されるとおり、本実施形態に係るデータ生成装置3は、制御部31、記憶部32、通信インタフェース33、入力装置34、出力装置35、ドライブ36、及び外部インタフェース37が電気的に接続されたコンピュータである。データ生成装置3の制御部31〜外部インタフェース37はそれぞれ、上記推定装置2の制御部21〜外部インタフェース27それぞれと同様に構成されてよい。

0119

すなわち、制御部31は、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部32は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部32は、生成プログラム83、学習結果データ128等の各種情報を記憶する。

0120

生成プログラム83は、学習済みの学習モデル5を利用して、対象データに関連する新たなデータを生成する後述の情報処理(図11)をデータ生成装置3に実行させるためのプログラムである。生成プログラム83は、当該情報処理の一連の命令を含む。詳細は後述する。

0121

通信インタフェース33は、例えば、有線LANモジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。データ生成装置3は、この通信インタフェース33を利用することで、ネットワークを介したデータ通信を他の情報処理装置(例えば、学習装置1)と行うことができる。

0122

入力装置34は、例えば、マウス、キーボード等の入力を行うための装置である。出力装置35は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。オペレータは、入力装置34及び出力装置35を介して、データ生成装置3を操作することができる。入力装置34及び出力装置35は、タッチパネルディスプレイ等により一体的に構成されてもよい。

0123

ドライブ36は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体93に記憶されたプログラムを読み込むためのドライブ装置である。上記生成プログラム83及び学習結果データ128のうちの少なくともいずれかは、記憶媒体93に記憶されていてもよい。また、データ生成装置3は、記憶媒体93から、上記生成プログラム83及び学習結果データ128のうちの少なくともいずれかを取得してもよい。記憶媒体93の種類は、ディスク型であってもよいし、ディスク型以外であってもよい。

0124

外部インタフェース37は、例えば、USBポート、専用ポート等であり、外部装置と接続するためのインタフェースである。外部インタフェース37の種類及び数は、接続される外部装置の種類及び数に応じて適宜選択されてよい。本実施形態では、データ生成装置3は、外部インタフェース37を介して、センサSに接続される。センサSの種類及び配置場所は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。なお、センサSとの接続方法は、このような例に限定されなくてよい。例えば、センサSが通信インタフェースを備えている場合、データ生成装置3は、外部インタフェース37ではなく、通信インタフェース33を介して、センサSに接続されてよい。

0125

なお、データ生成装置3の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部31は、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、DSP等で構成されてよい。記憶部32は、制御部31に含まれるRAM及びROMにより構成されてもよい。通信インタフェース33、入力装置34、出力装置35、ドライブ36及び外部インタフェース37の少なくともいずれかは省略されてもよい。データ生成装置3は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、データ生成装置3は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC等であってもよい。

0126

[ソフトウェア構成]
<学習装置>
次に、図5A図5Dを用いて、本実施形態に係る学習装置1のソフトウェア構成の一例について説明する。図5A図5Dは、本実施形態に係る学習装置1のソフトウェア構成及び各モジュールによる情報処理の過程の一例を模式的に例示する。

0127

学習装置1の制御部11は、記憶部12に記憶された学習プログラム81をRAMに展開する。そして、制御部11は、CPUにより、RAMに展開された学習プログラム81を解釈して、当該学習プログラム81に含まれる一連の命令群を実行することで、各構成要素を制御する。これにより、図5A図5Dに示されるとおり、本実施形態に係る学習装置1は、データ取得部111、学習処理部112、及び保存処理部113をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、学習装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。

0128

データ取得部111は、複数の学習データセット121を取得する。本実施形態では、各学習データセット121は、訓練データ122、訓練データ122の取得に関する属性を示すメタデータ123、訓練データ122に含まれる特徴を示す正解データ124、及び訓練データ122に含まれる他の特徴を示す他の正解データ125の組み合わせにより構成される。複数の学習データセット121に含まれる少なくとも1つ以上の第1の学習データセット、及び少なくとも1つ以上の第2の学習データセットは、それぞれのメタデータ123により示される属性が相違するように異なるドメインから取得されてよい。

0129

他の正解データ125により示される他の特徴は、正解データ124により示される特徴とは別であり、訓練データ122を取得するドメインに共通に現れる特徴であることが望ましい。ドメインに共通に現れる情報とは、例えば、メタデータ123により示される訓練データ122の取得に関する属性に依存しない情報である。一例として、外観検査に利用する学習済みのモデルを構築するために、製品の写る画像データが訓練データ122として与えられている場面を想定する。この場面において、製品に生じる欠陥の有無は、画像データの取得に関する属性に依存し難い情報である。そのため、他の正解データ125は、訓練データ122に含まれる他の特徴として、欠陥の有無を示してよい。この場合、正解データ124は、訓練データ122に含まれる特徴として、例えば、欠陥の種別等のこれら以外の情報を示してよい。ドメインに共通に現れる特徴を示す他の正解データ125が与えられる場合には、正解データ124は、ドメインに特有の情報により推定精度が向上し得る特徴を示すのが好ましい。

0130

学習処理部112は、取得された複数の学習データセット121を使用して、学習モデル5の機械学習を実施する。上記のとおり、学習モデル5は、第1符号器51、第2符号器52、第1メタ識別器53、第2メタ識別器54、及び推定器55を含んでいる。本実施形態では、学習モデル5は、これらに加えて、復号器56及び他の推定器57を更に含んでいる。第1符号器51及び第2符号器52は入力側に並列に配置される。第1符号器51の出力は、第1メタ識別器53、推定器55、復号器56、及び他の推定器57の入力に接続している。第2符号器52の出力は、第2メタ識別器54、推定器55、及び復号器56の入力に接続している。これにより、第1符号器51の出力値(第1特徴量)は、第1メタ識別器53及び他の推定器57それぞれに入力される。第2符号器52の出力値(第2特徴量)は、第2メタ識別器54に入力される。第1符号器51及び第2符号器52の出力値(第1特徴量及び第2特徴量)は、推定器55及び復号器56それぞれに入力される。

0131

第1符号器51は、与えられた入力データを第1特徴量に変換するように構成される。第2符号器52は、与えられた入力データを第2特徴量に変換するように構成される。第1メタ識別器53は、第1符号器51により得られた第1特徴量から入力データの取得に関する属性を識別するように構成される。第2メタ識別器54は、第2符号器52により得られた第2特徴量から入力データの取得に関する属性を識別するように構成される。推定器55は、第1符号器51及び第2符号器52により得られた第1特徴量及び第2特徴量から入力データに含まれる特徴を推定するように構成される。復号器56は、第1符号器51及び第2符号器52により得られた第1特徴量及び第2特徴量から入力データを復号化するように構成される。他の推定器57は、第1符号器51により得られた第1特徴量から入力データに含まれる特徴(正解データ124により示される特徴又は他の正解データ125により示される他の特徴)を推定するように構成される。

0132

学習フェーズでは、各学習データセット121の訓練データ122が入力データである。一方、利用フェーズでは、対象データ(後述する対象データ(221、321))が入力データである。入力データは、画像データ及び音データにより構成される等のように、複数の異なる種類のデータにより構成されてよい。この場合、第1符号器51及び第2符号器52はそれぞれ、入力データの種類毎に用意されてよい。すなわち、第1符号器51及び第2符号器52はそれぞれ複数の部分符号器を備えてよい。各部分符号器は、対応する種類のデータの入力を受け付けて、入力された対応する種類のデータを特徴量に変換するように構成されてよい。この場合、入力データの種類毎に第1特徴量及び第2特徴量が算出される。算出された各第1特徴量は、第1メタ識別器53、推定器55、復号器56、及び他の推定器57に入力される。また、算出された各第2特徴量は、第2メタ識別器54、推定器55、及び復号器56に入力される。

0133

図5B及び図5Cに示されるとおり、機械学習の処理は、上記第1〜第4訓練ステップを含んでいる。図5Bに示されるとおり、第1訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第2符号器52に与えることで第2メタ識別器54から得られる識別の結果がメタデータ123に適合するように、第2符号器52及び第2メタ識別器54を訓練する。第1訓練ステップにより、第2符号器52は、メタデータ123により示される訓練データ122の取得に関する属性に対応する成分を第2特徴量が含むように訓練され得る。第2訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51及び第2符号器52に与えることで推定器55から得られる推定の結果が正解データ124に適合するように、第1符号器51、第2符号器52及び推定器55を訓練する。

0134

図5Cに示されるとおり、第3訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51に与えることで第1メタ識別器53から得られる識別の結果がメタデータ123に適合するように、第1メタ識別器53を訓練する。第4訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51に与えることで第1メタ識別器53から得られる識別の結果がメタデータ123に適合しないように、第1符号器51を訓練する。学習処理部112は、第3訓練ステップ及び第4訓練ステップを交互に繰り返し実行する。第4訓練ステップにより、第1符号器51は、各学習データセット121の訓練データ122を取得するドメインに共通に現れる情報に対応する成分を第1特徴量が含むように訓練され得る。

0135

図5Bに示されるとおり、本実施形態では、機械学習の処理は、これら第1〜第4訓練ステップに加えて、第5〜第7訓練ステップを更に含んでいる。第5訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51に与えることで第1符号器51から第1特徴量として得られる出力値と訓練データ122を第2符号器52に与えることで第2符号器52から第2特徴量として得られる出力値との相互情報量が少なくなるように、第1符号器51及び第2符号器52を訓練する。第6訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51及び第2符号器52に与えることで復号器56により得られる復号化データが訓練データ122に適合するように、第1符号器51、第2符号器52、及び復号器56を訓練する。

0136

第7訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51に与えることで他の推定器57から得られる推定の結果が正解データ124又は他の正解データ125に適合するように、第1符号器51及び他の推定器57を訓練する。第7訓練ステップにおいて、正解データ124を使用し、他の正解データ125を使用しない場合、当該他の正解データ125は、各学習データセット121から省略されてよい。この場合、正解データ124により示される特徴は、訓練データ122を取得するドメインに共通に現れる特徴であることが望ましい。

0137

保存処理部113は、学習済みの学習モデル5に関する情報を学習結果データ128として生成する。そして、保存処理部113は、生成された学習結果データ128を所定の記憶領域に保存する。所定の記憶領域は、例えば、制御部11内のRAM、記憶部12、記憶媒体91、外部記憶装置又はこれらの組み合わせであってよい。

0138

(各器の構成)
次に、各器51〜57の構成について説明する。各器51〜57には、機械学習を実施可能な任意のモデルが利用されてよい。図5Aに示されるとおり、本実施形態では、各器51〜57は、深層学習に用いられる多層構造のニューラルネットワークにより構成されている。各器51〜57は、入力層(511、521、531、541、551、561、571)、中間(隠れ)層(512、522、532、542、552、562、572)、及び出力層(513、523、533、543、553、563、573)を備えている。

0139

ただし、各器51〜57の構造は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。例えば、中間層(512、522、532、542、552、562、572)の数は、1つに限定されなくてもよく、2つ以上であってもよい。また、各器51〜57の少なくともいずれかの組み合わせでは、少なくとも部分的に構造が一致していてもよい。或いは、各器51〜57の構造は、一致していなくてもよい。

0140

各層(511〜513、521〜523、531〜533、541〜543、551〜553、561〜563、571〜573)は1又は複数のニューロン(ノード)を備えている。各層(511〜513、521〜523、531〜533、541〜543、551〜553、561〜563、571〜573)に含まれるニューロン(ノード)の数は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。

0141

隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が設定されている。また、各ニューロンには閾値が設定されており、基本的には、各入力と各重みとの積の和が閾値を超えているか否かによって各ニューロンの出力が決定される。各層(511〜513、521〜523、531〜533、541〜543、551〜553、561〜563、571〜573)に含まれる各ニューロン間の結合の重み及び各ニューロンの閾値は、各器51〜57の演算パラメータの一例である。

0142

各器51〜57の演算パラメータは、各器51〜57の演算処理に利用され、機械学習の上記各訓練ステップにより調整される。具体的には、第1訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第2符号器52の入力層521に入力し、第2メタ識別器54の出力層543から出力値(メタ識別の結果)を取得する。学習処理部112は、取得される出力値とメタデータ123との誤差が小さくなるように、第2符号器52及び第2メタ識別器54の演算パラメータの値を調整する。

0143

第2訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を各符号器(51、52)の入力層(511、512)に入力し、推定器55の出力層553から出力値(識別の結果)を取得する。学習処理部112は、取得される出力値と正解データ124との誤差が小さくなるように、第1符号器51、第2符号器52及び推定器55の演算パラメータの値を調整する。

0144

第3訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51の入力層511に入力し、第1メタ識別器53の出力層533から出力値(メタ識別の結果)を取得する。学習処理部112は、取得される出力値とメタデータ123との誤差が小さくなるように、第1メタ識別器53の演算パラメータの値を調整する。第3訓練ステップでは、第1メタ識別器53の演算パラメータの値は調整されるのに対して、第1符号器51の演算パラメータの値は固定される。

0145

これに対して、第4訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51の入力層511に入力し、第1メタ識別器53の出力層533から出力値(メタ識別の結果)を取得する。学習処理部112は、取得される出力値とメタデータ123との誤差が大きくなるように、第1符号器51の演算パラメータの値を調整する。第4訓練ステップでは、第1符号器51の演算パラメータの値は調整されるのに対して、第1メタ識別器53の演算パラメータの値は固定される。

0146

なお、第4訓練ステップでは、学習処理部112は、各学習データセット121について、メタデータ123に対応するダミーメタデータ129であって、対応するメタデータ123とは異なる値で構成されたダミーメタデータ129を取得してもよい。この場合、第1メタ識別器53から得られる識別の結果がメタデータ123に適合しないように第1符号器51を訓練することは、訓練データ122を第1符号器51に与えることで第1メタ識別器53から得られる識別の結果がダミーメタデータ129に適合するように第1符号器51を訓練することにより構成されてよい。換言すると、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51の入力層511に入力することで第1メタ識別器53の出力層533から得られる出力値とダミーメタデータ129との誤差が小さくなるように、第1符号器51の演算パラメータの値を調整してよい。

0147

第5訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を各符号器(51、52)の入力層(511、521)に入力し、各符号器(51、52)の出力層(513、523)から出力値(第1特徴量及び第2特徴量)を取得する。学習処理部112は、第1符号器51から得られる第1特徴量及び第2符号器52から得られる第2特徴量の間の相互情報量を算出する。そして、学習処理部112は、算出された相互情報量から導出される誤差が小さくなるように、第1符号器51及び第2符号器52の少なくとも一方の演算パラメータの値を調整する。相互情報量から導出される誤差は、相互情報量の値そのままでもよいし、二乗したり、対数をとったりする等の所定の演算を相互情報量の値に適用することで算出されてもよい。

0148

第6訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を各符号器(51、52)の入力層(511、521)を入力し、復号器56の出力層563から出力データ(復元化データ)を取得する。学習処理部112は、取得される出力データと訓練データ122との誤差が小さくなるように、第1符号器51、第2符号器52、及び復号器56の演算パラメータの値を調整する。

0149

第7訓練ステップでは、学習処理部112は、各学習データセット121について、訓練データ122を第1符号器51の入力層511に入力し、他の推定器57の出力層573から出力値(推定の結果)を取得する。学習処理部112は、取得される出力値と正解データ124又は他の正解データ125との誤差が小さくなるように、第1符号器51及び他の推定器57の演算パラメータの値を調整する。

0150

なお、第3訓練ステップ及び第4訓練ステップを交互に繰り返し実行する際に、第1、第2、及び第5〜第7訓練ステップも繰り返し実行されてよい。換言すると、学習処理部112は、第1〜第7訓練ステップによる演算パラメータの値の調整を繰り返す過程で、第3訓練ステップ及び第4訓練ステップによる演算パラメータの値の調整を交互に繰り返してもよい。或いは、第1、第2、及び第5〜第7訓練ステップは、第3訓練ステップ及び第4訓練ステップによる敵対的学習の事前学習として実行されてよい。換言すると、学習処理部112は、第1、第2、及び第5〜第7訓練ステップによる演算パラメータの値の調整が完了した後に、第3訓練ステップ及び第4訓練ステップによる演算パラメータの値の調整を交互に繰り返してもよい。

0151

また、第1、第2、及び第5〜第7訓練ステップは個別に実行されてよい。換言すると、学習処理部112は、第1、第2、及び第5〜第7訓練ステップそれぞれによる演算パラメータの値の調整を別々に実行してもよい。或いは、第1、第2、及び第5〜第7訓練ステップの少なくともいずれかの組み合わせは同時に実行されてよい。例えば、第1訓練ステップ及び第2訓練ステップを同時に実行する場面を想定する。この場面では、学習処理部112は、訓練データ122を各符号器(51、52)に入力し、第2メタ識別器54及び推定器55それぞれから出力値を取得してよい。続いて、学習処理部112は、第2メタ識別器54の出力値とメタデータ123との誤差、及び推定器55の出力値と正解データ124との誤差を算出してもよい。そして、学習処理部112は、各誤差が小さくなるように、第1符号器51、第2符号器52、第2メタ識別器54及び推定器55の演算パラメータの値を調整してもよい。

0152

また、本実施形態において、上記第1〜第7訓練ステップでは、訓練データ122と共にノイズ61が各符号器(51、52)に入力されてよい。その上で、上記各訓練が実行されてよい。なお、訓練データ122と共にノイズ61を入力する形態は、このような例に限定されなくてもよい。第1〜第7訓練ステップの少なくともいずれかにおいて、ノイズ61の入力は省略されてよい。

0153

また、本実施形態において、第1、第2、第6訓練ステップでは、訓練データ122を第2符号器52に与えることで第2符号器52から第2特徴量として出力値が取得されてよい。そして、取得された出力値(第2特徴量)と共にノイズ62が第2メタ識別器54、推定器55、及び復号器56に入力されて、各訓練が実行されてよい。なお、第2特徴量と共にノイズ62を入力する形態は、このような例に限定されなくてもよい。第1、第2、及び第6訓練ステップのうちの少なくともいずれかにおいて、ノイズ62の入力が省略されてよい。

0154

更に、図5Dに示されるとおり、本実施形態において、データ取得部111は、学習処理部112が学習モデル5の機械学習を実施した後に、複数の学習データセット121の少なくともいずれかの訓練データ122を第1符号器51に与えることで、第1符号器51から第1特徴量としての出力値を取得してもよい。また、データ取得部111は、当該訓練データ122を第2符号器52にも与えることで、第2符号器52から第2特徴量としての出力値を取得してもよい。そして、データ取得部111は、第1符号器51から取得された出力値(第1特徴量)を復号器56に入力し、かつ第2符号器52から取得された出力値(第2特徴量)と共にノイズ63を復号器56に入力することで、復号器56から復号化データとして出力データを取得してよい。第2特徴量と共にノイズ63を入力する方法及びノイズ63の種類は、特に限定されなくてもよく、上記ノイズ62と同様であってよい。学習処理部112は、取得された出力データを新たな訓練データ192として使用して、学習モデル5の機械学習を再度実施してもよい。なお、学習データセット121と同様に、新たな訓練データ192には、メタデータ193、正解データ194、及び他の正解データ195が関連付けられてよい。メタデータ193、正解データ194、及び他の正解データ195はそれぞれ適宜取得されてよい。

0155

保存処理部113は、上記機械学習により構築された学習済みの学習モデル5の各器51〜57の構造及び演算パラメータの値を示す情報を学習結果データ128として生成する。各器51〜57の構造は、例えば、ニューラルネットワークにおける入力層から出力層までの層の数、各層の種類、各層に含まれるニューロンの数、隣接する層のニューロン同士の結合関係等により特定されてよい。システム内で各器51〜57の構造が共通化される場合、この構造に関する情報は学習結果データ128から省略されてよい。保存処理部113は、生成された学習結果データ128を所定の記憶領域に保存する。

0156

<推定装置>
次に、図6を用いて、本実施形態に係る推定装置2のソフトウェア構成の一例について説明する。図6は、本実施形態に係る推定装置2のソフトウェア構成の一例を模式的に例示する。

0157

推定装置2の制御部21は、記憶部22に記憶された推定プログラム82をRAMに展開する。そして、制御部21は、CPUにより、RAMに展開された推定プログラム82を解釈して、当該推定プログラム82に含まれる一連の命令群を実行することで、各構成要素を制御する。これにより、図6に示されるとおり、本実施形態に係る推定装置2は、データ取得部211、評価部212、推定部213、及び出力部214をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、推定装置2の各ソフトウェアモジュールは、上記学習装置1と同様に、制御部21(CPU)により実現される。

0158

データ取得部211は、推定タスクの実行対象となる対象データ221を取得する。本実施形態では、データ取得部211は、センサSから対象データ221を取得する。評価部212及び推定部213は、学習結果データ128を保持することで、学習済みの学習モデル5を備えている。推定部213は、学習装置1により訓練された第1符号器51、第2符号器52、及び推定器55を利用して、取得された対象データ221に含まれる特徴を推定してもよい。或いは、推定部213は、学習装置1により訓練された第1符号器51及び他の推定器57を利用して、取得された対象データ221に含まれる特徴を推定してもよい。出力部214は、特徴を推定した結果に関する情報を出力する。

0159

評価部212は、学習装置1により訓練された第2符号器52及び第2メタ識別器54を利用して、対象データ221の取得に関する属性を識別する。そして、評価部212は、当該識別の結果に基づいて、推定部213により特徴を推定した結果を採用するか否かを判定する。推定した結果を採用しないことは、推定部213による推定処理を実行した後に、当該推定の結果を破棄すること、及び推定処理を実行しないことを含んでよい。

0160

なお、推定装置2(評価部212及び推定部213)は、必ずしも学習済みの学習モデル5の全ての構成要素を保持しなければならない訳ではない。学習済みの学習モデル5において、推定装置2の利用しない部分は省略されてよい。この場合、推定装置2の保持する学習結果データ128からその部分に対応する情報が省略されてよい。

0161

<データ生成装置>
次に、図7を用いて、本実施形態に係るデータ生成装置3のソフトウェア構成の一例について説明する。図7は、本実施形態に係るデータ生成装置3のソフトウェア構成の一例を模式的に例示する。

0162

データ生成装置3の制御部31は、記憶部32に記憶された生成プログラム83をRAMに展開する。そして、制御部31は、CPUにより、RAMに展開された生成プログラム83を解釈して、当該生成プログラム83に含まれる一連の命令群を実行することで、各構成要素を制御する。これにより、図7に示されるとおり、本実施形態に係るデータ生成装置3は、データ取得部311、生成部312、及び保存処理部313をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、データ生成装置3の各ソフトウェアモジュールは、上記学習装置1及び推定装置2と同様に、制御部31(CPU)により実現される。

0163

データ取得部311は、新たなデータを生成する元となる対象データ321を取得する。本実施形態では、データ取得部311は、センサSから対象データ321を取得する。生成部312は、学習結果データ128を保持することで、学習済みの学習モデル5を備えている。生成部312は、学習装置1により訓練された第1符号器51に対象データ321を与えることで第1符号器51から第1特徴量として出力値を取得する。そして、生成部312は、訓練された復号器56を利用して、第2符号器52から取得される出力値(第2特徴量)を与えずに、第1符号器51から取得された出力値(第1特徴量)から対象データ321を復号化することで、復号化データを生成する。保存処理部313は、生成された復号化データを新たなデータとして所定の記憶領域に保存する。所定の記憶領域は、例えば、制御部31内のRAM、記憶部32、記憶媒体93、外部記憶装置又はこれらの組み合わせであってよい。

0164

なお、データ生成装置3により生成される新たなデータは復号化データに限定されなくてもよい。データ生成装置3は、第1符号器51及び第2符号器52の少なくとも一方を利用して、第1特徴量及び第2特徴量の少なくとも一方を生成してもよい。この場合、保存処理部313は、生成された第1特徴量及び第2特徴量の少なくとも一方を新たなデータとして所定の記憶領域に保存してもよい。

0165

また、データ生成装置3(生成部312)は、必ずしも学習済みの学習モデル5の全ての構成要素を保持しなければならない訳ではない。学習済みの学習モデル5において、データ生成装置3の利用しない部分は省略されてよい。この場合、データ生成装置3の保持する学習結果データ128からその部分に対応する情報が省略されてよい。

0166

<その他>
学習装置1、推定装置2及びデータ生成装置3の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、学習装置1、推定装置2及びデータ生成装置3の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、学習装置1、推定装置2及びデータ生成装置3それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。

0167

§3 動作例
[学習装置]
次に、図8を用いて、学習装置1の動作例について説明する。図8は、本実施形態に係る学習装置1の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、学習方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。

0168

(ステップS101)
ステップS101では、制御部11は、データ取得部111として動作し、複数の学習データセット121を取得する。本実施形態では、制御部11は、訓練データ122、メタデータ123、正解データ124、及び他の正解データ125の組み合わせによりそれぞれ構成される複数の学習データセット121を取得する。

0169

各学習データセット121を取得する方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、センサSを用意し、用意したセンサSにより様々な条件で観測を行うことで生成されるセンシングデータを訓練データ122として取得する。観測の対象は、学習モデル5に習得させる推定タスクに応じて適宜選択されてよい。取得された訓練データ122に対して、メタデータ123、正解データ124、及び他の正解データ125を適宜取得する。

0170

メタデータ123は、オペレータの入力により与えられてもよい。或いは、メタデータ123は、センサSの利用形態、仕様、観測環境等を示す参照情報から得られてもよい。また、正解データ124、及び他の正解データ125は、オペレータの入力により与えられてもよい。或いは、正解データ124、及び他の正解データ125は、学習済みの推定器により訓練データ122に含まれる特徴を推定した結果に基づいて与えられてもよい。訓練データ122に対して、取得されたメタデータ123、正解データ124、及び他の正解データ125を関連付ける。これにより、各学習データセット121を生成することができる。

0171

各学習データセット121は、コンピュータの動作により自動的に生成されてもよいし、オペレータの操作により手動的に生成されてもよい。また、各学習データセット121の生成は、学習装置1により行われてもよいし、学習装置1以外の他のコンピュータにより行われてもよい。各学習データセット121を学習装置1が生成する場合、制御部11は、自動的に又はオペレータの入力装置14を介した操作により手動的に上記一連の処理を実行することで、複数の学習データセット121を取得する。一方、各学習データセット121を他のコンピュータが生成する場合、制御部11は、例えば、ネットワーク、記憶媒体91等を介して、他のコンピュータにより生成された複数の学習データセット121を取得する。複数の学習データセット121のうち一部の学習データセットが学習装置1により生成され、その他の学習データセットが1又は複数の他のコンピュータにより生成されてもよい。

0172

なお、複数の学習データセット121に含まれる少なくとも1つ以上の第1の学習データセット、及び少なくとも1つ以上の第2の学習データセットは、それぞれのメタデータ123により示される属性が相違するように異なるドメインから取得されてよい。異なるドメインとは、訓練データ122の取得に関する属性が相違することであり、メタデータ123が複数の属性を示す場合には、少なくとも一部の属性が相違することである。ドメインは、例えば、データを取得する条件等のデータの取得に関する属性を規定する。一例として、センサSがカメラである場合、カメラの向き、カメラの解像度、環境の明るさ、撮影対象等の撮影条件が異なれば、訓練データ122の取得に関する属性が相違する。この場合、それぞれの撮影条件が異なるドメインの一例である。

0173

取得される学習データセット121の件数は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。複数の学習データセット121を取得すると、制御部11は、次のステップS102に処理を進める。

0174

(ステップS102)
ステップS102では、制御部11は、学習処理部112として動作し、取得された複数の学習データセット121を使用して、学習モデル5の機械学習を実施する。本実施形態では、学習モデル5は、第1符号器51、第2符号器52、第1メタ識別器53、第2メタ識別器54、推定器55、復号器56及び他の推定器57を含む。制御部11は、第1〜第7訓練ステップにより、学習モデル5の各器51〜57を訓練する。各訓練ステップの処理順序は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。

0175

<機械学習>
図9を更に用いて、ステップS102における機械学習の処理の一例を詳細に説明する。図9は、本実施形態に係る学習装置1による機械学習の処理手順の一例を例示するフローチャートである。本実施形態に係るステップS102の処理は、以下のステップS201〜S208の処理を含む。ただし、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。

0176

ステップS201を実行する前に、制御部11は、機械学習の処理対象となる学習モデル5を用意する。用意する学習モデル5の各器51〜57の構造、及び演算パラメータの初期値は、テンプレートにより与えられてもよいし、オペレータの入力により与えられてもよい。テンプレートは、ニューラルネットワークの構造に関する情報、及びニューラルネットワークの演算パラメータの初期値に関する情報を含んでよい。各器51〜57の構造は、例えば、ニューラルネットワークにおける入力層から出力層までの層の数、各層の種類、各層に含まれるニューロンの数、隣接する層のニューロン同士の結合関係等により特定されてよい。再学習を行う場合、制御部11は、過去の機械学習により得られた学習結果データに基づいて、処理対象となる学習モデル5を用意してもよい。

0177

(ステップS201)
ステップS201では、制御部11は、各学習データセット121について、訓練データ122を第2符号器52に与えることで第2メタ識別器54から得られる識別の結果がメタデータ123に適合するように、第2符号器52及び第2メタ識別器54を訓練する。ステップS201は、第1訓練ステップの一例である。本実施形態では、制御部11は、訓練データ122を入力データとして利用し、メタデータ123を教師データとして利用して、第2符号器52及び第2メタ識別器54を構成するニューラルネットワークの学習処理を実行する。この学習処理には、バッチ勾配降下法、確率的勾配降下法、ミニバッチ勾配降下法等が用いられてよい。

0178

一例として、第1のステップでは、制御部11は、各学習データセット121について、訓練データ122を第2符号器52に入力し、第2符号器52及び第2メタ識別器54の演算処理を実行する。すなわち、制御部11は、訓練データ122を第2符号器52の入力層521に入力し、入力側から順に各層(521〜523、541〜543)に含まれる各ニューロンの発火判定を行う。この演算処理により、制御部11は、第2メタ識別器54の出力層543から、訓練データ122の取得に関する属性を第2特徴量から識別した結果に対応する出力値を取得する。

0179

第2のステップでは、制御部11は、出力層543から取得された出力値とメタデータ123との誤差を損失関数に基づいて算出する。損失関数には、平均二乗誤差、交差エントロピー誤差等の公知の損失関数が用いられてよい。第3のステップでは、制御部11は、算出された誤差の小さくなる方向に当該誤差の勾配を算出し、誤差逆伝播(Back propagation)法により、算出された勾配を逆伝播することで、各層(521〜523、541〜543)に含まれる演算パラメータ(例えば、各ニューロン間の結合の重み、各ニューロンの閾値等)の誤差を算出する。第4のステップでは、制御部11は、算出された各誤差に基づいて、演算パラメータの値を更新する。

0180

制御部11は、上記第1〜第4のステップを繰り返すことで、各学習データセット121について、出力層543から出力される出力値とメタデータ123との誤差が小さくなるように、第2符号器52及び第2メタ識別器54の演算パラメータの値を調整する。繰り返す回数は適宜決定されてよい。例えば、演算パラメータの値の調整を繰り返す規定回数が設定されていてもよい。規定回数は、例えば、設定値により与えられてもよいし、オペレータの指定により与えられてもよい。この場合、制御部11は、繰り返し回数が規定回数に到達するまで、上記第1〜第4のステップを繰り返す。また、例えば、誤差の和が閾値以下になるまで、制御部11は、上記第1〜第4のステップを繰り返してもよい。

0181

この機械学習の結果、各学習データセット121について、訓練データ122を第2符号器52に入力すると、メタデータ123に適合する出力値が第2メタ識別器54から出力されるように訓練された第2符号器52及び第2メタ識別器54を構築することができる。この「適合する」ことは、閾値等により許容可能な差異が、出力層の出力値と教師データとの間で生じることを含んでもよい。ステップS201の機械学習により、第2符号器52は、メタデータ123により示される訓練データ122の取得に関する属性に対応する成分を第2特徴量が含むように訓練され得る。第2符号器52及び第2メタ識別器54の訓練が完了すると、制御部11は、次のステップS202に処理を進める。

0182

(ステップS202)
ステップS202では、制御部11は、各学習データセット121について、訓練データ122を第1符号器51及び第2符号器52に与えることで推定器55から得られる推定の結果が正解データ124に適合するように、第1符号器51、第2符号器52及び推定器55を訓練する。ステップS202は、第2訓練ステップの一例である。本実施形態では、制御部11は、訓練データ122を入力データとして利用し、正解データ124を教師データとして利用して、第1符号器51、第2符号器52及び推定器55を構成するニューラルネットワークの学習処理を実行する。この学習処理において、各符号器(51、52)及び推定器55の演算パラメータの値を調整する方法は、上記ステップS201と同様であってよい。

0183

一例として、第1のステップでは、制御部11は、各学習データセット121について、訓練データ122を各符号器(51、52)の入力層(511、512)に入力し、第1符号器51、第2符号器52及び推定器55の演算処理を実行する。この演算処理により、制御部11は、推定器55の出力層553から、訓練データ122に含まれる特徴を第1特徴量及び第2特徴量から推定した結果に対応する出力値を取得する。

0184

第2のステップでは、制御部11は、出力層553から取得された出力値と正解データ124との誤差を損失関数に基づいて算出する。第3のステップでは、制御部11は、算出された誤差の小さくなる方向に当該誤差の勾配を算出し、誤差逆伝播法により、算出された勾配を逆伝播することで、各層(511〜513、521〜523、551〜553)に含まれる演算パラメータの誤差を算出する。第4のステップでは、制御部11は、算出された各誤差に基づいて、演算パラメータの値を更新する。

0185

制御部11は、上記第1〜第4のステップを繰り返すことで、各学習データセット121について、出力層553から出力される出力値と正解データ124との誤差が小さくなるように、第1符号器51、第2符号器52及び推定器55の演算パラメータの値を調整する。制御部11は、繰り返し回数が規定回数に到達するまで、上記第1〜第4のステップを繰り返してもよい。或いは、制御部11は、誤差の和が閾値以下になるまで、上記第1〜第4のステップを繰り返してもよい。

0186

この機械学習の結果、各学習データセット121について、訓練データ122を各符号器(51、52)に入力すると、正解データ124に適合する出力値が推定器55から出力されるように訓練された第1符号器51、第2符号器52及び推定器55を構築することができる。第1符号器51、第2符号器52及び推定器55の訓練が完了すると、制御部11は、次のステップS203に処理を進める。

0187

(ステップS203)
ステップS203では、制御部11は、各学習データセット121について、訓練データ122を第1符号器51及び第2符号器52に与えることで復号器56により得られる復号化データが訓練データ122に適合するように、第1符号器51、第2符号器52、及び復号器56を訓練する。ステップS203は、第6訓練ステップの一例である。本実施形態では、制御部11は、訓練データ122を入力データ及び教師データとして利用して、第1符号器51、第2符号器52及び復号器56を構成するニューラルネットワークの学習処理を実行する。この学習処理において、各符号器(51、52)及び復号器56の演算パラメータの値を調整する方法は、上記ステップS201等と同様であってよい。

0188

一例として、第1のステップでは、制御部11は、各学習データセット121について、訓練データ122を各符号器(51、52)の入力層(511、512)に入力し、第1符号器51、第2符号器52及び復号器56の演算処理を実行する。この演算処理により、制御部11は、復号器56の出力層563から、第1特徴量及び第2特徴量から訓練データ122を復号化した結果に対応する出力データを取得する。

0189

第2のステップでは、制御部11は、出力層563から取得された出力データと訓練データ122との誤差を損失関数に基づいて算出する。第3のステップでは、制御部11は、算出された誤差の小さくなる方向に当該誤差の勾配を算出し、誤差逆伝播法により、算出された勾配を逆伝播することで、各層(511〜513、521〜523、561〜563)に含まれる演算パラメータの誤差を算出する。第4のステップでは、制御部11は、算出された各誤差に基づいて、演算パラメータの値を更新する。

0190

制御部11は、上記第1〜第4のステップを繰り返すことで、各学習データセット121について、出力層563から出力される出力データと訓練データ122との誤差が小さくなるように、第1符号器51、第2符号器52及び復号器56の演算パラメータの値を調整する。制御部11は、繰り返し回数が規定回数に到達するまで、上記第1〜第4のステップを繰り返してもよい。或いは、制御部11は、誤差の和が閾値以下になるまで、上記第1〜第4のステップを繰り返してもよい。

0191

この機械学習の結果、各学習データセット121について、訓練データ122を各符号器(51、52)に入力すると、訓練データ122に適合する復号化データが復号器56から出力されるように訓練された第1符号器51、第2符号器52及び復号器56を構築することができる。第1符号器51、第2符号器52及び復号器56の訓練が完了すると、制御部11は、次のステップS204に処理を進める。

0192

(ステップS204)
ステップS204では、制御部11は、各学習データセット121について、訓練データ122を第1符号器51に与えることで他の推定器57から得られる推定の結果が正解データ124又は他の正解データ125に適合するように、第1符号器51及び他の推定器57を訓練する。ステップS204は、第7訓練ステップの一例である。本実施形態では、制御部11は、訓練データ122を入力データとして利用し、正解データ124又は他の正解データ125を教師データとして利用して、第1符号器51及び他の推定器57を構成するニューラルネットワークの学習処理を実行する。この学習処理において、第1符号器51及び他の推定器57の演算パラメータの値を調整する方法は、上記ステップS201等と同様であってよい。

0193

一例として、第1のステップでは、制御部11は、各学習データセット121について、訓練データ122を第1符号器51の入力層511に入力し、第1符号器51及び他の推定器57の演算処理を実行する。この演算処理により、制御部11は、他の推定器57の出力層573から、訓練データ122に含まれる特徴を第1特徴量から推定した結果に対応する出力値を取得する。

0194

第2のステップでは、制御部11は、出力層573から取得された出力値と正解データ124又は他の正解データ125との誤差を損失関数に基づいて算出する。第3のステップでは、制御部11は、算出された誤差の小さくなる方向に当該誤差の勾配を算出し、誤差逆伝播法により、算出された勾配を逆伝播することで、各層(511〜513、571〜573)に含まれる演算パラメータの誤差を算出する。第4のステップでは、制御部11は、算出された各誤差に基づいて、演算パラメータの値を更新する。

0195

制御部11は、上記第1〜第4のステップを繰り返すことで、各学習データセット121について、出力層573から出力される出力値と正解データ124又は他の正解データ125との誤差が小さくなるように、第1符号器51及び他の推定器57の演算パラメータの値を調整する。制御部11は、繰り返し回数が規定回数に到達するまで、上記第1〜第4のステップを繰り返してもよい。或いは、制御部11は、誤差の和が閾値以下になるまで、上記第1〜第4のステップを繰り返してもよい。

0196

この機械学習の結果、各学習データセット121について、訓練データ122を第1符号器51に入力すると、正解データ124又は他の正解データ125に適合する出力値が他の推定器57から出力されるように訓練された第1符号器51及び他の推定器57を構築することができる。第1符号器51及び他の推定器57の訓練が完了すると、制御部11は、次のステップS205に処理を進める。

0197

(ステップS205)
ステップS205では、制御部11は、各学習データセット121について、訓練データ122を第1符号器51に与えることで第1符号器51から得られる出力値(第1特徴量)と訓練データ122を第2符号器52に与えることで第2符号器52から得られる出力値(第2特徴量)との相互情報量が少なくなるように、第1符号器51及び第2符号器52を訓練する。ステップS205は、第5訓練ステップの一例である。本実施形態では、制御部11は、訓練データ122を入力データとして利用して、相互情報量が小さくなるように(例えば、相互情報量が0となることを教師データとして利用して)、第1符号器51及び第2符号器52を構成するニューラルネットワークの学習処理を実行する。この学習処理において、第1符号器51及び第2符号器52の少なくともいずれか一方の演算パラメータの値を調整する方法は、上記ステップS201等と基本的には同様である。

0198

一例として、第1のステップでは、制御部11は、各学習データセット121について、訓練データ122を各符号器(51、52)の入力層(511、521)に入力し、各符号器(51、52)の演算処理を実行する。この演算処理には、制御部11は、各符号器(51、52)の出力層(513、523)から、訓練データ122を各特徴量に変換した結果に対応する出力値を取得する。

0199

第2のステップでは、制御部11は、第1符号器51及び第2符号器52から得られた出力値(第1特徴量及び第2特徴量)間の相互情報量を算出し、損失関数に基づいて相互情報量から誤差を導出する。相互情報量の計算手法には公知の方法が採用されてよい。また、損失関数が絶対値を算出するように定義されることで、相互情報量の値がそのまま誤差として利用されてもよい。或いは、損失関数は、二乗したり、対数をとったりする等の所定の演算を相互情報量の値に適用するように定義されてもよい。第3のステップでは、制御部11は、算出された誤差の小さくなる方向に当該誤差の勾配を算出し、誤差逆伝播法により、第1符号器51及び第2符号器52の少なくとも一方に算出された勾配を逆伝播する。これにより、制御部11は、第1符号器51の各層511〜513及び第2符号器52の各層521〜523の少なくとも一方に含まれる演算パラメータの誤差を算出する。第4のステップでは、制御部11は、算出された各誤差に基づいて、演算パラメータの値を更新する。

0200

制御部11は、上記第1〜第4のステップを繰り返すことで、各学習データセット121について、第1符号器51の出力層513から出力される出力値と第2符号器52の出力層523から出力される出力値との相互情報量が少なくなるように、第1符号器51及び第2符号器52の少なくとも一方の演算パラメータの値を調整する。制御部11は、繰り返し回数が規定回数に到達するまで、上記第1〜第4のステップを繰り返してもよい。或いは、制御部11は、誤差の和が閾値以下になるまで、上記第1〜第4のステップを繰り返してもよい。

0201

この機械学習の結果、各学習データセット121について、訓練データ122を各符号器(51、52)に入力すると、相互情報量の少ない出力値が各符号器(51、52)から出力されるように訓練された各符号器(51、52)を構築することができる。各符号器(51、52)の訓練が完了すると、制御部11は、次のステップS206に処理を進める。

0202

(ステップS206)
ステップS206では、制御部11は、各学習データセット121について、訓練データ122を第1符号器51に与えることで第1メタ識別器53から得られる識別の結果がメタデータ123に適合するように、第1メタ識別器53を訓練する。ステップS206は、第3訓練ステップの一例である。このステップS206では、第1メタ識別器53の演算パラメータの値は調整されるのに対して、第1符号器51の演算パラメータの値は固定される。本実施形態では、制御部11は、訓練データ122を入力データとして利用し、メタデータ123を教師データとして利用して、第1メタ識別器53を構成するニューラルネットワークの学習処理を実行する。この学習処理において、第1メタ識別器53の演算パラメータの値を調整する方法は、第1符号器51の演算パラメータの値を固定する点を除き、ステップS201等と同様であってよい。

0203

一例として、第1のステップでは、制御部11は、各学習データセット121について、訓練データ122を第1符号器51の入力層511に入力し、第1符号器51及び第1メタ識別器53の演算処理を実行する。この演算処理により、制御部11は、第1メタ識別器53の出力層533から、訓練データ122の取得に関する属性を第1特徴量から識別した結果に対応する出力値を取得する。

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

  • 富士フイルム株式会社の「 学習装置、方法及びプログラム」が 公開されました。( 2021/02/04)

    【課題・解決手段】学習における収束性能の低下を抑えながら、過学習を防止して汎化性能を向上させることが可能な学習装置、方法及びプログラムを提供する。学習装置は、複数の層を備えるニューラルネットワークであ... 詳細

  • 日本電気株式会社の「 情報処理装置、制御方法、及びプログラム」が 公開されました。( 2021/02/04)

    【課題・解決手段】情報処理装置(2000)は、入力データ(10)を取得し、ニューラルネットワーク(30)を用いて、入力データ(10)が満たす条件を1つ以上示す条件データ(50)を生成する。情報処理装置... 詳細

  • 株式会社日立国際電気の「 管制局装置および管制局装置のアラーム発報方法」が 公開されました。( 2021/02/04)

    【課題・解決手段】管制局装置は、受信した信号に対して一つまたは複数の方式を用いてリアルタイムで混信の有無を判定する混信判定部を有する無線機と、受信し混信した波形情報をメモリに保持させ、複数の信号が同時... 詳細

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ