図面 (/)

技術 学習装置、照合装置、学習方法、照合方法及びプログラム

出願人 日本電信電話株式会社国立大学法人九州大学
発明者 武小萌木村昭悟柏野邦夫イワナブライアンケンジ内田誠一
出願日 2019年9月4日 (1年9ヶ月経過) 出願番号 2019-161335
公開日 2021年3月11日 (3ヶ月経過) 公開番号 2021-039598
状態 未査定
技術分野 特定パターンの照合 イメージ分析 学習型計算機 文字認識
主要キーワード 不確定要因 統合値 時間伸縮法 時間的特徴 隠れユニット 時間導関数 損失関数 ベクトルシーケンス
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2021年3月11日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (16)

課題

系列データ同士の照合の精度を向上させることが可能である学習装置照合装置学習方法照合方法及びプログラムを提供する。

解決手段

学習装置は、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列をパラメータに応じて第2の時系列データから抽出する抽出部と、第1の特徴ベクトルと第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約連続性制約と境界条件制約とを一定程度以上に満たしており、第1の特徴ベクトルと第2の特徴ベクトルとの距離の統合値所定条件を満たす組み合わせの順序を選択する選択部と、選択された順序の組み合わせごとの距離に応じた損失関数値に基づいてパラメータを更新する更新部とを備える。

概要

背景

セキュリティ電子政府医療教育銀行及び保険等の分野において、生体認証技術の需要が高まっている。手書きの署名を用いる個人認証は、声紋若しくは指紋に依存する生体認証方法補完又は代用するものとして期待されている。手書きの署名を用いる個人認証は、認証対象者体調等の不確定要因に影響されにくく、認証対象者に大きな心理的負担を与えない認証方法である。また、手書きの署名を用いる個人認証は、安価で行うことができる。

広く使われている署名認証では、署名収集装置が用いられる。署名収集装置は、例えば、タブレット端末である。認証対象人物は、署名収集装置のディスプレイに、電子ペンを用いて署名(時系列データ)を入力する。ディスプレイにおける署名の座標及び筆圧等の多変数の時系列データが、署名情報として扱われる。認証の際、照合装置は、入力された署名情報(以下「認証対象署名」という。)と、データベースに予め登録された1個以上の署名情報(以下「テンプレート署名」という。)とを照合する。照合装置は、認証対象署名とテンプレート署名とが同一クラスの署名(例えば、同一人物によって入力された署名)であるか否かを、認証結果として出力する。認証技術として、認証対象署名とテンプレート署名との距離を測定する方法(時系列データ照合のための距離測定方法)がある。

認証対象署名における大域的な特徴に基づく署名情報の照合方法が、非特許文献1に開示されている(非特許文献1参照)。非特許文献1では、署名情報は、1個の多次元特徴ベクトルを用いて記述される。多次元の特徴ベクトルは、筆跡継続時間ペンアップ及びペンダウン時刻等との時間的特徴と、筆跡の座標の一次及び二次時間導関数から導出される速度及び加速度特徴と、筆跡の方向ヒストグラム等の方向特徴と、筆跡全体又は各ストロークから抽出される幾何学的特徴とを含む。認証対象署名とテンプレート署名との距離は、それぞれの特徴ベクトル間マハラノビス距離によって定義される。

非特許文献1には、認証対象署名における局所的な特徴に基づく署名情報の照合方法も記述されている。署名情報(多変数の時系列データ)は、多次元の特徴ベクトルの系列(以下「局所的特徴ベクトルシーケンス」という。)によって記述される。すなわち、署名情報の全体は、時間ごとの局所的断片から構成されている。したがって、署名情報の部分(時間ごとの局所的断片)は、1個の多次元の特徴ベクトルによって記述される。この1個の多次元の特徴ベクトルは、筆跡及び筆圧等から導出される複数の離散時間関数の値と、離散時間関数の値の一次及び二次時間導関数の値等とを、多次元の情報として含む。

認証対象署名とテンプレート署名との距離は、局所的特徴ベクトルシーケンスに対して、隠れマルコフモデルを適用することによって測定される。しかし、テンプレート署名の特徴は、人手によって設計された特徴である。手書きの署名を認証する目的には、人手によって設計されたテンプレート署名の特徴が最適であるとは限らない。複雑な特徴表現が必要である場合、人手によって設計されたテンプレート署名の特徴の性能は不十分である。

テンプレート署名の特徴をデータから直接学習する署名認証方法が、非特許文献2に開示されている(非特許文献2参照)。非特許文献2では、署名情報(多変数の時系列データ)は、1個の大域的特徴ベクトルによって記述される。大域的特徴ベクトルは、再帰ニューラルネットワークによって抽出される。認証対象署名とテンプレート署名との距離は、認証対象署名の大域的特徴ベクトルと、テンプレート署名の大域的特徴ベクトルとの間の内積と定義される。再帰型ニューラルネットワークのパラメータは、多数の訓練データを用いた学習によって決定される。

図14は、時系列データ同士の距離を求める処理の例を示す図である。図において、1個の正方形は、時系列データである認証対象署名(署名情報)から抽出された局所的特徴ベクトルシーケンスにおける、1個の多次元の特徴ベクトルを示す。同じ多次元の特徴ベクトル(例えば、英字)の正方形は、距離が短い特徴ベクトル、すなわち、類似している特徴ベクトルを示す。

図14に示されているように、再帰型ニューラルネットワークに署名情報が入力された場合、再帰型ニューラルネットワークの最後の隠れ層では、1個の局所的特徴ベクトルシーケンスが導出される。1個の局所的特徴ベクトルシーケンスは、複数の多次元の特徴ベクトルを含む。局所的特徴ベクトルシーケンスに含まれている各局所的特徴ベクトルは、時系列データである署名情報の各時刻に対応している。プーリング層又は全結合層は、局所的特徴ベクトルシーケンスの全体における特徴ベクトルの平均を、署名の大域的特徴ベクトルとして導出する。しかし、プーリング層又は全結合層によって、複数の局所的特徴ベクトルが1個の大域的特徴ベクトルに統合されるので、大域的特徴ベクトルでは、時系列データである署名情報の時刻情報消失してしまう。

図15は、対応関係に時間的一貫性がない局所的特徴ベクトルシーケンス(異なる人物の署名情報からそれぞれ抽出された局所的特徴ベクトルシーケンス)の例を示す図である。図15に示された正方形の間の実線は、類似している局所的特徴ベクトルの対応関係を示している。

図15における正方形同士を結ぶ各実線の向きによって示されているように、類似している局所的特徴ベクトル(例えば、類似している英字)の対応関係には、時刻情報の一貫性(以下「時間的一貫性」という。)がない。時間的一貫性とは、対応関係を有する局所的特徴ベクトルの各時刻が同一でなければならないことを指す。又は、時間的一貫性とは、局所的特徴ベクトルの対応関係(組み合わせ)の系列が所定の制約単調性制約、連続性制約、境界条件制約)を一定程度以上に満たすことを指してもよい。

図15では、類似している局所的特徴ベクトルの対応関係には、時間的一貫性がないので(実線が交差しているので)、互いに類似する多くの局所的特徴ベクトルを含む署名情報を、異なる人物の署名と判定することは困難である。このため、他人の署名又は真似された署名(クローン署名)が認証対象署名として再帰型ニューラルネットワークに入力された場合、認証対象署名とテンプレート署名(本人署名)とが一致と誤って判定される確率(他人受入率)は高い。

概要

時系列データ同士の照合の精度を向上させることが可能である学習装置、照合装置、学習方法、照合方法及びプログラムを提供する。学習装置は、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列をパラメータに応じて第2の時系列データから抽出する抽出部と、第1の特徴ベクトルと第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、第1の特徴ベクトルと第2の特徴ベクトルとの距離の統合値所定条件を満たす組み合わせの順序を選択する選択部と、選択された順序の組み合わせごとの距離に応じた損失関数値に基づいてパラメータを更新する更新部とを備える。

目的

本発明は、時系列データ同士の照合の精度を向上させることが可能である学習装置、照合装置、学習方法、照合方法及びプログラムを提供する

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

(分野番号表示ON)※整理標準化データをもとに当社作成

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

第1の特徴ベクトル系列パラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出部と、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値所定条件を満たす前記組み合わせの順序を選択する選択部と、選択された前記順序の前記組み合わせごとの前記距離に応じた損失関数値に基づいて前記パラメータを更新する更新部とを備え、前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、学習装置

請求項2

第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出部と、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択部と、前記第1の時系列データ及び前記第2の時系列データが同一クラスの時系列データであるか否かを前記距離の統合値に基づいて判定する判定部とを備え、前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、照合装置

請求項3

前記選択部は、時刻の値が単調増加していない前記組み合わせの割合が所定の閾値以下である場合、前記単調性制約が一定程度に満たされていると判定し、前記第1の特徴ベクトルの系列又は前記第2の特徴ベクトルの系列の時間長と比較して、前記時刻同士の差が所定値以下である場合、前記連続性制約が一定程度に満たされていると判定し、時系列で最初の前記第1の特徴ベクトルと、時系列で所定位置の前記第2の特徴ベクトルとが組み合わされている場合、前記境界条件制約が一定程度に満たされていると判定する、請求項1に記載の学習装置。

請求項4

前記選択部は、時刻の値が単調増加していない前記組み合わせの割合が所定の閾値以下である場合、前記単調性制約が一定程度に満たされていると判定し、前記第1の特徴ベクトルの系列又は前記第2の特徴ベクトルの系列の時間長と比較して、前記時刻同士の差が所定値以下である場合、前記連続性制約が一定程度に満たされていると判定し、時系列で最初の前記第1の特徴ベクトルと、時系列で所定位置の前記第2の特徴ベクトルとが組み合わされている場合、前記境界条件制約が一定程度に満たされていると判定する、請求項2に記載の照合装置。

請求項5

前記パラメータは、前記損失関数値の総和又は重み付き平均が所定の条件を満たすように、前記損失関数値の勾配に基づいて更新される、請求項1又は請求項3に記載の学習装置。

請求項6

前記パラメータは、選択された前記順序の前記組み合わせごとの前記距離に応じた損失関数値の総和又は重み付き平均が所定の条件を満たすように、前記損失関数値の勾配に基づいて更新される、請求項2又は請求項4に記載の照合装置。

請求項7

学習装置が実行する学習方法であって、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出ステップと、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択ステップと、選択された前記順序の前記組み合わせごとの前記距離に応じた損失関数値に基づいて前記パラメータを更新する更新ステップとを含み、前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、学習方法。

請求項8

照合装置が実行する照合方法であって、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出ステップと、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択ステップと、前記第1の時系列データ及び前記第2の時系列データが同一クラスの時系列データであるか否かを前記距離の統合値に基づいて判定する判定ステップとを含み、前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、照合方法。

請求項9

請求項1、3及び5のいずれか一項に記載の学習装置として、又は、請求項2、4及び6のいずれか一項に記載の照合装置として、コンピュータを機能させるためのプログラム

技術分野

0001

本発明は、学習装置照合装置学習方法照合方法及びプログラムに関する。

背景技術

0002

セキュリティ電子政府医療教育銀行及び保険等の分野において、生体認証技術の需要が高まっている。手書きの署名を用いる個人認証は、声紋若しくは指紋に依存する生体認証方法補完又は代用するものとして期待されている。手書きの署名を用いる個人認証は、認証対象者体調等の不確定要因に影響されにくく、認証対象者に大きな心理的負担を与えない認証方法である。また、手書きの署名を用いる個人認証は、安価で行うことができる。

0003

広く使われている署名認証では、署名収集装置が用いられる。署名収集装置は、例えば、タブレット端末である。認証対象人物は、署名収集装置のディスプレイに、電子ペンを用いて署名(時系列データ)を入力する。ディスプレイにおける署名の座標及び筆圧等の多変数の時系列データが、署名情報として扱われる。認証の際、照合装置は、入力された署名情報(以下「認証対象署名」という。)と、データベースに予め登録された1個以上の署名情報(以下「テンプレート署名」という。)とを照合する。照合装置は、認証対象署名とテンプレート署名とが同一クラスの署名(例えば、同一人物によって入力された署名)であるか否かを、認証結果として出力する。認証技術として、認証対象署名とテンプレート署名との距離を測定する方法(時系列データ照合のための距離測定方法)がある。

0004

認証対象署名における大域的な特徴に基づく署名情報の照合方法が、非特許文献1に開示されている(非特許文献1参照)。非特許文献1では、署名情報は、1個の多次元特徴ベクトルを用いて記述される。多次元の特徴ベクトルは、筆跡継続時間ペンアップ及びペンダウン時刻等との時間的特徴と、筆跡の座標の一次及び二次時間導関数から導出される速度及び加速度特徴と、筆跡の方向ヒストグラム等の方向特徴と、筆跡全体又は各ストロークから抽出される幾何学的特徴とを含む。認証対象署名とテンプレート署名との距離は、それぞれの特徴ベクトル間マハラノビス距離によって定義される。

0005

非特許文献1には、認証対象署名における局所的な特徴に基づく署名情報の照合方法も記述されている。署名情報(多変数の時系列データ)は、多次元の特徴ベクトルの系列(以下「局所的特徴ベクトルシーケンス」という。)によって記述される。すなわち、署名情報の全体は、時間ごとの局所的断片から構成されている。したがって、署名情報の部分(時間ごとの局所的断片)は、1個の多次元の特徴ベクトルによって記述される。この1個の多次元の特徴ベクトルは、筆跡及び筆圧等から導出される複数の離散時間関数の値と、離散時間関数の値の一次及び二次時間導関数の値等とを、多次元の情報として含む。

0006

認証対象署名とテンプレート署名との距離は、局所的特徴ベクトルシーケンスに対して、隠れマルコフモデルを適用することによって測定される。しかし、テンプレート署名の特徴は、人手によって設計された特徴である。手書きの署名を認証する目的には、人手によって設計されたテンプレート署名の特徴が最適であるとは限らない。複雑な特徴表現が必要である場合、人手によって設計されたテンプレート署名の特徴の性能は不十分である。

0007

テンプレート署名の特徴をデータから直接学習する署名認証方法が、非特許文献2に開示されている(非特許文献2参照)。非特許文献2では、署名情報(多変数の時系列データ)は、1個の大域的特徴ベクトルによって記述される。大域的特徴ベクトルは、再帰ニューラルネットワークによって抽出される。認証対象署名とテンプレート署名との距離は、認証対象署名の大域的特徴ベクトルと、テンプレート署名の大域的特徴ベクトルとの間の内積と定義される。再帰型ニューラルネットワークのパラメータは、多数の訓練データを用いた学習によって決定される。

0008

図14は、時系列データ同士の距離を求める処理の例を示す図である。図において、1個の正方形は、時系列データである認証対象署名(署名情報)から抽出された局所的特徴ベクトルシーケンスにおける、1個の多次元の特徴ベクトルを示す。同じ多次元の特徴ベクトル(例えば、英字)の正方形は、距離が短い特徴ベクトル、すなわち、類似している特徴ベクトルを示す。

0009

図14に示されているように、再帰型ニューラルネットワークに署名情報が入力された場合、再帰型ニューラルネットワークの最後の隠れ層では、1個の局所的特徴ベクトルシーケンスが導出される。1個の局所的特徴ベクトルシーケンスは、複数の多次元の特徴ベクトルを含む。局所的特徴ベクトルシーケンスに含まれている各局所的特徴ベクトルは、時系列データである署名情報の各時刻に対応している。プーリング層又は全結合層は、局所的特徴ベクトルシーケンスの全体における特徴ベクトルの平均を、署名の大域的特徴ベクトルとして導出する。しかし、プーリング層又は全結合層によって、複数の局所的特徴ベクトルが1個の大域的特徴ベクトルに統合されるので、大域的特徴ベクトルでは、時系列データである署名情報の時刻情報消失してしまう。

0010

図15は、対応関係に時間的一貫性がない局所的特徴ベクトルシーケンス(異なる人物の署名情報からそれぞれ抽出された局所的特徴ベクトルシーケンス)の例を示す図である。図15に示された正方形の間の実線は、類似している局所的特徴ベクトルの対応関係を示している。

0011

図15における正方形同士を結ぶ各実線の向きによって示されているように、類似している局所的特徴ベクトル(例えば、類似している英字)の対応関係には、時刻情報の一貫性(以下「時間的一貫性」という。)がない。時間的一貫性とは、対応関係を有する局所的特徴ベクトルの各時刻が同一でなければならないことを指す。又は、時間的一貫性とは、局所的特徴ベクトルの対応関係(組み合わせ)の系列が所定の制約単調性制約、連続性制約、境界条件制約)を一定程度以上に満たすことを指してもよい。

0012

図15では、類似している局所的特徴ベクトルの対応関係には、時間的一貫性がないので(実線が交差しているので)、互いに類似する多くの局所的特徴ベクトルを含む署名情報を、異なる人物の署名と判定することは困難である。このため、他人の署名又は真似された署名(クローン署名)が認証対象署名として再帰型ニューラルネットワークに入力された場合、認証対象署名とテンプレート署名(本人署名)とが一致と誤って判定される確率(他人受入率)は高い。

先行技術

0013

Marcos Martinez-Diaz, Julian Fierrez, Ram P. Krish, and Javier Galbally, " Mobile signature verification: Feature robustness and performance comparison, "IET Biometrics, Vol. 3, No. 4, pp. 267-277, 2014.
Wenjie Pei, " Models for supervised learning in sequence data, " Delft University of Technology, Netherlands, 2018.

発明が解決しようとする課題

0014

非特許文献1では、署名情報の特徴は、人手によって設計されたものである。このため、手書きの署名認証の目的に対して、テンプレート署名の特徴が最適であるとは限らない。複雑な特徴表現が必要である場合、人手によって設計されたテンプレート署名の特徴は、性能が十分でない。

0015

非特許文献2では、プーリング層又は全結合層の働きによって、時系列データの時刻情報が消失する。このため、大域的特徴ベクトルの間の距離を測定する際に、時間的一貫性を制約として課すことが困難である。その結果、他人の署名又は真似された署名(クローン署名)が認証対象署名として入力された場合、認証対象署名とテンプレート署名(本人署名)とが一致と誤って判定される確率(他人受入率)は高い。これらのように、時系列データ同士の照合の精度を向上させることができない場合がある。

0016

記事情に鑑み、本発明は、時系列データ同士の照合の精度を向上させることが可能である学習装置、照合装置、学習方法、照合方法及びプログラムを提供することを目的としている。

課題を解決するための手段

0017

本発明の一態様は、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出部と、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値所定条件を満たす前記組み合わせの順序を選択する選択部と、選択された前記順序の前記組み合わせごとの前記距離に応じた損失関数値に基づいて前記パラメータを更新する更新部とを備え、前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、学習装置である。

0018

本発明の一態様は、第1の特徴ベクトルの系列をパラメータに応じて第1の時系列データから抽出し、第2の特徴ベクトルの系列を前記パラメータに応じて第2の時系列データから抽出する抽出部と、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、前記第1の特徴ベクトルと前記第2の特徴ベクトルとの距離の統合値が所定条件を満たす前記組み合わせの順序を選択する選択部と、前記第1の時系列データ及び前記第2の時系列データが同一クラスの時系列データであるか否かを前記距離の統合値に基づいて判定する判定部とを備え、前記単調性制約とは、前記組み合わせの順序において、前記組み合わせごとの時刻の値が単調増加しているという制約であり、前記連続性制約とは、前記組み合わせの順序において、時系列で連続する前記組み合わせの時刻同士の差が所定の正値以下であるという制約であり、前記境界条件制約とは、前記組み合わせの順序において、時系列で最初の前記第1の特徴ベクトルと時系列で最初の前記第2の特徴ベクトルとが組み合わされており、かつ、時系列で最後の前記第1の特徴ベクトルと時系列で最後の前記第2の特徴ベクトルとが組み合わされているという制約である、照合装置である。

発明の効果

0019

本発明により、時系列データ同士の照合の精度を向上させることが可能である。

図面の簡単な説明

0020

実施形態における、局所的特徴ベクトルの対応関係の第1例を示す図である。
実施形態における、局所的特徴ベクトルの対応関係の第2例を示す図である。
実施形態における、各制約を満たす局所的特徴ベクトルの対応関係の第1例を示す図である。
実施形態における、各制約を満たす局所的特徴ベクトルの対応関係の第2例を示す図である。
実施形態における、学習装置の構成例の概要を示す図である。
実施形態における、学習装置の構成例を示す図である。
実施形態における、学習装置のハードウェア構成例を示す図である。
実施形態における、学習装置の構成例の詳細を示す図である。
実施形態における、第1アルゴリズムの例を示す図である。
実施形態における、第2アルゴリズムの例を示す図である。
実施形態における、照合装置の構成例を示す図である。
実施形態における、照合装置のハードウェア構成例を示す図である。
実施形態における、第3アルゴリズムの例を示す図である。
時系列データ同士の距離を求める処理の例を示す図である。
対応関係に時間的一貫性がない局所的特徴ベクトルシーケンスの例を示す図である。

実施例

0021

本発明の実施形態について、図面を参照して詳細に説明する。
以下、第1の時系列データは「X(斜体文字)」と表記される。第2の時系列データは「Y(斜体文字)」と表記される。数式において、時系列データ同士の間の距離は、斜体文字で「d(X,Y)」と表記される。

0022

以下、「i」は、第1の局所的特徴ベクトルシーケンス「X」のi番目の時刻を示す。「j」は、第2の局所的特徴ベクトルシーケンス「Y」のj番目の時刻を示す。

0023

以下、第1の局所的特徴ベクトルシーケンス「X」の時刻「i」は、「i∈{1,…,W}」を満たす。「W」は、時間長(例えば、256)である。第2の局所的特徴ベクトルシーケンス「Y」の時刻「j」は、「j∈{1,…,W}」を満たす。

0024

以下、第1の局所的特徴ベクトルシーケンス「X」は、「W×K」の実数行列「X∈RW×K」である。「K」は、次元数(例えば、64)である。第2の局所的特徴ベクトルシーケンス「Y」は、「W×K」の実数行列「Y∈RW×K」である。

0025

以下、第1の局所的特徴ベクトルシーケンス「X=[x1…xW]T」のi番目の時刻に対応する局所的特徴ベクトルは、「xi∈RK×1」と表記される。第2の局所的特徴ベクトルシーケンス「Y=[y1…yW]T」のj番目の時刻に対応する局所的特徴ベクトルは、「yj∈RK×1」と表記される。

0026

以下、「xi」において、k番目次元に対応する値は、「xi,k」と表記される。「yj」において、k番目の次元にある値は、「yj,k」で表記される。

0027

以下、第1の局所的特徴ベクトルシーケンスにおける各時刻と、第2の局所的特徴ベクトルシーケンスにおける各時刻との対応関係(組み合わせ)の系列は、「Π={(1,1),…,(i,j),…,(W,W)}」と表記される。

0028

(第1実施形態)
第1実施形態では、機械学習を実行する学習装置について説明する。
図1は、局所的特徴ベクトルの対応関係(組み合わせ)の第1例を示す図である。図1では、正方形の間の実線は、第1の局所的特徴ベクトルシーケンス(例えば、署名から抽出された英字の配列)における時系列の所定位置の局所的特徴ベクトル(例えば、署名から抽出された英字)と、第2の局所的特徴ベクトルシーケンスにおける時系列の所定位置の局所的特徴ベクトルとが類似していることを示す。正方形の間の破線は、第1の局所的特徴ベクトルシーケンスにおける時系列の所定位置の局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスにおける時系列の所定位置の局所的特徴ベクトルとが類似していないことを示す。

0029

時間的一貫性(時系列の順序)が制約として課されるようにするため、局所的特徴ベクトルの対応関係は、時刻情報の順番に沿って、図1に示されているように特定される。特定された対応関係に基づいて、互いに同じ時刻の局所的特徴ベクトルの相違が測定される。これによって、異なる人物の署名情報が互いに一致と誤って判定されてしまう確率は低くなる。しかし、同一人物によって作成された複数の署名情報には、非線形時間的変動(例えば、局所的な位置変化又は速度変化)が生じる場合がある。

0030

図2は、局所的特徴ベクトルの対応関係(組み合わせ)の第2例を示す図である。図2では、非線形の時間的変動「−」の影響によって、局所的特徴ベクトルの対応関係は、誤って特定されている。例えば、「−」と「M」とが組み合わされている。

0031

単調性制約、連続性制約及び境界条件制約について説明する。
(1)単調性制約
単調性制約とは、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの対応関係(組み合わせ)の順序において、対応関係ごとの時刻の値が単調増加しているという制約である。すなわち、単調性制約とは、局所的特徴ベクトルの対応関係の系列において、第2の局所的特徴ベクトルシーケンスの時刻が、第1の局所的特徴ベクトルシーケンスの時刻の関数とみなされた場合、関数は、単調増加する関数でなければならないという制約である。また、局所的特徴ベクトルの対応関係の系列において、第1の局所的特徴ベクトルシーケンスの時刻が、第2の局所的特徴ベクトルシーケンスの時刻の関数とみなされた場合、関数は、単調増加する関数でなければならないという制約である。

0032

換言すれば、第1の局所的特徴ベクトルシーケンスの各時刻で「i1<i2」が成立し、第2の局所的特徴ベクトルシーケンスの各時刻で「j1<j2」が成立している場合、時刻「i1」が時刻「j2」に対応付けられており(組み合わせられており)、かつ、時刻「i2」が時刻「j1」に対応付けられている(組み合わせられている)という対応関係は、原則として、存在してはいけない。

0033

なお、局所的特徴ベクトルの対応関係の系列において、時刻の値が単調増加していないという例外の対応関係(組み合わせ)の個数が少ない(例えば、全体の2〜3%)場合には、単調性制約が一定程度に満たされているとみなされてもよい。

0034

(2)連続性制約
連続性制約とは、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの対応関係(組み合わせ)の順序において、時系列で連続する対応関係(組み合わせ)の時刻同士の差が所定の正値以下であるという制約である。すなわち、連続性制約とは、任意の対応関係(時刻の組み合わせ)における第1の局所的特徴ベクトルシーケンスの時刻と、その次の対応関係における第1の局所的特徴ベクトルシーケンスの時刻との時刻同士の差が1以下であるという制約である。「時刻同士の差は1以下」の「1」とは、例えば、局所的特徴ベクトルシーケンスにおける互いに隣接する1文字分である。

0035

換言すれば、任意の対応関係(i1,j1)と、その次の対応関係(i2,j2)とにおいて、第1の局所的特徴ベクトルシーケンスの各時刻で「i1<i2」が成立し、第2の局所的特徴ベクトルシーケンスの各時刻で「j1<j2」が成立している場合、「i2−i1≦1」かつ「j2−j1≦1」が、原則として成り立つ。

0036

なお、時刻同士の差は、局所的特徴ベクトルシーケンスにおける比較対象となる局所的特徴ベクトルの時刻を離れすぎないようにする正値であれば、「1」に限られない。第2の局所的特徴ベクトルシーケンスについても同様である。すなわち、局所的特徴ベクトルシーケンスの時間長と比較して、時刻同士の差が小さい所定値(例えば、3)以下である場合、連続性制約が一定程度に満たされているとみなされてもよい。

0037

(3)境界条件制約
境界条件制約とは、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの対応関係(組み合わせ)の順序において、時系列で最初の第1の局所的特徴ベクトルと時系列で最初の第2の局所的特徴ベクトルとが組み合わされており、かつ、時系列で最後の第1の局所的特徴ベクトルと時系列で最後の第2の局所的特徴ベクトルとが組み合わされているという制約である。すなわち、境界条件制約とは、第1の局所的特徴ベクトルシーケンスの最初の時刻と、第2の局所的特徴ベクトルシーケンスの最初の時刻とが対応付けられ、第1の局所的特徴ベクトルシーケンスの最後の時刻と、第2の局所的特徴ベクトルシーケンスの最後の時刻とが対応付けられるという制約である。

0038

換言すれば、境界条件制約とは、第1の局所的特徴ベクトルシーケンスの長さ「I」と、第2の局所的特徴ベクトルシーケンスの長さ「J」とに関して、局所的特徴ベクトルの対応関係の系列が(1,1)から始まり(I,J)で終わるという制約である。

0039

なお、第1の局所的特徴ベクトルシーケンスの最初の時刻(局所的特徴ベクトル)が、第2の局所的特徴ベクトルシーケンスの最初の時刻に対応付けられていないが(組み合わせられていないが)、第2の局所的特徴ベクトルシーケンスの時系列で所定位置(例えば、2番目又は3番目)の時刻に対応付けられている(組み合わせられている)場合、境界条件制約が一定程度に満たされているとみなされてもよい。

0040

図3は、各制約を満たす局所的特徴ベクトルの対応関係(第1の局所的特徴ベクトルと、第2の局所的特徴ベクトルとの組み合わせの順序)の第1例を示す図である。図4は、各制約を満たす局所的特徴ベクトルの対応関係の第2例を示す図である。図3及び図4では、単調性制約、連続性制約、境界条件制約が全て満たされている。これに対して、図15では、単調性制約及び連続性制約が満たされていない。

0041

以下、訓練データのラベルを「訓練ラベル」という。ニューラルネットワークのパラメータが学習によって決定される段階(学習段階)では、時系列データである2個の署名情報と、それらの署名情報が同一クラスの署名情報であるか否かを示す1個の訓練ラベルとの組が、1組の訓練データとして扱われる。学習装置1は、訓練データを用いて損失関数値を導出する。関数値導出部13は、特定された局所的特徴ベクトルの対応関係の系列に基づいて、局所的特徴ベクトルの間の距離と訓練ラベルとを関連付けて、1個の損失関数値を導出する。

0042

学習装置1は、多数の訓練データが用いられた場合に損失関数値が最小になるように、ニューラルネットワークのパラメータを更新する。ニューラルネットワークのパラメータは、特定された局所的特徴ベクトルの全ての対応関係における損失関数値の統合値が所定条件を満たすように更新される。ニューラルネットワークのパラメータは、特定された局所的特徴ベクトルの全ての対応関係における損失関数値の統合値が所定の条件を満たすように更新される。所定の条件を満たすとは、例えば、ニューラルネットワークのパラメータが更新される際に、特定された局所的特徴ベクトルの全ての対応関係における損失関数値の統合値が可能な限り小さくなる(例えば、最小となる)ことである。学習に用いられる訓練データの個数が多いほど、照合の精度は上がる。訓練データの個数は、例えば、2〜3万個程度である。

0043

非特許文献2では、プーリング層又は全結合層の働きによって、時系列データの時刻情報が消失する。このため、学習段階では局所的特徴ベクトルシーケンスの各値は、全ての時刻において均一的に更新される。これに対して、学習装置1は、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」が第2の局所的特徴ベクトルシーケンス「Y」のどの時刻「j」に対応付けられているかに応じて、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」を適応的に更新する。そのため、学習装置1は、より識別力の高い局所的な特徴ベクトルを効果的に学習することが可能である。

0044

同一人物による署名情報が訓練データとして用いられた場合、本来であれば対応付けられない局所的特徴ベクトルの距離と訓練ラベルとが、署名情報における非線形の時間的変動によって関連付けられるように、ニューラルネットワークのパラメータが更新される場合がある。例えば図2において破線によって示されているように、第1の局所的特徴ベクトルシーケンスにおける所定時刻の局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスにおいて所定時刻に対応する時刻の局所的特徴ベクトルとは類似しない。局所的特徴ベクトルの識別力の向上に効果がない等の理由によって、パラメータの更新は誤った方向に導かれてしまう。

0045

これに対して、学習装置1は、非線形の時間的変動を補償する。学習装置1は、より正確な局所的特徴ベクトルの対応関係を用いて、損失関数値を導出及び最小化する。これによって、学習装置1は、時系列データ同士の照合の精度を向上させることが可能である。

0046

図5は、学習装置1の構成例の概要を示す図である。図6は、学習装置1の構成例を示す図である。学習装置1は、入力部10と、抽出部11と、選択部12と、関数値導出部13と、更新部14とを備える。

0047

入力部10は、第1の時系列データと、第2の時系列データとを、抽出部11に入力する。入力部10は、訓練ラベルを関数値導出部13に入力する。

0048

抽出部11は、第1の時系列データ「X(斜体文字)」と、第2の時系列データ「Y(斜体文字)」とを、入力部10から取得する。抽出部11は、第1の局所的特徴ベクトルシーケンスを、第1の時系列データから抽出する。抽出部11は、第2の局所的特徴ベクトルシーケンスを、第2の時系列データから抽出する。抽出部11は、第1の局所的特徴ベクトルシーケンス「X」と、第2の局所的特徴ベクトルシーケンス「Y」とを、選択部12に出力する。

0049

選択部12は、第1の局所的特徴ベクトルシーケンスと、第2の局所的特徴ベクトルシーケンスとを、抽出部11から取得する。選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルの各時刻と、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルの各時刻とを整合させる。すなわち、選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルとの対応関係の系列を選択する。選択部12は、局所的特徴ベクトルの対応関係の系列を、関数値導出部13に出力する。

0050

関数値導出部13は、局所的特徴ベクトルの対応関係の系列を、選択部12から取得する。関数値導出部13は、訓練ラベルを入力部10から取得する。関数値導出部13は、局所的特徴ベクトルの対応関係の系列と訓練ラベルとに基づいて、局所的特徴ベクトルの組み合わせごとに損失関数値を導出する。関数値導出部13は、局所的特徴ベクトルの組み合わせごとの損失関数値(以下「局所的損失関数値」という。)を、局所的特徴ベクトルの組み合わせごとに更新部14に出力する。関数値導出部13は、例えば局所的損失関数値の平均を、更新部14に出力してもよい。

0051

更新部14は、局所的損失関数値を、局所的特徴ベクトルの組み合わせごとに関数値導出部13から取得する。更新部14は、例えば局所的損失関数値の統合値(例えば、平均)を、関数値導出部13から取得してもよい。更新部14は、局所的損失関数値に基づいて、抽出部11等のニューラルネットワークのパラメータを更新する。更新部14は、ニューラルネットワークのパラメータを、例えば記憶装置に記録する。

0052

図7は、学習装置1のハードウェア構成例を示す図である。学習装置1は、プロセッサ100と、メモリ101と、記憶装置102とを備える。

0053

学習装置1の各機能部のうちの一部又は全部は、CPU(Central Processing Unit)等のプロセッサ100が、不揮発性記録媒体(非一時的な記録媒体)である記憶装置からメモリ101に展開されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク光磁気ディスク、ROM(Read Only Memory)、CD−ROM(Compact Disc Read Only Memory)等の可搬媒体コンピュータシステムに内蔵されるハードディスク等の記憶装置102などの非一時的な記録媒体である。プログラムは、電気通信回線を経由して送信されてもよい。

0054

学習装置1の各機能部のうちの一部又は全部は、例えば、LSI(Large Scale Integration circuit)、ASIC(Application Specific IntegratedCircuit)、PLD(Programmable Logic Device)又はFPGA(Field Programmable Gate Array)等を用いた電子回路(electronic circuit又はcircuitry)を含むハードウェアを用いて実現されてもよい。

0055

図8は、学習装置1の構成例の詳細を示す図である。
[抽出部11]
抽出部11は、第1の時系列データと、第2の時系列データとを、入力部10から取得する。抽出部11は、シャム・ネットワーク(Siamese Networks)を備える。抽出部11は、1個の特徴ベクトルを、畳み込みニューラルネットワークを用いて、時刻ごとに第1の時系列データから抽出する。抽出部11は、1個の特徴ベクトルを、畳み込みニューラルネットワークを用いて、時刻ごとに第2の時系列データから抽出する。

0056

抽出部11は、第1の時系列データ及び第2の時系列データの各サイズを、予め定められた一定の長さ(例えば、1024)にリサイズする。学習装置1において畳み込みニューラルネットワークのパラメータの学習にバッチ学習又はミニバッチ学習等が用いられるので、抽出部11は、時系列データのサイズが予め定められた一定の長さに、第1の時系列データ及び第2の時系列データの各サイズを変更する。

0057

抽出部11は、サイズの変更された時系列データの各次元において、その次元における全ての値の平均が「0」になり、分散が「1」になるよう、全ての値を正規化する。この正規化された時系列データは、「1×1024×5」のテンソルとみなされる。「1024」は、時間長の例である。「5」は、時系列データの次元数の例である。このテンソルを入力とする畳み込みニューラルネットワークは、1層の「1×7」の畳み込み層(conv)と、1層の最大プーリング層と、2層の「1×3」の畳み込み層とを備える。

0058

全ての畳み込み層について、出力の次元数は「64」である。「1×7」の畳み込み層と最大プーリング層とでは、ストライドが「2」に設定される。これによって、各出力の時間長が入力の時間長の半分「/2」になるように、「1×7」の畳み込み層及び最大プーリング層は、ダウンサンプリングを実行する。

0059

バッチ正規化層は、各畳み込み層の出力に対して、バッチ正規化を実行する。バッチ正規化とは、ミニバッチ全体で各入力チャネルを正規化することである(参考文献:「Sergey Ioffe and Christian Szegedy, "Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, " International Conference on Machine Learning, pp.448-456, 2015.」)。バッチ正規化の結果に対して、ReLU層が活性化関数として用いられる。

0060

最後のReLU層における出力の各時刻において、各時刻の全ての値の「l2ノルム」が「1」になるよう、全ての値が正規化される。全ての時刻において正規化が完了した結果は、局所的特徴ベクトルシーケンスとして、動的時間伸縮法を実行する層に出力される。ダウンサンプリングは、合計2回実行される。このため、局所的特徴ベクトルシーケンスの時間長は「256」である。局所的特徴ベクトルシーケンスの次元数は「64」である。抽出部11は、第1の局所的特徴ベクトルシーケンス「X」と、第2の局所的特徴ベクトルシーケンス「Y」とを、正規化が完了した結果として選択部12に出力する。

0061

なお、畳み込みニューラルネットワークは、最後の出力となる隠れユニットの値の系列が局所的特徴ベクトルシーケンスとみなされることが可能な時間長に対応するニューラルネットワークでもよい。例えば、畳み込みニューラルネットワークは、長短記憶ネットワークゲート付き再帰型ユニットネットワーク等の再帰型ニューラルネットワークでもよい。

0062

[選択部12]
選択部12は、第1の局所的特徴ベクトルシーケンスと、第2の局所的特徴ベクトルシーケンスとを、抽出部11から取得する。選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルとの対応関係の系列を選択する。選択された対応関係の系列は、第1の局所的特徴ベクトルシーケンスと、第2の局所的特徴ベクトルシーケンスとに対して、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たす。また、選択された対応関係の系列では、系列における全ての対応関係における局所的特徴ベクトルの距離の統合値(総和)は所定の条件を満たす(例えば、最小値をとる等、可能な限り小さくなる)。選択部12は、例えば、動的時間伸縮法、最長共通部分列法又は編集距離法等の動的計画法を用いて、対応関係の系列を選択する。以下では、選択部12は、一例として動的時間伸縮法を用いる。

0063

以下、第1の局所的特徴ベクトル「xi」と、第2の局所的特徴ベクトル「yj」との距離(ユークリッド距離)は、「||xi−yj||」と表記される。特定された対応関係の系列における全ての対応関係における局所的特徴ベクトルの距離の統合値(総和)は、「Σ(i,j)∈Π||xi−yj||」と表記される。局所的特徴ベクトルの距離の統合値が小さいほど、第1の局所的特徴ベクトルシーケンス「X」と第2の局所的特徴ベクトルシーケンス「Y」との対応付けが正しいことを表す。

0064

選択部12は、単調性制約と、連続性制約と、境界条件制約とに基づいて、「Π」に関して距離の統合値(総和)を最小化する。単調性制約と、連続性制約と、境界条件制約とを一定程度以上に満たす「Π」は、式(1)のように表される。

0065

0066

距離の統合値が加法性を有しているので、選択部12は、全ての「Π」を調べなくても、「Π」に関して距離の統合値(総和)を最小化することができる。選択部12は、式(2)を用いて、距離の統合値の最小値「ci,j」を再帰的に導出する。

0067

0068

選択部12は、第1の局所的特徴ベクトルシーケンスの部分「[x1…xi]T」と、第2の局所的特徴ベクトルシーケンスの部分「[y1…yj]T」とにおける、距離の統合値の最小値を再帰的に導出する。再帰的に導出された最小値は、単調性制約と、連続性制約と、境界条件制約とを一定程度以上に満たす局所的特徴ベクトルの対応関係の系列において、系列における全ての対応関係における局所的特徴ベクトルの距離の統合値の最小値である。

0069

選択部12は、「c1,1」から始まり「cW,W」で終わる「ci,j」を導出する。したがって、「ci,j」の個数は、「W×W」個である。再帰的な処理が完了した場合に導出される「cW,W」は、第1の局所的特徴ベクトルシーケンス「X」と第2の局所的特徴ベクトルシーケンス「Y」とにおける、距離の統合値の最小値となる。

0070

選択部12は、導出された最小値「{ci,j}」に基づいて、最後の時刻の局所的特徴ベクトルの対応関係(W,W)から開始し、「X」の時間軸と「Y」の時間軸とのうちの少なくとも一つに沿って、処理対象の時刻を1時刻ずつ後退させ、たどり着いた時刻の局所的特徴ベクトルの対応関係(i,j)を、1個ずつメモリに記録する。このようにして、選択部12は、対応関係(1,1)を最終的に導出する。

0071

1時刻ずつ後退する際、「X」の時間軸と「Y」の時間軸とのうちの少なくとも一つという三方向の中で、1時刻後退した場合の、局所的特徴ベクトルの対応関係における「ci,j」の値が最も小さい方向に沿って後退する。このようにして、選択部12は、局所的特徴ベクトルの対応関係の系列「Π={(1,1),…,(i,j),…,(W,W)}」を導出する。選択部12は、局所的特徴ベクトルの対応関係の系列を、関数値導出部13に出力する。

0072

[関数値導出部13]
学習段階では、時系列データである2個の署名情報と、それらの署名情報が同一人物による署名情報であるか否かを示す1個の訓練ラベルとの組が、1組の訓練データとして扱われる。

0073

関数値導出部13は、局所的特徴ベクトルの対応関係の系列を、選択部12から取得する。関数値導出部13は、訓練ラベルを入力部10から取得する。関数値導出部13は、局所的特徴ベクトルの対応関係の系列と訓練ラベルとを用いて損失関数値を導出する。関数値導出部13は、選択部12における処理が実行された際に特定された局所的特徴ベクトルの対応関係の系列に基づいて、局所的特徴ベクトルの間の距離と訓練ラベルとを関連付けて、1個の損失関数値を導出する。

0074

関数値導出部13は、第1の署名情報から抽出された第1の局所的特徴ベクトルシーケンスと、第2の署名情報から抽出された第2の局所的特徴ベクトルシーケンスと、時系列データの組み合わせに付与された訓練ラベルを用いて表される損失関数値を導出する。具体的には、関数値導出部13は、局所的特徴ベクトルの対応関係の系列を用いて、系列における各対応関係について局所的特徴ベクトルの間の距離と訓練ラベルとを関連付けるように、1個の損失関数値を導出する。

0075

ニューラルネットワークのパラメータを決定することのみが目的であれば、損失関数値自体が導出される必要はない。更新部14が例えば勾配法を用いて損失関数値の勾配を導出すれば、損失関数値自体は導出されなくてよい。損失関数値自体が導出されない場合、学習装置1は、関数値導出部13を備えなくてもよい。更新部14は、損失関数値の勾配のみを導出して、損失関数値が最小となるようにニューラルネットワークのパラメータを更新すればよい。

0076

ただし、損失関数値の観測は、実装されたアルゴリズムがデバッグされるために必要である。そこで以下では、損失関数値の導出方法を説明する。

0077

関数値導出部13は、1個の局所的損失関数値を導出する。同一人物の署名情報が抽出部11に入力された場合、系列における各対応関係の局所的特徴ベクトルの距離が長いほど、導出された1個の局所的損失関数値は大きくなる。異なる人物の署名情報が抽出部11に入力された場合、系列における各対応関係の局所的特徴ベクトルの距離が短いほど、導出された1個の局所的損失関数値は大きくなる。

0078

関数値導出部13は、対応関係の系列における全ての対応関係から導出された局所的損失関数値の平均を、損失関数値として導出してもよい。関数値導出部13は、損失関数値を更新部14に出力する。

0079

以下、関数値導出部13の出力である損失関数値は、「L」と表記される。訓練ラベルは、「z」と表記される。訓練ラベル「z」に関して、「z∈{0,1}」が成立する。訓練ラベル「z」は、同一人物の署名情報である場合、「1」である。訓練ラベル「z」は、異なる人物の署名情報である場合、「0」である。

0080

損失関数値「L」は、式(3)のように導出される。式(3)の右辺に示された「τ」は、ハイパーパラメータである。「τ」に関して、「τ∈[0,√2]」が成立する。ここで、分母の「L」は、局所的特徴ベクトルの対応関係の系列の長さを表す。

0081

0082

同一人物の署名情報が訓練データとして入力された場合、局所的特徴ベクトルの距離が長いほど、損失関数値「L」は、式(3)に示されているように大きくなる。異なる人物の署名情報が訓練データとして入力された場合、局所的特徴ベクトルの距離が短いほど、損失関数値「L」は、式(3)に示されているように大きくなる。

0083

系列における対応関係の各「(i,j)∈Π」について、関数値導出部13は、局所的損失関数値「li,j」を、式(4)のように導出する。

0084

0085

関数値導出部13の出力である損失関数値は、「L=(1/L)Σ(i,j)∈Πli,j」と表記される。この右辺の「L」は、局所的特徴ベクトルの対応関係の系列の長さ(個数)を表す。

0086

図9は、第1アルゴリズムの例を示す図である。関数値導出部13は、図9に例示された第1アルゴリズムに基づいて、選択部12から取得された局所的特徴ベクトルの対応関係の系列に対して関数値の導出処理を実行する。第1アルゴリズムの「while」文において示されているように、関数値導出部13は、局所的特徴ベクトルの対応関係の系列に基づいて、局所的損失関数値「li,j」の総和を導出する。関数値導出部13は、時刻の対応関係の系列の長さ「L」に基づいて、局所的損失関数値の平均を導出する。図9では、関数値導出部13は、局所的損失関数値の平均を、更新部14に出力する。

0087

なお、関数値導出部13は、導出された全ての局所的損失関数値を用いて1個の値を導出するのであれば、局所的損失関数値の平均以外の値を導出してもよい。例えば、関数値導出部13は、局所的損失関数値の平均を導出する代わりに、局所的損失関数値の総和又は重み付き平均を導出してもよい。

0088

[更新部14]
更新部14は、局所的損失関数値を、局所的特徴ベクトルの組み合わせごとに関数値導出部13から取得する。更新部14は、例えば局所的損失関数値の統合値(例えば、平均)を、関数値導出部13から取得してもよい。更新部14は、局所的損失関数値に基づいて、損失関数値を最適化するように、ニューラルネットワークのパラメータを更新する。更新部14は、局所的特徴ベクトルの対応関係の系列を用いて、系列における全ての対応関係における局所的損失関数値の統合値が最小になるように、例えば勾配法を用いてニューラルネットワークのパラメータを更新する。

0089

以下では、損失関数値「L」における、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」に関する偏微分係数「{g(x)i,k}」と、第2の局所的特徴ベクトルシーケンス「Y」の各値「yj,k」に関する偏微分係数「{g(y)j,k}」の導出方法(算出方法)とが説明される。なお、隠れユニットの値に関する偏微分係数は、例えば、深層学習の周知技術を用いて導出されてもよい。

0090

更新部14は、系列における対応関係の各「(i,j)∈Π」について、局所的損失関数値「li,j」における局所的特徴ベクトルシーケンス「X」の各値「xi,k」に関する偏微分係数「γ(x)i,j,k」を、式(5)のように導出する。更新部14は、「γ(y)i,j,k=−γ(x)i,j,k」に基づいて、「yj,k」に関する偏微分係数を導出する。

0091

0092

損失関数値「L」における偏微分係数「g(x)i,k」は、式(6)のように表される。

0093

0094

図10は、第2アルゴリズムの例を示す図である。更新部14は、図10に例示された第2アルゴリズムに基づいて、パラメータの更新処理を実行する。第2アルゴリズムの「while」文において示されているように、更新部14は、局所的特徴ベクトルの対応関係の系列に基づいて、「xi,k」に関する偏微分係数「γ(x)i,j,k」の総和を導出する。更新部14は、局所的特徴ベクトルの対応関係の系列の長さ「L」に基づいて、損失関数値「L」における「xi,k」に関する偏微分係数「g(x)i,k」を導出する。

0095

以上のように、実施形態の学習装置1は、抽出部11と、選択部12と、更新部14とを備える。抽出部11は、第1の局所的特徴ベクトルの系列(第1の局所的特徴ベクトルシーケンス)を、ニューラルネットワークのパラメータに応じて第1の時系列データ(例えば、認証対象署名)から抽出する。抽出部11は、第2の局所的特徴ベクトルの系列(第2の局所的特徴ベクトルシーケンス)を、ニューラルネットワークのパラメータに応じて第2の時系列データ(例えば、テンプレート署名)から抽出する。選択部12は、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの距離の統合値が所定条件を満たす組み合わせの順序を選択する。更新部14は、選択された順序の組み合わせごとの距離に応じた損失関数値に基づいて、ニューラルネットワークのパラメータを更新する。更新部14は、ニューラルネットワークのパラメータを、例えば記憶装置に記録する。

0096

これによって、時系列データ同士の照合の精度を向上させることが可能である。

0097

非特許文献2では、プーリング層又は全結合層の働きによって、時系列データの時刻情報が消失する。このため、学習段階では局所的特徴ベクトルシーケンスの各値は、全ての時刻において均一的に更新される。これに対して、更新部14は、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」が第2の局所的特徴ベクトルシーケンス「Y」のどの時刻「j」に対応付けられているかに応じて、式(5)及び式(6)に示されているように、第1の局所的特徴ベクトルシーケンス「X」の各値「xi,k」を適応的に更新する。そのため、更新部14は、より識別力の高い局所的な特徴ベクトルを効果的に学習することが可能である。

0098

選択部12は、時刻の値が単調増加していない組み合わせの割合が所定の閾値以下である場合、単調性制約が一定程度に満たされていると判定してもよい。選択部12は、第1の局所的特徴ベクトルの系列(第1の局所的特徴ベクトルシーケンス)又は第2の局所的特徴ベクトルの系列(第2の局所的特徴ベクトルシーケンス)の時間長と比較して、時刻同士の差が所定値以下である場合、連続性制約が一定程度に満たされていると判定してもよい。選択部12は、時系列で最初の第1の局所的特徴ベクトルと、時系列で所定位置の第2の局所的特徴ベクトルとが組み合わされている場合、境界条件制約が一定程度に満たされていると判定してもよい。また、ニューラルネットワークのパラメータは、損失関数値の総和又は重み付き平均が所定の条件を満たす(例えば、最小値をとる等、可能な限り小さくなる)ように、損失関数値の勾配に基づいて更新されてもよい。

0099

(第2実施形態)
第2実施形態では、第1実施形態に示された学習装置1と、照合処理を実行する照合装置との相違点等を、照合装置について説明する。

0100

時系列データが照合される段階(照合段階)では、照合装置は、局所的特徴ベクトルの対応関係の系列に基づいて、系列の全ての対応関係における局所的特徴ベクトルの距離の統合値を、時系列データ同士の距離として導出する。

0101

図11は、照合装置2の構成例を示す図である。照合装置2は、入力部10と、抽出部11と、選択部12と、距離導出部15と、判定部16とを備える。

0102

照合装置2の入力部10と抽出部11と選択部12とは、学習装置1の入力部10と抽出部11と選択部12と同様に動作する。すなわち、入力部10は、第1の時系列データと、第2の時系列データとを、抽出部11に入力する。入力部10は、訓練ラベルを関数値導出部13に入力する。

0103

学習装置1の学習結果として、学習装置1のパラメータは、例えば、照合装置2の記憶装置に記憶されている。照合装置2の抽出部11は、学習装置1の抽出部11のパラメータを使用する。照合装置2の抽出部11は、図8に示された抽出部11のパラメータを、照合装置2の記憶装置から取得する。

0104

[抽出部11]
抽出部11は、第1の時系列データ「X(斜体文字)」と、第2の時系列データ「Y(斜体文字)」とを、入力部10から取得する。抽出部11は、第1の局所的特徴ベクトルシーケンスを、第1の時系列データから抽出する。抽出部11は、第2の局所的特徴ベクトルシーケンスを、第2の時系列データから抽出する。抽出部11は、第1の局所的特徴ベクトルシーケンス「X」と、第2の局所的特徴ベクトルシーケンス「Y」とを、選択部12に出力する。

0105

[選択部12]
選択部12は、第1の局所的特徴ベクトルシーケンスと、第2の局所的特徴ベクトルシーケンスとを、抽出部11から取得する。選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルの各時刻と、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルの各時刻とを整合させる。すなわち、選択部12は、第1の局所的特徴ベクトルシーケンスの局所的特徴ベクトルと、第2の局所的特徴ベクトルシーケンスの局所的特徴ベクトルとの対応関係の系列を選択する。選択部12は、局所的特徴ベクトルの対応関係の系列を、距離導出部15に出力する。

0106

図12は、照合装置2のハードウェア構成例を示す図である。照合装置2は、プロセッサ200と、メモリ201と、記憶装置202とを備える。

0107

照合装置2の各機能部のうちの一部又は全部は、CPU等のプロセッサが、不揮発性の記録媒体(非一時的な記録媒体)である記憶装置からメモリに展開されたプログラムを実行することにより、ソフトウェアとして実現される。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置などの非一時的な記録媒体である。プログラムは、電気通信回線を経由して送信されてもよい。照合装置2の各機能部のうちの一部又は全部は、例えば、LSI、ASIC、PLD又はFPGA等を用いた電子回路を含むハードウェアを用いて実現されてもよい。

0108

[距離導出部15]
距離導出部15は、局所的特徴ベクトルの対応関係の系列を、選択部12から取得する。距離導出部15は、局所的特徴ベクトルの対応関係の系列に基づいて、系列における全ての対応関係における局所的特徴ベクトルの距離の統合値を、時系列データ同士の距離として導出する。距離導出部15は、対応関係の系列の全ての対応関係における局所的特徴ベクトルの距離の平均を、距離の統合値として、式(7)に示されているように導出する。

0109

0110

図13は、第3アルゴリズムの例を示す図である。選択部12は、図13に例示された第3アルゴリズムに基づいて、選択処理を実行する。距離導出部15は、図13に例示された第3アルゴリズムに基づいて、距離の統合値(例えば、距離の平均)を導出する処理を実行する。

0111

第3アルゴリズムの「for」文において示されているように、選択部12は、対応関係の系列の全ての対応関係における局所的特徴ベクトルの距離の総和「cW,W」を導出する。図13に示された「L」は、局所的特徴ベクトルの対応関係の個数、すなわち、局所的特徴ベクトルの対応関係の系列「Π」の長さを表す。第3アルゴリズムの「while」文において示されているように、距離導出部15は、系列「Π」の長さ「L」を用いて、「cW,W/L」のように、距離の総和「cW,W」に基づいて距離の平均を導出する。

0112

なお、距離導出部15は、局所的特徴ベクトルの組み合わせごとに導出された全ての距離を用いて1個の値を導出するのであれば、距離の平均以外の値を導出してもよい。例えば、距離導出部15は、距離の平均を導出する代わりに、距離の総和又は重み付き平均を導出してもよい。第3アルゴリズムの「for」文において、距離の総和「cW,W」が導出されている。このため、第3アルゴリズムの「while」文では、局所的特徴ベクトルシーケンスの対応関係の系列は導出されなくてよい。

0113

距離導出部15は、1個以上のテンプレート署名として入力された第2の署名情報の各々について、認証対象署名として入力された第1の署名情報と第2の署名情報との距離の総合値を導出する。距離導出部15は、第1の署名情報と第2の署名情報との距離の総合値(例えば、距離の平均)を、判定部16に出力する。

0114

[判定部16]
判定部16は、第1の署名情報と第2の署名情報との距離の総合値(例えば、距離の平均)を、距離導出部15から取得する。判定部16は、第1の署名情報と第2の署名情報との距離の平均を、例えば式(8)又は式(9)のように導出する。

0115

0116

0117

ここで、「X(斜体文字)」は、認証対象署名を表す。「{Y1,…,Yn}(斜体文字)」は、1個以上のテンプレート署名の集合を表す。

0118

判定部16は、第1の署名情報及び第2の署名情報が同一クラスの署名情報であるか否か(例えば、同一人物によって作成された署名情報であるか否か)を、時系列データである署名情報同士の距離に基づいて判定する。例えば、判定部16は、全ての第2の署名情報に関して導出された距離の総合値(例えば、距離の平均)を、1個のスコアとして導出する。判定部16は、予め定められた閾値とスコアとを比較する。

0119

スコアが閾値未満である場合、判定部16は、認証対象署名とテンプレート署名とが同一人物によって作成された署名情報であると判定する。スコアが閾値以上である場合、判定部16は、認証対象署名とテンプレート署名とが異なる人物によって作成された署名情報であると判定する。

0120

以上のように、実施形態の照合装置2は、抽出部11と、選択部12と、判定部16とを備える。抽出部11は、第1の局所的特徴ベクトルの系列(第1の局所的特徴ベクトルシーケンス)を、ニューラルネットワークのパラメータに応じて第1の時系列データ(例えば、認証対象署名)から抽出する。抽出部11は、第2の局所的特徴ベクトルの系列(第2の局所的特徴ベクトルシーケンス)を、ニューラルネットワークのパラメータに応じて第2の時系列データ(例えば、テンプレート署名)から抽出する。選択部12は、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの組み合わせの順序のうちから、単調性制約と連続性制約と境界条件制約とを一定程度以上に満たしており、第1の局所的特徴ベクトルと第2の局所的特徴ベクトルとの距離の統合値(例えば、局所的特徴ベクトルの距離の平均、距離の総和、距離の重み付き平均)が所定条件を満たす組み合わせの順序を選択する。判定部16は、第1の局所的時系列データ及び第2の局所的時系列データが同一クラスの時系列データ(例えば、同一人物によって作成された署名情報)であるか否かを、距離の統合値に基づいて判定する。

0121

これによって、時系列データ同士の照合の精度を向上させることが可能である。

0122

選択部12は、時刻の値が単調増加していない組み合わせの割合が所定の閾値以下である場合、単調性制約が一定程度に満たされていると判定してもよい。選択部12は、第1の局所的特徴ベクトルの系列(第1の局所的特徴ベクトルシーケンス)又は第2の局所的特徴ベクトルの系列(第2の局所的特徴ベクトルシーケンス)の時間長と比較して、時刻同士の差が所定値以下である場合、連続性制約が一定程度に満たされていると判定してもよい。選択部12は、時系列で最初の第1の局所的特徴ベクトルと、時系列で所定位置の第2の局所的特徴ベクトルとが組み合わされている場合、境界条件制約が一定程度に満たされていると判定してもよい。また、ニューラルネットワークのパラメータは、損失関数値の総和又は重み付き平均が所定の条件を満たす(例えば、最小値をとる等、可能な限り小さくなる)ように、損失関数値の勾配に基づいて更新されてもよい。

0123

図15に示されているように、異なる人物(同一でない人物)の署名情報から抽出された局所的特徴ベクトルシーケンスは、互いに類似している局所的特徴ベクトルの対応関係が多数存在する場合であっても、単調性制約と連続性制約と境界条件制約とを対応関係の系列が満たしていない場合がある。

0124

そこで、照合装置2は、特定される局所的特徴ベクトルの対応関係の系列を、単調性制約と連続性制約と境界条件制約とを満たす局所的特徴ベクトルの対応関係の系列のみに制限する。これによって、照合装置2は、各制約を満たさない対応関係の系列(例えば、図15に示された局所的特徴ベクトルの対応関係の系列)にも適合してしまうこと(過剰適合)を回避することが可能になる。

0125

図3において破線によって示されているように、局所的特徴ベクトルシーケンス同士における局所的な相違を有効に特定することが可能になる。その結果、時系列データ同士の局所的な相違に基づいて、時系列データの全体の距離をより正確に導出することが可能になる。

0126

同一人物の署名情報から抽出された局所的特徴ベクトルシーケンスでは、非線形の時間的変動(例えば、局所的な位置変化又は速度変化)が生じる場合でも、図4において実線及び破線によって示されているように、局所的特徴ベクトルの対応関係の系列(局所的特徴ベクトルの組み合わせの順序)が、単調性制約と連続性制約と境界条件制約とを満たすことがある。このため、照合装置2は、非線形時間的変動の影響をほとんど受けることなく、局所的特徴ベクトルの対応関係を正しく特定することが可能になる。

0127

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。

0128

本発明は、機械学習を実行する学習装置と、機械学習の結果を用いて信号同士を照合する照合装置とに適用可能である。

0129

1…学習装置、2…照合装置、10…入力部、11…抽出部、12…選択部、13…関数値導出部、14…更新部、15…距離導出部、16…判定部、17…出力部、100…プロセッサ、101…メモリ、102…記憶装置、200…プロセッサ、201…メモリ、202…記憶装置

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ