図面 (/)

技術 行動認識装置、および、行動認識方法

出願人 日本電信電話株式会社
発明者 永吉剛
出願日 2016年7月19日 (3年7ヶ月経過) 出願番号 2016-141476
公開日 2018年1月25日 (2年1ヶ月経過) 公開番号 2018-013851
状態 特許登録済
技術分野 閉回路テレビジョンシステム 警報システム イメージ分析
主要キーワード オーバーラップ範囲 ピクセル空間 人物移動 映像センサ 位置検知精度 人物判定処理 一次元ベクトル 行動認識
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2018年1月25日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (16)

課題

人物の特定が曖昧なセンサの組み合わせにより人物の行動を検知する場合において、人物の行動の認識の精度を向上させ、かつ、部外者の検知を容易なものとする。

解決手段

行動認識装置30は、第1のセンサ10のセンサデータおよび第2のセンサ20のセンサデータを用いて人物の行動を認識する。この第1のセンサ10は、複数の映像センサにより、単一の映像センサでは追跡できなかった範囲、向き、位置の人物を検知する。また、行動認識装置30は、訓練データに基づき、第1のセンサ10の任意のセンサデータに対する第2のセンサ20のセンサデータの推定値として、第1のセンサ10の映像センサにより撮影された映像セル分割したセルごとに計算した、当該セルに対する第2のセンサ20のセンサデータの代表値を用いる。

概要

背景

従来、複数のカメラを用いた人物監視技術が提案されている。例えば、複数のカメラの撮影映像から移動体を抽出し、カメラ間映像を照合し、その移動体の移動経路を求める。そして、移動体の所定エリアへの侵入の有無を判定し、監視員アラーム表示する技術が提案されている。この技術において、カード認証等、個人特定手段を用いることで、移動体(人物)の所定エリアへのアクセス権限の有無を判断する。また、移動体(人物)の移動経路や移動軌跡分析することで、映像にうつった移動体(人物)が不審者であるか否かを判定し、アラーム表示する(技術1)。

また、ステレオカメラの映像を利用して、人物の不審行動を検知する技術も提案されている。この技術は、監視対象となる人物の移動軌跡を取得し、この移動軌跡に基づいて当該人物の行動状態識別し、不審行動を検知する(技術2、特許文献1参照)。

概要

人物の特定が曖昧なセンサの組み合わせにより人物の行動を検知する場合において、人物の行動の認識の精度を向上させ、かつ、部外者の検知を容易なものとする。行動認識装置30は、第1のセンサ10のセンサデータおよび第2のセンサ20のセンサデータを用いて人物の行動を認識する。この第1のセンサ10は、複数の映像センサにより、単一の映像センサでは追跡できなかった範囲、向き、位置の人物を検知する。また、行動認識装置30は、訓練データに基づき、第1のセンサ10の任意のセンサデータに対する第2のセンサ20のセンサデータの推定値として、第1のセンサ10の映像センサにより撮影された映像をセル分割したセルごとに計算した、当該セルに対する第2のセンサ20のセンサデータの代表値を用いる。

目的

本発明は、前記した問題を解決し、人物の特定が曖昧なセンサの組み合わせにより人物の行動を検知する場合において、人物の行動の認識の精度を向上させ、かつ、部外者の検知を容易なものとすることを課題とする

効果

実績

技術文献被引用数
0件
牽制数
0件

この技術が所属する分野

(分野番号表示ON)※整理標準化データをもとに当社作成

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物行動の認識を行う行動認識装置であって、前記第1のセンサは、複数の異なる場所に配置された映像センサで同時に所定エリア映像撮影し、前記映像センサそれぞれの映像にうつる人物を時間的に連続して検知するセンサであり、前記行動認識装置は、同じ人物について、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知した前記人物のセンサデータとのペア集合である訓練データを記憶する記憶部と、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知したセンサデータとを収集する収集部と、前記第1のセンサの任意のセンサデータに対する、前記第2のセンサのセンサデータの推定値として、前記映像センサそれぞれが撮影した映像のピクセル空間を複数のセルに分割し、前記第1のセンサの任意のセンサデータの属する前記映像におけるセル位置を求め、前記訓練データに基づき、前記セル位置に対する前記第2のセンサのセンサデータの代表値を計算する推定部と、計算した前記代表値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合部と、前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定部と、を備えることを特徴とする行動認識装置。

請求項2

前記推定部は、さらに、前記訓練データにおける前記第1のセンサのセンサデータのうち、一部の映像センサのセンサデータの値をnullとしたセンサデータを生成し、前記訓練データを用いて、前記一部の映像センサのセンサデータの値をnullとしたセンサデータに対する、前記第2のセンサのセンサデータの推定値を計算し、前記一部の映像センサのセンサデータの値をnullとしたセンサデータと、前記第2のセンサのセンサデータの推定値とのペアを前記訓練データに追加することを特徴とする請求項1に記載の行動認識装置。

請求項3

前記第2のセンサは、前記所定エリアに複数個設置されるビーコン装置と、前記人物に所持され、前記ビーコン装置からのビーコン信号を受信する端末装置とを備え、前記第2のセンサのセンサデータは、前記人物が所持する端末装置が受信したビーコン信号の受信強度を示すデータであることを特徴とする請求項1に記載の行動認識装置。

請求項4

前記映像センサはそれぞれ、前記所定エリアを異なる角度から撮影するよう配置されていることを特徴とする請求項1〜請求項3のいずれか1項に記載の行動認識装置。

請求項5

前記映像センサはそれぞれ、前記映像センサの映像撮影範囲が重なるよう配置されていることを特徴とする請求項1〜請求項4のいずれか1項に記載の行動認識装置。

請求項6

前記第1のセンサは、複数の映像センサと、同じ人物について、同じ時刻に、前記映像センサそれぞれにより撮影された映像における前記人物の位置情報の組み合わせを人物映像訓練データとして記憶する記憶部と、前記人物映像訓練データと、前記映像センサそれぞれで同時に撮影された映像とに基づき、前記映像それぞれにうつる人物の対応付けを行う識別部と、を備えることを特徴とする請求項1〜請求項5のいずれか1項に記載の行動認識装置。

請求項7

第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物の行動の認識を行う行動認識装置を用いた行動認識方法であって、前記第1のセンサは、複数の異なる場所に配置された映像センサで同時に所定エリアの映像を撮影し、前記映像センサそれぞれの映像にうつる人物を時間的に連続して検知するセンサであり、前記行動認識装置が、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知した前記人物のセンサデータとを収集する収集ステップと、前記映像センサそれぞれの映像をセル分割し、同じ人物について、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知したセンサデータとのペアの集合である訓練データに基づき、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知したセンサデータとを収集する収集ステップと、前記第1のセンサの任意のセンサデータに対する、前記第2のセンサのセンサデータの推定値として、前記映像センサそれぞれが撮影した映像のピクセル空間を複数のセルに分割し、前記第1のセンサの任意のセンサデータの属する前記映像におけるセル位置を求め、前記訓練データに基づき、前記セル位置に対する前記第2のセンサのセンサデータの代表値を計算する推定ステップと、計算した前記代表値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合ステップと、前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定ステップと、を含んだことを特徴とする行動認識方法。

技術分野

0001

本発明は、行動認識装置、および、行動認識方法に関する。

背景技術

0002

従来、複数のカメラを用いた人物監視技術が提案されている。例えば、複数のカメラの撮影映像から移動体を抽出し、カメラ間映像を照合し、その移動体の移動経路を求める。そして、移動体の所定エリアへの侵入の有無を判定し、監視員アラーム表示する技術が提案されている。この技術において、カード認証等、個人特定手段を用いることで、移動体(人物)の所定エリアへのアクセス権限の有無を判断する。また、移動体(人物)の移動経路や移動軌跡分析することで、映像にうつった移動体(人物)が不審者であるか否かを判定し、アラーム表示する(技術1)。

0003

また、ステレオカメラの映像を利用して、人物の不審行動を検知する技術も提案されている。この技術は、監視対象となる人物の移動軌跡を取得し、この移動軌跡に基づいて当該人物の行動状態識別し、不審行動を検知する(技術2、特許文献1参照)。

先行技術

0004

特開2012-128877号公報

発明が解決しようとする課題

0005

しかし、上記の技術1は、カード認証手段等、人物特定が明確な個人特定手段を用いることが前提となる。したがって、例えば、映像トラッキングシステムビーコン受信ステム等、人物特定が曖昧な技術のみを用い、上記のような人物特定が明確な個人特定手段を用いない場合、映像トラッキングシステムで検知した人物の所定エリアへのアクセス権限の有無を判定したり、当該人物が不審者であるか否かを判定したりすることは困難である。

0006

例えば、ビーコン受信システムの位置検知精度は、数10m程度であり、誤差も多い。このため、映像トラッキングシステムで検知した人物について所定エリアへのアクセス権限が有るか否かを判定したり、当該人物が不審者であるか否かを判定したりすることも困難である。また、上記の技術2は、不審者(部外者)の行動パターン事前登録しておく必要があり、手間がかかるという問題がある。

0007

そこで、本発明は、前記した問題を解決し、人物の特定が曖昧なセンサの組み合わせにより人物の行動を検知する場合において、人物の行動の認識の精度を向上させ、かつ、部外者の検知を容易なものとすることを課題とする。

課題を解決するための手段

0008

前記した課題を解決するため、本発明は、第1のセンサによるセンサデータおよび第2のセンサによるセンサデータを用いて、人物の行動の認識を行う行動認識装置であって、前記第1のセンサは、複数の異なる場所に配置された映像センサで同時に所定エリアの映像を撮影し、前記映像センサそれぞれの映像にうつる人物を時間的に連続して検知するセンサであり、前記行動認識装置は、同じ人物について、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知したセンサデータとのペア集合である訓練データを記憶する記憶部と、同じ時刻に、前記第1のセンサの映像センサそれぞれで検知した前記人物の位置情報を示すセンサデータと、前記第2のセンサで検知した前記人物のセンサデータとを収集する収集部と、前記第1のセンサの任意のセンサデータに対する、前記第2のセンサのセンサデータの推定値として、前記映像センサそれぞれが撮影した映像のピクセル空間を複数のセルに分割し、前記第1のセンサの任意のセンサデータの属する前記映像におけるセル位置を求め、前記訓練データに基づき、前記セル位置に対する前記第2のセンサのセンサデータの代表値を計算する推定部と、前記第2のセンサのセンサデータの推定値に基づき、収集した前記第1のセンサのセンサデータに対する前記第2のセンサのセンサデータの推定値を計算し、前記第2のセンサのセンサデータの推定値と、収集した前記第2のセンサのセンサデータとの類似度を計算し、前記類似度の時間的推移に基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物である可能性の高さを示す照合スコアを計算する照合部と、前記照合スコアに基づき、前記第1のセンサで検知した人物と前記第2のセンサで検知した人物とが同一人物であるか否かを判定する判定部と、を備えることを特徴とする。

発明の効果

0009

本発明によれば、人物の特定が曖昧なセンサの組み合わせにより人物の行動を検知する場合において、人物の行動の認識の精度を向上させ、かつ、部外者の検知を容易なものとすることができる。

図面の簡単な説明

0010

図1は、行動認識システムの構成例を示す図である。
図2は、行動認識装置の概要を説明するための図である。
図3は、各映像センサの映像における同じ人物のピクセル位置対応付けを説明するための図である。
図4は、第1のセンサの構成例を示す図である。
図5は、第1のセンサで撮影した映像のピクセル空間のセル分割の例を示す図である。
図6は、ピクセル位置ベクトルとセルベクトルとの対応を説明するための図である。
図7は、あるセル位置に属する任意のピクセル位置に対応する、第2のセンサのセンサデータの推定値の計算例を説明するための図である。
図8は、行動認識装置による人物判定処理の例を示すフローチャートである。
図9は、サブセット位置ベクトルの生成に用いられるピクセル位置ベクトル、セルベクトルおよび第2のセンサのセンサデータの例を示す図である。
図10は、サブセット位置ベクトルと、サブセット位置ベクトルに対応する第2のセンサのセンサデータとを説明するための図である。
図11は、映像センサの配置例を示す図である。
図12は、映像センサの配置例を示す図である。
図13は、映像センサの配置例を示す図である。
図14は、行動認識装置の表示映像の例を示す図である。
図15は、行動認識プログラムを実行するコンピュータを示す図である。

実施例

0011

以下、図面を参照しながら、本発明を実施するための形態(実施形態)を第1の実施形態および第2の実施形態に分けて説明する。本発明は各実施形態に限定されない。

0012

[第1の実施形態]
(構成)
まず、図1を用いて第1の実施形態の行動認識システム(システム)の構成例を説明する。例えば、システムは、第1のセンサ10と、第2のセンサ20と、行動認識装置30とを備える。このシステムは、第1のセンサ10および第2のセンサ20それぞれのセンサデータを用いて、人物の行動の認識と、部外者の検知を行う。

0013

第1のセンサ10は、複数の映像センサにより所定エリアの映像を撮影し、撮影した映像に映る人物を時間的に連続して検知する。

0014

また、第2のセンサ20は、例えば、所定エリアに複数個設置され、無線信号(例えば、BLE(Bluetooth(登録商標) Low Energy)ビーコン信号等のビーコン信号)を発する装置と、所定の人物に所持され、無線信号の受信機能を有する端末(例えば、モバイル端末)とにより実現される。無線信号がビーコン信号である場合、第2のセンサ20は、例えば、ビーコン信号を発するビーコン装置と、ビーコン信号の受信機能を有する端末とにより実現される。なお、この端末の端末IDと、端末の所持者のID(例えば、社員ID)とは予め対応づけられているものとする。

0015

行動認識装置30は、事前に、同じ人物の同じ時刻における、第1のセンサ10からのセンサデータ(例えば、映像センサそれぞれにおける人物のピクセル位置のデータ)と、第2のセンサ20からのセンサデータ(例えば、端末における各ビーコン信号の受信強度を示すデータ)とを対応付けた訓練データを用意しておく。

0016

そして、行動認識装置30は、行動認識の対象である第1のセンサ10からのセンサデータおよび第2のセンサ20からのセンサデータを取得すると、上記の訓練データを用いて、第1のセンサ10で検知した人物が、第2のセンサ20で検知したどの端末の所持者かを判定する。

0017

例えば、行動認識装置30は、図2に示すように、第1のセンサ10のセンサ種別が複数の監視カメラ(映像センサ)による人物検知を行うセンサである場合、第1のセンサ10で検知される人物の属性(Ax)は各監視カメラにより撮影された映像におけるピクセル位置により特定する。また、検知される人物の人物ID(i=1,2,…)は、例えば、当該映像におけるトラッキングIDを用いる。さらに、センサデータ(Xi=X1,X2,…)は、例えば、当該映像における人物のピクセル位置を用いる。

0018

なお、第1のセンサ10のセンサデータXは、同じ時刻に、各映像センサで撮影された映像における人物の位置情報(例えば、ピクセル位置)を示したデータである。このセンサデータXは、例えば、各映像センサで撮影された映像における人物の位置情報をベクトルの成分とする位置ベクトルにより表される。この位置ベクトルは、例えば、物理位置1の人物について、(映像センサ1の映像におけるピクセル位置,映像センサ2の映像におけるピクセル位置,…)というように、人物ごとに各映像センサで撮影された映像における当該人物のピクセル位置を対応付けた情報である。

0019

また、第2のセンサ20のセンサ種別がビーコン(ビーコン装置)と端末(モバイル端末)である場合、第2のセンサ20で検知される人物の属性(Ay)は、例えば、端末IDに対応する社員IDにより特定する。また、検知される人物の人物ID(j=1,2,…)は、例えば、端末IDを用いる。さらに、センサデータ(Yj=Y1,Y2,…)は、例えば、当該端末におけるビーコンの受信電波強度を用いる。

0020

そして、行動認識装置30の制御部33は、訓練データを用いて、第1のセンサ10で検知した人物iと第2のセンサ20で検知した人物jとの対応付けを行う。

0021

換言すると、行動認識装置30の制御部33は、第1のセンサ10で検知した人物iが第2のセンサ20で検知したどの端末(端末を所持する人物j)と対応するかを判定する。このような判定により、行動認識装置30は、例えば、図2に示すように、第1のセンサ10の撮影映像におけるピクセル位置:X1の人物が社員ID:j3であり、ピクセル位置:X2の人物が端末不所持であり、ピクセル位置:X3の人物が社員ID:j2である等の判定結果を得る。これにより、行動認識装置30は、人物の行動の認識や、部外者の検知を行うことができる。

0022

また、前記したとおり、システムは、第1のセンサ10に複数の映像センサを備える。これにより、システムは、所定エリアにおける人物の行動認識や、部外者の検知の精度を向上させることができる。

0023

例えば、図3に示すように、第1のセンサ10は、物理位置1〜物理位置3の人物を撮影する際に、映像センサ1と映像センサ2という複数の映像センサで撮影するので、いずれかの映像センサで撮影できなかった人物(例えば、映像センサ1では撮影できなかった物理位置3の人物)について、他の映像センサ(例えば、映像センサ2)で撮影できる可能性を高くすることができる。

0024

なお、この第1のセンサ10は、映像センサそれぞれの映像にうつる人物映像について、例えば、人物映像訓練データ(詳細は後記)を用いて、それぞれがどの人物の人物映像であるかを対応付ける。この第1のセンサ10の構成例を、図4を用いて説明する。

0025

例えば、この第1のセンサ10は、図4に示すように入出力部11と、記憶部12と、制御部13と、複数の映像センサとを備える。

0026

入出力部11は、各種データの入出力を司る。ここでは、主に第1のセンサ10の各映像センサによるセンサデータXを行動認識装置30へ出力する。また、記憶部12は、人物映像訓練データを記憶する。この人物映像訓練データは、同じ人物について、同じ時刻に、各映像センサにより撮影された映像における当該人物の位置情報の組み合わせを示したデータである。

0027

また、制御部13は、識別部131を備える。この識別部131は、同時刻に各映像センサで撮影された所定エリアの映像を取得すると、人物映像訓練データを用いて、それぞれの映像内の人物映像がどの人物の人物映像であるかを対応付ける。

0028

このような第1のセンサ10によれば、同じ時刻に、異なる場所に配置された映像センサそれぞれの映像にうつる人物映像について、同じ人物の人物映像を対応付けることができる。対応付けの例を、図3を用いて説明する。

0029

例えば、第1のセンサ10は、図3に示す映像1の人物映像11および映像2の人物映像22を、同じ物理位置1の人物の人物映像として対応付け、人物映像IDベクトルとしてH(11,22)を生成する。

0030

この人物映像IDベクトルは、映像センサそれぞれにおける人物映像IDを示した情報である。この人物映像IDベクトルは、例えば、H(映像1における人物映像ID,映像2における人物映像ID,…)というように記述される。

0031

また、映像1の人物映像21および映像2の人物映像12を、同じ物理位置2の人物の映像として対応付け、人物映像IDベクトルとしてH(21,12)を生成する。

0032

また、第1のセンサ10は、図3に示す映像1のピクセル位置x11および映像2のピクセル位置x22を、同じ物理位置1の人物の人物映像のピクセル位置として対応付け、人物ピクセル位置ベクトルとしてX(x11,x22)を生成する。

0033

このピクセル位置ベクトルは、映像センサそれぞれにおける人物映像のピクセル位置を示した情報である。このピクセル位置ベクトルは、例えば、X(映像1における人物映像のピクセル位置,映像2における人物映像のピクセル位置,…)というように記述される。

0034

また、第1のセンサ10は、図3に示す映像1のピクセル位置x21および映像2のピクセル位置x12を、同じ物理位置2の人物のピクセル位置ベクトルとしてX(x21,x12)を生成する。

0035

なお、図3に示す映像1には含まれないが、映像2に含まれる人物映像32については、第1のセンサ10は、例えば、物理位置3の人物の人物映像IDベクトルとしてH(null,32)を生成し、ピクセル位置ベクトルとしてX(null,x32)を生成する。つまり、第1のセンサ10は、映像にうつっていない人物については、人物映像IDベクトル、ピクセル位置ベクトルにおける当該映像に関する成分の値をnullとする。

0036

図1戻り、行動認識装置30の構成を詳細に説明する。行動認識装置30は、入出力部31と、記憶部32と、制御部33とを備える。

0037

入出力部31は、各種データの入出力を司り、例えば、第1のセンサ10および第2のセンサ20からのセンサデータの入力を受け付ける。

0038

記憶部32は、制御部33において、人物の行動の認識や、部外者の検知を行うための各種データを記憶する。記憶部32は、例えば、第1のセンサ10および第2のセンサ20から収集したセンサデータ、訓練データ、照合スコア、判定結果等を記憶する領域を備える。

0039

訓練データは、前記したとおり、同一人物(人物p)について、同時刻において、第1のセンサ10で検知したセンサデータXpおよび第2のセンサ20で検知したセンサデータYpのペア(Xp,Yp)の集合である。

0040

この訓練データは、例えば、事前に、第1のセンサ10で検知される人物と第2のセンサ20で検知される人物とが同一であることが分かっている環境で収集される。照合スコア、判定結果の詳細については、後記する。

0041

制御部33は、センサデータ収集部331と、推定部332と、センサデータ照合部333と、人物判定部334とを備える。

0042

センサデータ収集部331は、同じ時刻に、第1のセンサ10で検知した人物(例えば、人物i)のセンサデータXと、第2のセンサ20で検知した人物(例えば、人物j)のセンサデータYとを収集する。このセンサデータXは、例えば、人物iについて、同じ時刻に、第1のセンサ10の映像センサそれぞれで撮影された映像における位置情報をベクトルの成分とする位置ベクトルXである。

0043

推定部332は、訓練データに基づき、任意のセンサデータXp´に対する第2のセンサ20のセンサデータYp´の推定値Ye(Xp´)を計算する。

0044

つまり、推定部332は、映像センサそれぞれの映像をセル分割する(図5参照)。そして、推定部332は、訓練データに基づき、訓練データにおける第1のセンサ10の位置ベクトルXpの属するセルごとに、当該セルに対する、第2のセンサ20のセンサデータYの代表値を計算する。

0045

そして、推定部332は、第1のセンサ10の任意のセンサデータXp´について、このセンサデータXp´の属するセルと、計算したセルぞれぞれの第2のセンサ20のセンサデータYの代表値とに基づき、センサデータXp´に対するセンサデータYの推定値Ye(Xp´)を計算する。具体的には、推定部332は、センサデータXp´の属するセルに対する、第2のセンサ20のセンサデータYの代表値を、センサデータXp´に対するセンサデータYp´の推定値Ye(Xp´)と推定する。

0046

例えば、まず、推定部332は、第1のセンサ10の撮影した映像のピクセル空間を複数のセル(図5参照)に分割する。そして、推定部332は、訓練データにおける位置ベクトルXpの成分であるピクセル位置を、当該ピクセル位置に属するセル位置に変換したセルベクトルcvを生成する。

0047

上記の位置ベクトル(ピクセル位置ベクトル)とセルベクトルとの対応を、図6を参照しながら説明する。ここでは、例えば、図6に示すように、第1のセンサ10の映像センサが撮影した映像(映像1および映像2)それぞれのピクセル空間を、c1〜c80のセルに分割した場合を考える。

0048

この場合、映像1におけるピクセル位置x11はセル位置c46に属し、ピクセル位置x21はセル位置c38に属する。また、映像2におけるピクセル位置x22はセル位置c22に属し、ピクセル位置x12のセル位置c14に属し、ピクセル位置x32のセル位置c26に属する。

0049

したがって、ピクセル位置ベクトルX(x11,x22)に対応するセルベクトルはcv(c46,c22)であり、ピクセル位置ベクトルX(x21,x12)に対応するセルベクトルはcv(c38,c14)であり、ピクセル位置ベクトルX(null,x32)に対応するセルベクトルはcv(null,c26)である。

0050

次に、推定部332は、訓練データから、セルベクトルcvに属する位置ベクトルXp(センサデータXp)に対する第2のセンサ20のセンサデータYp群を取得し、このセンサデータYp群の代表値(例えば、平均値)を計算する。

0051

そして、推定部332は、任意のセンサデータXp´に対する第2のセンサ20のセンサデータYp´の推定値Ye(Xp´)として、この任意のセンサデータXp´の属するセルベクトルcv´に対する第2のセンサ20のセンサデータYpの代表値Ye(cv´)を用いる。つまり、推定部332は、[Ye(Xp´)=Ye(cv´)|Xp´⊂cv´]とする。

0052

例えば、図7に示すように、セル位置cに、ピクセル位置xp1、ピクセル位置xp2、ピクセル位置xp3が属する場合、推定部332は、訓練データからピクセル位置xp1、ピクセル位置xp2、ピクセル位置xp3それぞれに対応する第2のセンサ20のセンサデータYp(センサデータYp1、センサデータYp2、センサデータYp3)を取得する。そして、推定部332は、取得したセンサデータYp1、センサデータYp2、センサデータYp3に基づき、セル位置cに対応する第2のセンサ20のセンサデータYの代表値Ye(c)を計算する。この代表値Ye(c)は、例えば、上記のセンサデータYp1、センサデータYp2およびセンサデータYp3の平均値(Yp1+Yp2+Yp3)/3である。このようにして計算された代表値Ye(c)は、セル位置cに属する任意のピクセル位置xに対応するセンサデータYの推定値Ye(x)と考えることができる。

0053

よって、推定部332は、図7の下の図に示すように、セル位置c´に属する任意のピクセル位置x´に対応する、第2のセンサ20のセンサデータの推定値Ye(x´)は、セル位置c´に対応する第2のセンサ20のセンサデータYの代表値Ye(c´)と推定する。つまり、Ye(x´)=Ye(c´)と推定する。

0054

上記の例は一次元ベクトルであるが、この考え方は、多次元ベクトルであるピクセル位置ベクトルおよびセルベクトルにも適用できる。

0055

すなわち、任意の位置ベクトルXp´に対するセンサデータYの推定値Ye(Xp´)は、この任意の位置ベクトルXp´の属するセルベクトルcv´に対応するセンサデータYの代表値Y(cv´)と考えることができる。よって、推定部332は、セルベクトルcv´に対応するセンサデータYの代表値Y(cv´)を、位置ベクトルXp´のセンサデータYの推定値Ye(Xp´)として用いる。

0056

なお、セル内部の訓練データの数が充実するほど、上記の代表値(cv´)の推定精度は高くなる。

0057

また、上記の代表値Ye(cv´)の計算において、推定部332が分割するセルのサイズは、例えば、訓練データの数や、代表値Ye(cv´)の計算量やメモリ使用量、求められる人物判定精度の高さ等を考慮して、システムの管理者等が適宜設定してよい。

0058

さらに、推定部332は、上記の代表値Ye(cv´)を計算するとき、セルベクトルcv´外のセンサデータXpに対応する第2のセンサ20のセンサデータYも用いた回帰分析等を行ってもよい。このようにすることで、推定部332は、上記の代表値Ye(cv´)を精度よく計算することができる。

0059

センサデータ照合部333は、任意の位置ベクトルXp´の推定値Ye(Xp´)、つまり、位置ベクトルXp´の属するセルベクトルcv´の代表値Ye(cv´)に基づき、位置ベクトルXiに対するセンサデータYiの推定値Ye(Xi)を計算する。そして、センサデータ照合部333は、収集したセンサデータYj(つまり、人物jのセンサデータYの実測値)とセンサデータYiの推定値Ye(Xi)との類似度Cijを計算する。

0060

センサデータ照合部333は、このような類似度Cijの計算を各時刻のセンサデータXiおよびセンサデータYiについて行い、計算した類似度Cijの時間的推移に基づき、人物iと人物jとが同一人物である可能性の高さを示す照合スコアPijを計算する。

0061

なお、推定部332が、事前に、任意の位置ベクトルXp´に対するセンサデータYp´の推定値Ye(Xp´)、つまり、位置ベクトルXp´の属するセルベクトルcv´の代表値Ye(cv´)を計算しておくことで、センサデータ照合部333は、センサデータXiに対するセンサデータYiの推定値Ye(Xi)を迅速に求めることができる。

0062

人物判定部334は、センサデータ照合部333で計算した照合スコアPijに基づき、人物iと人物jとが同一人物である(true)か否(false)かを判定する。

0063

例えば、人物判定部334は、照合スコアPijが所定値を超える場合、人物iと人物jとが同一人物であると判定し、照合スコアPijが所定値以下の場合、人物iと人物jとが同一人物ではないと判定する。さらに、人物判定部334は、人物iについて同一人物と判定される人物jがいなかった場合、人物iが部外者であると判定する。そして、その判定結果を、記憶部32に記録する。

0064

例えば、人物判定部334は、図2に示すように、同一人物と判定された人物iと人物jについて、人物iのセンサデータXi(映像におけるピクセル位置)と人物jのセンサデータYj(端末に紐付く社員ID)とを対応付けた情報を判定結果として、記憶部32に記録する。なお、上記の制御部33の各部の詳細は、処理手順の説明で後記する。

0065

(処理手順)
次に、図8を用いて、行動認識装置30の処理手順を説明する。行動認識装置30が行う処理は、事前フェーズの処理(S1)と、その後の行動フェーズの処理(S2)とに分けられる。事前フェーズ(S1)では、行動認識装置30は、同一人物pについての同時刻におけるセンサデータ(Xp,Yp)を収集し(S11)、訓練データを作成しておく。その後、推定部332は、任意のセンサデータXp´(位置ベクトルXp´)に対するセンサデータYp´(=Ye(Xp´))を推定する(S12)。そして、推定部332は、推定結果(Xp´,Ye(Xp´))を訓練データに追加する。なお、ここでのYe(Xp´)は、前記したとおり、任意の位置ベクトルXp´の属するセルベクトルcv´に対する、センサデータYの代表値Ye(cv´)を用いる。

0066

その後の行動フェーズ(S2)では、センサデータ収集部331がセンサデータ(Xi,Yj)を収集する(S21)。なお、このセンサデータ(Xi,Yj)は、同時刻に第1のセンサ10および第2のセンサ20で検知した人物(人物iおよび人物j)のセンサデータである。センサデータ照合部333は、訓練データ内の(Xp´,Ye(Xp´))に基づき、S21で収集したセンサデータXi(位置ベクトルXi)の値に対するセンサデータYiの推定値Ye(Xi)を求める。

0067

その後、センサデータ照合部333は、センサデータYiの推定値Ye(Xi)と、収集したセンサデータYjとの類似度Cijに基づき人物iと人物jとが同一人物である可能性の高さを示す照合スコアPijを計算する(S22:センサデータの照合スコアPijを計算)。

0068

例えば、センサデータ照合部333は、訓練データ内の(Xp´,Ye(Xp´))に基づき、人物i(i=1,2,…)のセンサデータXiについてのセンサデータYiの推定値Ye(Xi)を求める。その後、センサデータ照合部333は、人物i(i=1,2,…)のセンサデータYiの推定値Ye(Xi)と、人物j(j=1,2,…)のセンサデータYjとの類似度Cijを計算する。

0069

例えば、センサデータ照合部333は、推定値Ye(X1)とY1,Y2,…との類似度であるC11,C12,C13,…を計算し、また、推定値Ye(X2)とY1,Y2,…との類似度であるC21,C22,C23,…を計算する。

0070

そして、センサデータ照合部333は、計算した類似度Cijそれぞれの時間的推移を指標として照合スコアPijを計算する。例えば、センサデータ照合部333は、所定期間における人物iと人物jのセンサデータYの類似度Cijの平均値を照合スコアPijとする。

0071

図8に戻る。S22の後、人物判定部334は、S22で計算した照合スコアPijに基づき人物判定を行う(S23)。例えば、人物判定部334は、S22で計算した照合スコアPijが所定値を超える場合、人物iと人物jとが同一人物であると判定し、照合スコアPijが所定値以下の場合、人物iと人物jとが同一人物ではないと判定する。なお、人物iについて同一人物と判定される人物jがいなかった場合、人物判定部334は、人物iは部外者であると判定する。人物判定部334は、上記の判定をすべての人物iと人物jとの組み合わせについて実行する。そして、その判定結果を記憶部32に記録する。

0072

以上の処理により、行動認識装置30は、第1のセンサ10および第2のセンサ20のセンサデータを用いた人物の行動の認識および部外者の検知を精度よく行うことができる。

0073

また、システムは、第1のセンサ10の複数の映像センサにより、映像にうつる人物を時間的に連続して検知する(トラッキングする)ので、行動認識装置30における人物の行動の認識および部外者の検知の精度を向上させることができる。

0074

さらに、行動認識装置30は、任意の位置ベクトルXp´に対するセンサデータYの推定値Ye(Xp´)を計算する際、この位置ベクトルXp´の属するセルベクトルcv´に対するセンサデータYの代表値Ye(cv´)を用いるので、上記の推定値Ye(Xp´)を効率よく計算することができる。

0075

また、システムは、第2のセンサ20として、例えば、ビーコン受信システムを用いることで、例えば、物理的な認証ゲートを設置するよりも、人物の行動に対する制約を低くし、かつ、設備コストも低くすることができる。

0076

また、システムは、部外者(不審者)の検知にあたり、行動パターンを事前に登録する必要がない。よって、例えば、行動パターンを予測できないオフィス空間等においても、部外者の検知を容易に行うことができる。

0077

[第2の実施形態]
なお、行動認識装置30は、訓練データにおけるセンサデータについて一部の位置情報の値をnullとしたサブセット位置ベクトルを生成し、このサブセット位置ベクトルを追加した訓練データを用いて人物の行動認識、部外者の検知を行ってもよい。

0078

つまり、推定部332は、訓練データにおける位置ベクトルXpを成分である位置情報のうち、一部の位置情報の値をnullとしたサブセット位置ベクトルXpsを生成する。そして、推定部332は、このサブセット位置ベクトルXpsと、当該サブセット位置ベクトルXpsの元となった位置ベクトルXpに対するセンサデータYpとのペア(Xps,Yp)の集合を訓練データに追加する。

0079

行動認識装置30が、このようなサブセット位置ベクトルを含む訓練データを用いることで、例えば、第1のセンサ10の一部の映像センサで人物が撮影できなかった等、センサデータXにノイズが含まれていた場合でも、人物の行動認識、部外者の検知を精度よく行うことができる。

0080

このサブセット位置ベクトルXpsと、このサブセット位置ベクトルXpsに対応する第2のセンサ20のセンサデータYpについて、図9および図10を用いて説明する。

0081

ここでは、図9に示す訓練データに基づきサブセット位置ベクトルを生成する場合を例に説明する。図9に示す訓練データは、映像センサ1〜映像センサ3で同時に物理位置a〜物理位置cの人物それぞれを撮影したときの人物映像のピクセル位置(ピクセル位置ベクトルXp)と、同時刻における物理位置a〜物理位置cの人物それぞれの第2のセンサ20のセンサデータYpとを対応付けたデータである。

0082

この訓練データにおける物理位置aの人物のセルベクトルは(c15,c24,c37)であり、物理位置bの人物のセルベクトルは(c15,c25,c35)であり、物理位置cの人物のセルベクトルは(c15,c29,c37)であるものとする。訓練データにおける物理位置aの人物の第2のセンサ20のセンサデータYpはYaであり、物理位置bの人物の第2のセンサ20のセンサデータYpはYbであり、物理位置cの人物の第2のセンサ20のセンサデータYpはYcであるものとする。

0083

図9の訓練データに示す物理位置a〜物理位置cの人物それぞれのピクセル位置ベクトルXpに対し、サブセット(subset)のピクセル位置ベクトルXpを生成すると、図10に示すようになる。つまり、推定部332は、図10に示すように、オリジナル(origin)のピクセル位置ベクトルXpの3つの成分のうち、任意の1つまたは2つの成分についてnullとしたサブセット(subset)のピクセル位置ベクトルXpを生成する。

0084

例えば、図10に示すように、物理位置aの人物のオリジナル(origin)のピクセル位置ベクトルXpは(x1a,x2a,x3a)である。よって、推定部332は、オリジナルのピクセル位置ベクトルXpの(x1a,x2a,x3a)の3つの成分のうち、1つまたは2つの成分についてnullとしたサブセット(subset)のピクセル位置ベクトルXp群を生成する。例えば、推定部332は、符号901に示す6つのサブセット(subset)のピクセル位置ベクトルXp群を生成する。

0085

また、推定部332は、サブセット(subset)のピクセル位置ベクトルXpそれぞれについてセルベクトルも生成する。なお、サブセット(subset)のピクセル位置ベクトルXpにおいて、nullとなっている成分の値については、セルベクトルの値もnullとする。例えば、推定部332は、符号901に示す6つのサブセット(subset)のピクセル位置ベクトルXp群に対し、符号902に示すセルベクトル群を生成する。

0086

さらに、推定部332は、サブセット(subset)のピクセル位置ベクトルXpそれぞれについて、第2のセンサ20のセンサデータYpの推定値を計算する。ここでの推定値の計算は、サブセット(subset)のピクセル位置ベクトルXpのうち、セルベクトルが同じであるサブセット(subset)のピクセル位置ベクトルXpを抽出することにより行われる。

0087

例えば、推定部332は、セルベクトルが同じであるサブセット(subset)のピクセル位置ベクトルXpとして、図10において、*2の付された2つのサブセット(subset)のピクセル位置ベクトルXpを抽出した場合を考える。

0088

この場合、まず、推定部332は、*2のサブセット(subset)のピクセル位置ベクトルXpのオリジナル(origin)のピクセル位置ベクトルXpに対する第2のセンサ20のセンサデータYpであるYaおよびYcを取得する。

0089

そして、推定部332は、取得したセンサデータYpの値(YaおよびYc)の代表値を、*2のサブセット(subset)のピクセル位置ベクトルXpそれぞれに対する、第2のセンサ20のセンサデータYpとする。例えば、代表値を、センサデータYpの値(YaおよびYc)の平均値とする場合、推定部332は、(Ya+Yc)/2を、*2のサブセット(subset)のピクセル位置ベクトルXpそれぞれに対する、第2のセンサ20のセンサデータYpとする。

0090

推定部332は、*1および*3のサブセット(subset)のピクセル位置ベクトルXpに対しても、上記と同様に第2のセンサ20のセンサデータYpを計算し、図10の第2のセンサ20のセンサデータYpの欄に示す各値を得る。その後、推定部332は、*1、*2および*3それぞれのサブセット(subset)のピクセル位置ベクトルXpと、計算した第2のセンサ20のセンサデータYpとを対応付けたデータを訓練データに追加する。

0091

例えば、推定部332は、*1のサブセット(subset)のピクセル位置ベクトルXpについて、((x1a,null,null),(Ya+Yb+Yc)/3)と、((x1b,null,null),(Ya+Yb+Yc)/3)と、((x1c,null,null),(Ya+Yb+Yc)/3)とを訓練データに追加する。また、推定部332は、*2のサブセット(subset)のピクセル位置ベクトルXpについて、((x1a,null,x3a),(Ya+Yc)/2)と、((x1c,null,x3c),(Ya+Yc)/2)とを訓練データに追加する。さらに、推定部332は、*3のサブセット(subset)のピクセル位置ベクトルXpについて、((null,null,x3a),(Ya+Yc)/2)と、((null,null,x3c),(Ya+Yc)/2)とを訓練データに追加する。

0092

その後、推定部332は、上記のサブセットのピクセル位置ベクトルと、このサブセットのピクセル位置ベクトルに対応する第2のセンサ20のセンサデータとが追加された訓練データを用いて、任意の位置ベクトルXp´の推定値Ye(Xp´)、つまり、代表値Ye(cv´)を計算する。

0093

これにより、行動認識装置30は、第1のセンサ10の一部の映像センサで当該人物が撮影できなかったため、収集したセンサデータXiがノイズを含む場合でも、人物の行動認識、部外者の検知を精度よく行うことができる。

0094

[その他の実施形態]
なお、第1のセンサ10における複数の映像センサはそれぞれ異なる場所に配置されるが、例えば、図11に示す映像センサ1および映像センサ2のように、所定エリアをそれぞれ異なる角度から撮影するように配置するのが好ましい。

0095

例えば、図11に示す所定エリア内の人物が移動方向aに移動することにより、映像センサ1と人物との距離lが近くなると、映像センサ1における当該人物のピクセル平面上での移動速度も大きくなり、映像センサ1における当該人物のトラッキング精度が低くなるおそれがある。また、図11に示すように、映像センサ1の光軸方向と人物の移動方向aとが同じである場合、映像センサ1は人物移動を検知するのに必要な解像度のセンサデータを得ることができないため、映像センサ1における当該人物のトラッキング精度が低くなるおそれがある。

0096

そこで、図11に示す映像センサ1および映像センサ2のように、複数の映像センサについて、所定エリアをそれぞれ異なる角度から撮影するよう配置することで、いずれかの映像センサの人物のトラッキング精度が低かった場合でも、他の映像センサから当該人物についてトラッキング精度の高いセンサデータを得やすくなる。

0097

また、このように複数の映像センサを異なる角度い配置することで、例えば、図12に示すように、映像センサ1と所定エリア内の人物との間に障害物があるため、映像センサ1の当該人物のトラッキング精度が低かった場合でも、第1のセンサ10は、他の映像センサ(映像センサ2)から当該人物についてトラッキング精度の高いセンサデータを得やすくなる。

0098

さらに、第1のセンサ10は、例えば、図13に示す映像センサ1、映像センサ2および映像センサ3のように、各映像センサの撮影範囲が重なるよう(オーバーラップ範囲が生じるよう)に配置してもよい。

0099

すなわち、第1のセンサ10が各映像センサにより撮影したい範囲が、図13に示す所定エリアである場合を考える。この場合、この所定エリアを各映像センサの撮影範囲の組み合わせでカバーし、かつ、各映像センサの撮影範囲間でオーバーラップ範囲が生じるように映像センサ群を配置する。つまり、各映像センサの撮影範囲の少なくとも一部が他のいずれかの映像センサの撮影範囲と重複するように映像センサ群を配置する。

0100

これにより、例えば、第1のセンサ10は、人物がいずれかの映像センサで撮影できないエリアにいる場合でも、他の映像センサにより当該人物を撮影することができる。なお、当該人物がオーバーラップ範囲にいる場合には、このオーバーラップ範囲を撮影範囲に含む複数の映像センサにより当該人物を撮影する。

0101

つまり、上記のように映像センサ群を配置することで、例えば、第1のセンサ10で人物のトラッキングを行いたいエリア(所定アリア)が広い場合でも、人物のトラッキングを行うことができる。また、各映像センサの撮影範囲間でオーバーラップ範囲が生じるよう配置することで、映像センサ間で同じ人物映像IDを維持することができる。つまり、第1のセンサ10は、複数の映像センサで撮影した人物映像について、同じ人物の人物映像を特定することができる。

0102

なお、推定部332が分割するセルのサイズは、第1のセンサ10による撮影対象の空間の奥行きに応じて、手前側の空間のセルのサイズよりも奥側の空間のセルのサイズを小さくしてもよい。このようにすることで、推定部332は、前記したセルベクトルcv´におけるセルのサイズを実際の撮影対象の空間の広さ(大きさ)に応じたセルのサイズとすることができる。よって、推定部332は、このセルベクトルcv´を用いた第2のセンサ20のセンサデータYの推定値Ye(Xp´)の計算を精度よく行うことができる。

0103

また、第2のセンサ20によるセンサデータYが、端末におけるK個のビーコンからのビーコン信号の電波受信強度である場合、センサデータ照合部333は、以下のようにして類似度Cijを計算してもよい。

0104

例えば、まず、センサデータ照合部333は、訓練データに基づき、センサデータXiについてのK個のビーコンそれぞれのセンサデータYiの推定値Yek(Xi)[k=1,2,…,K]を計算する。次に、センサデータ照合部333は、計算したセンサデータYiの推定値Yek(Xi)[k=1,2,…,K]と、収集したK個のビーコンについてのセンサデータYk[k=1,2,…,K]との類似度Cijを、K次元空間における、センサデータYiの推定値Ye(Xi)とセンサデータYjとの距離として計算する。

0105

例えば、上記の距離としてユークリッド距離を用いる場合、センサデータ照合部333は、以下の式(1)により類似度Cijを計算する。

0106

0107

上記の式(1)において、K次元空間における、センサデータYiの推定値Ye(Xi)とセンサデータYjとのユークリッド距離が近いほど、類似度Cijの値は1に近づく。

0108

さらに、センサデータYpがビーコン信号の電波受信強度である場合、推定部332は、例えば、Gaussian Processes(Gaussian Processes for Signal Strength-Based Location Estimation proc. of robotics science and systems, 2006)等を用いて、ビーコン信号の電波受信強度がセンサデータYpである端末の、撮影映像におけるピクセル位置を推定し、その推定値を訓練データに追加してもよい。

0109

このようにすることで、行動認識装置30は第1のセンサ10で検知した人物iに対して人物jが同一人物か否か、また、人物iについて部外者か否かを精度よく判定することができる。

0110

さらに、行動認識装置30は、行動フェーズにおいてセンサデータ収集部331がセンサデータXi(位置ベクトルXi)を収集すると、訓練データに基づき、直接(つまり、事前にセンサデータYp´の推定値Ye(Xp´)を計算することなく)、センサデータXiの値に対するセンサデータYiの推定値Ye(Xi)を計算してもよい。

0111

また、第1のセンサ10で用いるセンサは、映像センサの他、温度センサや、赤外線センサ等を用いてもよい。さらに、第2のセンサ20で用いる無線信号は、空間を伝搬する信号であれば、電磁波の他、音波等であってもよい。

0112

さらに、行動認識装置30は、人物判定部334による判定結果を、第1のセンサ10で撮影した映像上に表示してもよい。例えば、行動認識装置30は、図14に示すように、第1のセンサ10の撮影した映像上に、第1のセンサ10で検知した人物と、当該人物がゲスト(部外者)か社員か、また社員である場合、社員ID等を表示してもよい。

0113

(プログラム)
また、各実施形態で述べた行動認識装置30の機能を実現する行動認識プログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実現できる。例えば、パッケージソフトウェアオンラインソフトウェアとして提供される上記の行動認識プログラムを情報処理装置に実行させることにより、情報処理装置を行動認識装置30として機能させることができる。ここで言う情報処理装置は、デスクトップ型またはノート型パーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)であってもよい。

0114

以下に、行動認識プログラムを実行するコンピュータの一例を説明する。図15は、行動認識プログラムを実行するコンピュータを示す図である。図15に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU(Central Processing Unit)1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。

0115

メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスク光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。

0116

ここで、図15に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した各実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。

0117

そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。

0118

なお、行動認識プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、行動認識プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。

0119

10 第1のセンサ
20 第2のセンサ
30行動認識装置
31,11入出力部
32,12 記憶部
33,13 制御部
131識別部
331センサデータ収集部
332推定部
333 センサデータ照合部
334人物判定部

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ