図面 (/)

技術 迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラム

出願人 日本電気株式会社
発明者 戸野紀佳
出願日 2015年9月24日 (5年3ヶ月経過) 出願番号 2015-186941
公開日 2017年3月30日 (3年8ヶ月経過) 公開番号 2017-062594
状態 特許登録済
技術分野 閉回路テレビジョンシステム 画像処理 イメージ分析 警報システム
主要キーワード 検出スコア 頻度スコア 規定期間 出入口扉 マスクROM 乗車状況 ホーム内 受信角度
関連する未来課題
重要な関連分野

この項目の情報は公開日時点(2017年3月30日)のものです。
また、この項目は機械的に抽出しているため、正しく解析できていない場合があります

図面 (16)

課題

不特定多数の人が出入りする空間内における迷惑行為者推定することができる迷惑行為者推定システムを提供する。

解決手段

迷惑行為者推定システム500において、第1撮影部501は、空間に入場する人物を撮影する。第2撮影部502は、当該空間内に設けられ通報端末503からの通報信号により当該位置の周辺を撮影する。画像分析部504は、第1撮影部501と第2撮影部502が撮影した画像からそれぞれ顔データを抽出し、それぞれ第1データベース部505と第2データベース部506に格納する。顔データ解析部508が、第1データベース部505及び第2データベース部506の顔データを分析して第3データベース部507に格納する顔データを選別し、頻度スコアの算出を行う。判断部509が、規定期間の経過後に、対応する頻度スコアが閾値を超えた顔データの人物を迷惑行為者と推定する。

概要

背景

防犯カメラを用いて不審人物を検出する技術が知られている。特許文献1には、監視区域内に複数のカメラを設置し、監視対象者の保有する端末GPS機能により監視対象者の位置を取得し、当該位置に対し所定の距離内にあるカメラが撮影した画像から監視対象者以外の顔画像を抽出し、これらの顔画像などから不審人物を推定する技術が記載されている。

概要

不特定多数の人が出入りする空間内における迷惑行為者を推定することができる迷惑行為者推定システムを提供する。迷惑行為者推定システム500において、第1撮影部501は、空間に入場する人物を撮影する。第2撮影部502は、当該空間内に設けられ通報端末503からの通報信号により当該位置の周辺を撮影する。画像分析部504は、第1撮影部501と第2撮影部502が撮影した画像からそれぞれ顔データを抽出し、それぞれ第1データベース部505と第2データベース部506に格納する。顔データ解析部508が、第1データベース部505及び第2データベース部506の顔データを分析して第3データベース部507に格納する顔データを選別し、頻度スコアの算出を行う。判断部509が、規定期間の経過後に、対応する頻度スコアが閾値を超えた顔データの人物を迷惑行為者と推定する。

目的

本発明は、以上の背景に鑑みなされたものであり、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラムを提供する

効果

実績

技術文献被引用数
0件
牽制数
1件

この技術が所属する分野

(分野番号表示ON)※整理標準化データをもとに当社作成

ライセンス契約や譲渡などの可能性がある特許掲載中! 開放特許随時追加・更新中 詳しくはこちら

請求項1

不特定多数の人が出入りする出入口のある空間内における迷惑行為者推定する迷惑行為者推定システムであって、前記出入口付近に設けられ前記空間に入場する人物撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて迷惑行為者と推定される人物を判断する判断部と、を備え、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出し、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与え、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やし、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断する迷惑行為者推定システム。

請求項2

前記第3データベース部に格納された前記顔データに対応する前記頻度スコアの算出において、前記通報端末が通報信号を発信した位置の情報を考慮する請求項1に記載の迷惑行為者推定システム。

請求項3

前記空間内には前記第2撮影部が複数設置される、請求項1または2に記載の迷惑行為者推定システム。

請求項4

前記通報端末から通報信号が発信された際に、複数の前記第2撮影部のうちで、少なくとも当該通報信号が発信された位置からの距離が最も近いものが当該発信された位置の周辺を撮影する請求項3に記載の迷惑行為者推定システム。

請求項5

前記通報端末から通報信号が発信された際に、複数の前記第2撮影部のうちで当該通報信号が発信された位置からの距離が予め定められた所定の距離以内にあるものが当該発信位置周辺を撮影する請求項4に記載の迷惑行為者推定システム。

請求項6

前記第2撮影部は、前記空間内に配設されたガイドに沿って移動可能であり、前記通報端末による通報信号の発信位置に応じて移動する請求項1乃至3のいずれか一項に記載の迷惑行為者推定システム。

請求項7

不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて迷惑行為者と推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御方法であって、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、を有する迷惑行為者推定システムの制御方法。

請求項8

不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御プログラムであって、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、をコンピュータに実行させる制御プログラム。

技術分野

0001

本発明は、迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラムに関する。

背景技術

0002

防犯カメラを用いて不審人物を検出する技術が知られている。特許文献1には、監視区域内に複数のカメラを設置し、監視対象者の保有する端末GPS機能により監視対象者の位置を取得し、当該位置に対し所定の距離内にあるカメラが撮影した画像から監視対象者以外の顔画像を抽出し、これらの顔画像などから不審人物を推定する技術が記載されている。

先行技術

0003

特開2010−191620号公報
特開2006−146323号公報

発明が解決しようとする課題

0004

しかしながら、電車内などの不特定多数の人が出入りする空間内では、迷惑行為を受けた者(被迷惑行為者)が予め特定されていないため、監視対象者が予め特定されていることを前提とする特許文献1に記載の技術では迷惑行為者を絞り込むことが困難であった。また、このような不特定多数の人が出入りする空間は混雑する場合も少なからずあるが、そのような場合に当該空間内に設置したカメラが撮影した画像から抽出された顔画像が不完全で人物を特定することができないおそれもあった。

0005

本発明は、以上の背景に鑑みなされたものであり、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる迷惑行為者推定システム、迷惑行為者推定システムの制御方法及び制御プログラムを提供することを目的とする。

課題を解決するための手段

0006

本発明は、不特定多数の人が出入りする出入口のある空間内における迷惑行為者を推定する迷惑行為者推定システムであって、前記出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出し、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与え、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やし、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するものである。

0007

また、本発明は、不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御方法であって、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、を有するものである。

0008

さらに、本発明は、不特定多数の人が出入りする出入口のある空間の出入口付近に設けられ前記空間に入場する人物を撮影する第1撮影部と、前記空間内に設けられ通報端末からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する第2撮影部と、前記第1撮影部が撮影した画像および前記第2撮影部が撮影した画像をそれぞれ分析し顔データを抽出する画像分析部と、前記第1撮影部が撮影した画像から抽出された顔データを格納する第1データベース部と、前記第2撮影部が撮影した画像から抽出された顔データを格納する第2データベース部と、迷惑行為者の候補となる顔データを格納する第3データベース部と、前記第3データベース部に格納する顔データの選別および頻度スコアの算出を行う顔データ解析部と、前記頻度スコアに基づいて推定される人物を判断する判断部と、を備え前記空間内における迷惑行為者を推定する迷惑行為者推定システムの制御プログラムであって、前記顔データ解析部が、前記第1データベース部に格納された第1顔データと前記第2データベース部に格納された第2顔データとの照合を行い、前記第1顔データの中から前記第2顔データに最も近いものを格納候補顔データとして抽出するステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがないときは、前記顔データ解析部が、当該格納候補顔データを新たに前記第3データベース部に格納するとともに格納した前記格納候補顔データに対応する前記頻度スコアとして初回値を与えるステップと、前記格納候補顔データと実質的に一致する前記第3データベース部に格納済みの格納済み顔データがあるときは、前記顔データ解析部が、前記格納候補顔データを前記第3データベース部に格納せずに前記格納候補顔データと一致した前記格納済み顔データに対応する前記頻度スコアを所定値だけ増やすステップと、前記判断部が、予め定められた規定期間の経過後に、前記第3データベース部に格納された顔データのうち、対応する前記頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断するステップと、をコンピュータに実行させるものである。

発明の効果

0009

本発明によれば、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。

図面の簡単な説明

0010

本発明の概要について説明する図である。
本実施の形態にかかる迷惑行為者推定システム100の概略構成を示すブロック図である。
第1日の乗車状況について説明する図である。
第1日に、内カメラデータベース部に格納されたデータの一例を示す図である。
第1日の通報時の電車内の状況について説明する図である。
第1日に、車内カメラデータベース部に格納されたデータの一例を示す図である。
第1日に統合データデータベース部に格納されたデータの一例を示す図である。
第2日の乗車状況について説明する図である。
第2日に、駅内カメラデータベース部に格納されたデータの一例を示す図である。
第2日の通報時の電車内の状況について説明する図である。
第2日に、車内カメラデータベース部に格納されたデータの一例を示す図である。
第2日に、統合データデータベース部に格納されたデータの一例を示す図である。
電車乗り込む人物の顔データを取得し、当該顔データを駅内カメラデータベース部に格納する処理の流れを示すフローチャートである。
電車内において被迷惑行為者の周囲の人物の顔データを取得し、当該顔データを車内カメラデータベース部に格納する処理の流れを示すフローチャートである。
統合データデータベース部に格納された顔データに対応する頻度スコアを用いて迷惑行為者を推定する処理の流れを示すフローチャートである。

実施例

0011

[本発明の特徴]
本発明の実施の形態の説明に先立って、本発明の特徴についてその概要をまず説明する。

0012

本発明にかかる迷惑行為者推定システムは、不特定多数の人が出入りする出入口のある空間内で迷惑行為者を推定するものである。図1は、本発明の概要について説明する図である。図1は、本発明にかかる迷惑行為者推定システム500の概略構成を示すブロック図である。図1に示すように、迷惑行為者推定システム500は、第1撮影部501と、第2撮影部502と、通報端末503と、画像分析部504と、第1データベース部505と、第2データベース部506と、第3データベース部507と、顔データ解析部508と、判断部509と、を備えている。

0013

第1撮影部501は、不特定多数の人が出入りする空間の出入口付近に設けられ、当該空間に入場する人物を撮影する。第2撮影部502は、当該空間内に設けられ、通報端末503からの通報信号を受信した際に当該通報信号が発信された位置を特定し当該位置の周辺を撮影する。画像分析部504は、第1撮影部501が撮影した画像および第2撮影部502が撮影した画像をそれぞれ分析し顔データを抽出する。

0014

第1データベース部505は、第1撮影部501が撮影した画像から抽出された顔データを格納する。第2データベース部506は、第2撮影部502が撮影した画像から抽出された顔データを格納する。第3データベース部507は、迷惑行為者の候補となる顔データを格納する。顔データ解析部508は、第3データベース部507に格納する顔データの選別および頻度スコアの算出を行う。判断部509は、頻度スコアに基づいて迷惑行為者と推定される人物を判断する。

0015

顔データ解析部508が、第1データベース部505に格納された第1顔データと第2データベース部506に格納された第2顔データとの照合を行い、第1顔データの中から第2顔データに最も近いものを格納候補顔データとして抽出する。そして、格納候補顔データと実質的に一致する第3データベース部507に格納済みの格納済み顔データがないときは、顔データ解析部508が、当該格納候補顔データを新たに第3データベース部507に格納するとともに格納した格納候補顔データに対応する頻度スコアとして初回値を与える。

0016

また、格納候補顔データと実質的に一致する第3データベース部507に格納済みの格納済み顔データがあるときは、顔データ解析部508が、格納候補顔データを第3データベース部507に格納せずに格納候補顔データと一致した格納済み顔データに対応する頻度スコアを所定値だけ増やす。

0017

判断部509が、予め定められた規定期間の経過後に、第3データベース部507に格納された顔データのうち、対応する頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断する。

0018

上より、本発明によれば、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。

0019

以下、図面を参照して本発明の実施の形態について説明する。
図2は、本実施の形態にかかる迷惑行為者推定システム100の概略構成を示すブロック図である。図2に示すように、迷惑行為者推定システム100は、第1撮影部としての駅内カメラシステム101と、第2撮影部としての車内カメラシステム102と、分析部103と、データベース部104と、判断部としての人物推定レポート部105と、通報端末106と、を有する。

0020

駅内カメラシステム101は、駅のホームにおける各乗車位置付近乗り降りのためにホーム内で止まっている電車の出入口付近)に設置され、駅内カメラ1と、カメラ識別情報部2と、コントロール部3と、通信部4と、を有する。駅内カメラ1は、コントロール部3から撮影指示を受け画像の撮影を行う。駅内カメラ1が撮影する画像は動画または静止画のいずれであってもよい。静止画とする場合、複数枚数撮影が行われるようにする。カメラ識別情報部2は、コントロール部3から取得指示を受けて乗車位置及び乗車時刻を取得する。コントロール部3は、駅のホームにおいて電車のドアが乗り降りのために開閉されている間に、駅内カメラ1及びカメラ識別情報部2に対し取得指示を送る。通信部4は、駅内カメラ1が取得した画像とカメラ識別情報部2が取得した乗車位置及び乗車時刻を、無線または有線により画像分析部9へと送る。

0021

車内カメラシステム102は、電車内に複数設置され、車内カメラ5と、カメラ識別情報部6と、コントロール部7と、通信部8と、を有する。車内カメラ5は、通報端末106からの通報信号を受信したコントロール部7から撮影指示を受けて画像の撮影を行う。車内カメラ5は、人物の顔が捉えやすいような位置、例えば、電車の出入口扉の上部に設置する。なお、通報端末106とコントロール部7との通信には、位置の特定がしやすいBluetooth(登録商標)などの短距離通信を用いる。車内カメラ5が撮影する画像は動画または静止画のいずれであってもよい。静止画とする場合、複数枚数撮影が行われるようにする。カメラ識別情報部6は、コントロール部7から取得指示を受けて通報信号が発信された時刻の情報(時刻情報)及び通報信号が発信された位置の情報(位置情報)を取得する。位置情報は通報端末106の発信した通報信号により検知する。コントロール部7は、通報端末106からの通報信号を受信したときに、車内カメラ5及びカメラ識別情報部6に対し取得指示を送る。通信部8は、車内カメラ5が取得した画像とカメラ識別情報部6が取得した時刻情報及び位置情報を、無線により画像分析部9へと送る。

0022

分析部103は、画像分析部9と、顔データ解析部としての顔データマッチング頻度スコア算出部10と、を有する。画像分析部9は、駅内カメラシステム101から送信されてきた画像、及び車内カメラシステム102から送信されてきた画像から人の顔を抽出し、抽出したそれぞれの人の顔の特徴点を分析して顔データを作成する。なお、カメラの撮影した画像から人の顔を抽出する技術として、公知の技術を用いることができる。顔データマッチング頻度スコア算出部10は、駅内カメラデータベース部11に格納された顔データの中から車内カメラデータベース部12に格納された顔データと最も近い顔データを抽出し、この最も近い顔データを迷惑行為発生時に居あわせた人物として統合データデータベース部13に格納するとともに、当該顔データの検出頻度(頻度スコア)を算出する。検出スコアの算出については後述する。

0023

データベース部104は、第1データベース部としての駅内カメラデータベース部11と、第2データベース部としての車内カメラデータベース部12と、第3データベース部としての統合データデータベース部13と、を有する。駅内カメラデータベース部11は、駅内カメラ1が撮影した画像から抽出されたそれぞれの人の顔に対応する顔データを格納する。車内カメラデータベース部12は、車内カメラ5が撮影した画像から抽出されたそれぞれの人の顔に対応する顔データを格納する。統合データデータベース部13は、迷惑行為発生時に居あわせた人物の顔データや頻度スコアなどを人物データとして格納する。人物推定レポート部105は、統合データデータベース部13に格納された人物データのうち、規定期間内に頻度スコアが予め定められた閾値を超えたものを迷惑行為者と推定してリストアップし、リストアップした情報をシステム管理者へ提供する。通報端末106は、迷惑行為を受けた被迷惑行為者が通報信号を送信するための携帯通信端末で、例えば、通報信号を送信するための専用のアプリインストールしたスマートフォンなどである。専用のアプリは、インターネットを通じて誰でも無料で取得できるようにしてもよい。

0024

迷惑行為者推定システム100の具体的な動作について以下で説明する。
図3は、第1日の乗車状況について説明する図である。図3に示すように、第1日には、駅のホームに到着した電車に7人の人物が乗り込むとする。駅のホームの各乗車位置付近には駅内カメラシステム101(No.001駅内カメラシステム101_1、No.002駅内カメラシステム101_2、No.003駅内カメラシステム101_3及びNo.004駅内カメラシステム101_4)が設置されている。これらの駅内カメラシステム101の駅内カメラ1は乗車する人物の顔画像が鮮明に撮影できるような高さに設置される。

0025

駅内カメラシステム101は電車に乗り込む人物を撮影し、画像を分析部103に送信する。第1日の8:00にそれぞれの駅内カメラシステム101が電車に乗り込んだ人物を撮影したとする。No.001駅内カメラシステム101_1が撮影した画像からは顔データC、Dが抽出され、No.002駅内カメラシステム101_2が撮影した画像からは顔データA、B、Gが抽出され、No.003駅内カメラシステム101_3が撮影した画像からは顔データFが抽出され、No.004駅内カメラシステム101_4が撮影した画像からは顔データEが抽出されたとする。

0026

図4は、第1日に、駅内カメラデータベース部11に格納されたデータの一例を示す図である。図4に示すように、駅内カメラデータベース部11には、駅内カメラシステム101が撮影した画像から抽出された顔データとともに、当該顔データに対応する乗車位置及び乗車時刻も記録される。

0027

図5は、第1日の通報時の電車内の状況について説明する図である。図5に示すように、電車内のそれぞれの出入り口付近には車内カメラシステム102(No.001車内カメラシステム102_1、No.002車内カメラシステム102_2、No.003車内カメラシステム102_3、No.004車内カメラシステム102_4、No.005車内カメラシステム102_5、No.006車内カメラシステム102_6、No.007車内カメラシステム102_7及びNo.008車内カメラシステム102_8)が設置されている。

0028

被迷惑行為者が通報端末106から送信した通報信号は車内カメラシステム102のコントロール部7により受信・検出される。車内カメラシステム102のコントロール部7において、通報信号の受信角度により当該通報信号が発信された位置を特定する。そして、当該通報信号が発信された位置に最も近い車内カメラシステム102により撮影が行われる。

0029

図5において、顔データGに対応する人物(被迷惑行為者)が、迷惑行為を受けた際に通報端末106により通報を行ったとする。この時、顔データGに対応する人物の周辺には顔データA,B,C,Dに対応する人物がいたとする。通報信号の発信位置の最も近い車内カメラシステム102は、No.004車内カメラシステム102_4なので、No.004車内カメラシステム102_4が撮影を行う。No.004車内カメラシステム102_4が撮影した画像からは顔データa,b,c,d,gが抽出されたとする。

0030

図6は、第1日に、車内カメラデータベース部12に格納されたデータの一例を示す図である。図6に示すように、車内カメラデータベース部12には、車内カメラシステム102が撮影した画像から抽出された顔データとともに、当該顔データに対応する時刻情報及び位置情報も記録される。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。迷惑行為発生時に、被迷惑行為者(通報信号の発信者)の周囲に居あわせた人物のいずれかが迷惑行為者であると考えられる。つまり、車内カメラデータベース部12に格納された顔データa,b,c,d,gに対応する人物のいずれかが迷惑行為者であると考えられる。

0031

一般的に、乗客は正面を向いて出入口から電車に乗り込むため、駅内カメラシステム101により撮影された画像中に映りこんだ人物の顔はほぼ正面を向いている場合が多い。これに対し、車内カメラシステム102により撮影された画像中に映りこんだ人物の顔は、電車内が混雑していることなどから正面を向いているものでないことも多い。このため、車内カメラシステム102で撮影された画像から抽出された顔データは、駅内カメラシステム101で撮影された画像から抽出される顔データに対し、顔の特徴点が不足しがちである。このため、車内カメラシステム102で撮影された画像から抽出された顔データだけでは人物を十分に特定できないことも考えられる。

0032

車内カメラデータベース部12に格納された顔データに対応する人物は、必ず駅内カメラデータベース部11にも格納されている。このため、車内カメラデータベース部12に格納されたある顔データの人物と、駅内カメラデータベース部11に格納された顔データのうち車内カメラデータベース部12に格納されたある顔データに最も近い顔データに対応する人物と、は同一人物であるとすることができる。そこで、顔データマッチング頻度スコア算出部10は、車内カメラシステム102で撮影された画像から抽出された顔データと、駅内カメラシステム101で撮影された画像から抽出される顔データと、の照合を行い、駅内カメラデータベース部11に格納された顔データの中から車内カメラデータベース部12に格納された顔データと最も近い顔データを抽出する。そして、顔データマッチング頻度スコア算出部10は、この最も近い顔データを迷惑行為発生時に居あわせた人物として統合データデータベース部13に格納する。なお、撮影された画像から顔データを抽出する方法や顔データを照合する方法として、公知の方法(例えば、特許文献2に記載された方法など)を用いることができる。

0033

図7は、第1日に統合データデータベース部13に格納されたデータの一例を示す図である。図6に示す車内カメラデータベース部12に格納された顔データと、図4に示す駅内カメラデータベース部11に格納された顔データと、の照合の結果、顔データa(図6参照)が顔データA(図4参照)に、顔データb(図6参照)が顔データB(図4参照)に、顔データc(図6参照)が顔データC(図4参照)に、顔データd(図6参照)が顔データD(図4参照)に、顔データg(図6参照)が顔データG(図4参照)に、それぞれ最も近かったとする。図7に示すように、統合データデータベース部13には、顔データA,B,C,D,Gが格納される。駅内カメラデータベース部11に格納された、顔データA,B,C,D,Gに対応する乗車時刻及び乗車位置に関するデータについても、統合データデータベース部13に格納された顔データA,B,C,D,Gとそれぞれ対応付けされて統合データデータベース部13に格納される。

0034

また、車内カメラデータベース部12に格納された、顔データa,b,c,d,gに対応する時刻情報、位置情報に関するデータは、顔データa,b,c,d,gがそれぞれ顔データA,B,C,D,Gに相当するとして、統合データデータベース部13に格納された顔データA,B,C,D,Gとそれぞれ対応付けされて統合データデータベース部13に格納される。統合データデータベース部13に新たに顔データが格納される際、当該顔データの頻度スコアには初回値である1が記録される。

0035

図8は、第2日の乗車状況について説明する図である。図8に示すように、第2日の8:00にそれぞれの駅内カメラシステム101が電車に乗り込んだ人物を撮影したとする。No.001駅内カメラシステム101_1が撮影した画像からは顔データR、Qが抽出され、No.002駅内カメラシステム101_2が撮影した画像からは顔データO、P、Uが抽出され、No.003駅内カメラシステム101_3が撮影した画像からは顔データTが抽出され、No.004駅内カメラシステム101_4が撮影した画像からは顔データSが抽出されたとする。

0036

図9は、第2日に、駅内カメラデータベース部11に格納されたデータの一例を示す図である。図9に示すように、駅内カメラデータベース部11には、駅内カメラシステム101が撮影した画像から抽出された顔データとともに、当該顔データに対応する乗車時刻及び乗車位置も記録される。駅内カメラデータベース部11は、データ量が膨大になるのを避けるため、該当日の始発からデータの記録を開始し、終電の後にデータがリセットされるようにする。つまり、駅内カメラデータベース部11において、第2日には、第1日に格納されたデータ(図4参照)は消去されている。

0037

図10は、第2日の通報時の電車内の状況について説明する図である。図10に示すように、顔データUに対応する人物(被迷惑行為者)が、迷惑行為を受けた際に通報端末106により通報を行ったとする。この時、顔データUに対応する人物の周辺には顔データO,P,Q,Rに対応する人物がいたとする。通報信号の発信位置の最も近い車内カメラシステム102は、No.004車内カメラシステム102_4なので、No.004車内カメラシステム102_4が撮影を行う。No.004車内カメラシステム102_4が撮影した画像からは顔データo,p,q,r,uが抽出されたとする。

0038

図11は、第2日に、車内カメラデータベース部12に格納されたデータの一例を示す図である。図11に示すように、車内カメラデータベース部12には、車内カメラシステム102が撮影した画像から抽出された顔データとともに、当該顔データに対応する時刻情報及び位置情報も記録される。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。車内カメラデータベース部12は、データ量が膨大になるのを避けるため、該当日の始発からデータの記録を開始し、終電の後にデータがリセットされるようにする。つまり、車内カメラデータベース部12において、第2日には、第1日に格納されたデータ(図6参照)は消去されている。

0039

顔データマッチング頻度スコア算出部10が、図11に示す車内カメラデータベース部12に格納された顔データと、図9に示す駅内カメラデータベース部11に格納された顔データと、の照合を行った結果、顔データo(図11参照)が顔データO(図9参照)に、顔データp(図11参照)が顔データP(図9参照)に、顔データq(図11参照)が顔データQ(図9参照)に、顔データr(図11参照)が顔データR(図9参照)に、顔データu(図11参照)が顔データU(図9参照)に、それぞれ最も近かったとする。顔データO,P,Q,R,Uは、統合データデータベース部13に格納する候補とする。なお、顔データo,p,q,r,uの時刻情報及び位置情報は、顔データO,P,Q,R,Uにそれぞれ対応させる。

0040

続いて、顔データマッチング頻度スコア算出部10が、既に統合データデータベース部13に格納されている顔データ(図7参照)の中に、統合データデータベース部13に格納する候補である顔データO,P,Q,R,Uと実質的に一致しているものがあるか検索を行う。検索の結果、既に統合データデータベース部13に格納されている顔データAと、統合データデータベース部13に格納する候補である顔データOとが実質的に一致していたとする。統合データデータベース部13に格納する候補である顔データP,Q,R,Uは、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものがなかったとする。

0041

図12は、第2日に、統合データデータベース部13に格納されたデータの一例を示す図である。
図12に示すように、統合データデータベース部13に格納する候補のうち、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものがなかった顔データP,Q,R,Uは、新たに統合データデータベース部13に格納される。顔データP,Q,R,Uに対応する位置情報、時刻情報、乗車位置及び乗車時刻も顔データP,Q,R,Uとともに統合データデータベース部13に記録される。統合データデータベース部13に新たに顔データが格納される際、当該顔データの頻度スコアとして初回値である1が記録される。

0042

統合データデータベース部13に格納する候補のうち、既に統合データデータベース部13に格納されている顔データの中に実質的に一致するものが見つかった顔データOについては、統合データデータベース部13に新たに格納することはせず、顔データOに対応する位置情報、時刻情報、乗車位置及び乗車時刻についてのデータは、顔データAの欄に追加で記録される。また、既に統合データデータベース部13に格納されている顔データAの頻度スコアに所定値である1を加算する。つまり、顔データAに対応する頻度スコアは2になる。

0043

迷惑行為者推定システム100が、上述した第1日、第2日の処理を繰り返すことにより、統合データデータベース部13には日々、迷惑行為者の候補である人物のデータが蓄積される。規定期間(例えば1ヶ月)が経過したところで、統合データデータベース部13において、頻度スコアが予め定められた閾値(例えば4)を超えている顔データに対応する人物が迷惑行為者であると推定される。

0044

一般的に、迷惑行為者は迷惑行為を繰り返す傾向が強いので、上述した頻度スコアにより精度良く迷惑行為者を推定することができる。以上より、本実施の形態にかかる迷惑行為者推定システム100より、不特定多数の人が出入りする空間内における迷惑行為者を推定することができる。

0045

次に、迷惑行為者推定システム100が迷惑行為者を推定する処理の流れについて以下で説明する。図13図14及び図15は、迷惑行為者推定システム100が迷惑行為者を推定する処理の流れを示すフローチャートである。なお、以下の説明において図2も適宜参照する。

0046

図13は、電車に乗り込む人物の顔データを取得し、当該顔データを駅内カメラデータベース部11に格納する処理の流れを示すフローチャートである。図13に示すように、まず、駅内カメラシステム101のコントロール部3が、駅内カメラ1、カメラ識別情報に対し、それぞれ、画像の撮影指示、乗車時刻及び乗車位置の取得指示を行う(ステップS1)。そして、駅内カメラ1が画像の撮影を行うとともに、カメラ識別情報が乗車時刻及び乗車位置を取得する(ステップS2)。

0047

次に、通信部4が、カメラ識別情報部2により撮影された画像と、カメラ識別情報により取得された乗車時刻及び乗車位置と、を画像分析部9に送信する(ステップS3)。ステップS3に続き、画像分析部9が、駅内カメラ1により撮影された画像から顔データの抽出を行い(ステップS4)、抽出された顔データを、乗車時刻及び乗車位置と対応付けて駅内カメラデータベース部11に格納する(ステップS5)。

0048

図14は、電車内において被迷惑行為者の周囲の人物の顔データを取得し、当該顔データを車内カメラデータベース部12に格納する処理の流れを示すフローチャートである。図14に示すように、まず、車内カメラシステム102のコントロール部7が、被迷惑行為者の通報端末106から発信された通報信号を受信する(ステップS101)。次に、通報信号を受信したコントロール部7が、通報信号の角度などから通報信号が発信された位置を特定する(ステップS102)。

0049

ステップS102に続き、通報位置からの最も近い距離に設置された車内カメラシステム102において、車内カメラ5が通報信号の発信位置周辺の画像を撮影するとともに、カメラ識別情報部6が時刻情報・位置情報を取得する(ステップS103)。ここで、時刻情報とは通報信号が発信された時刻の情報、位置情報とは通報端末106により通報信号が発信された位置の情報を意味する。そして、通信部8が、車内カメラにより撮影された画像とカメラ識別情報部6により取得された位置情報・時刻情報を画像分析部9に送信する(ステップS104)。

0050

ステップS104に続き、画像分析部9が、車内カメラ5により撮影された画像から顔データの抽出を行い(ステップS105)、抽出された顔データを、位置情報・時刻情報と対応付けて車内カメラデータベース部12に格納する(ステップS106)。

0051

図15は、統合データデータベース部13に格納された顔データに対応する頻度スコアから迷惑行為者を推定する処理の流れを示すフローチャートである。図15に示すように、まず、顔データマッチング頻度スコア算出部10が、車内カメラデータベース部12に格納された顔データと、駅内カメラデータベース部11に格納された顔データと、を照合し、駅内カメラデータベース部11に格納された顔データのうち車内カメラデータベース部12に格納された顔データに最も近いものを統合データデータベース部13に格納する候補として抽出する(ステップS201)。

0052

ステップS201に続き、顔データマッチング頻度スコア算出部10が、既に統合データデータベース部13に格納されている顔データの中に、統合データデータベース部13に格納する候補として抽出した顔データと実質的に一致しているものがあるか否か検索する(ステップS202)。

0053

ステップS202で一致するものがある場合は、顔データマッチング頻度スコア算出部10が、一致する顔データについては新たに統合データデータベース部13に格納することはせず、一致しない顔データについてのみ新たに統合データデータベース部13に格納する(ステップS203)。なお、顔データを格納する際、対応する位置情報・時刻情報も格納する。

0054

ステップS202で一致するものがない場合は、統合データデータベース部13に格納する候補として抽出した顔データの全てを新たに統合データデータベース部13に格納する(ステップS204)。なお、顔データを格納する際、対応する位置情報・時刻情報も格納する。

0055

ステップS203、ステップS204に続き、統合データデータベース部13の頻度スコアを更新する(ステップS205)。具体的には、上記候補のうち統合データデータベース部13に新たに格納した顔データの頻度スコアに初回値である1を記録し、上記候補のうち統合データデータベース部13に新たに格納しなかった顔データについては対応する既に統合データデータベース部13に格納された顔データの頻度スコアに所定値である1を加算する。

0056

ステップS205に続き、規定期間が経過した否か判断する(ステップS206)。ステップS206で規定期間が経過したと判断された場合、統合データデータベース部13に格納された顔データのうち、頻度スコアが予め定められた閾値を超えた顔データの人物を迷惑行為者と推定される人物と判断し、管理者へ報告する(ステップS207)。ステップS206で規定期間が経過したと判断されなかった場合、処理をステップS201に戻す。

0057

上述の実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、各処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。

0058

上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク磁気テープハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROMPROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。

0059

以上、本発明を上記実施の形態に即して説明したが、本発明は上記実施の形態の構成にのみ限定されるものではなく、本願特許請求の範囲の請求項の発明の範囲内で当業者であればなし得る各種変形、修正、組み合わせを含むことは勿論である。

0060

例えば、上記実施の形態において、頻度スコアの算出において、通報端末が通報信号を発信した位置情報を考慮するようにしてもよい。具体的には、頻度スコアの算出において、同じ位置において発信された通報信号を受けて再び検出された人物については加算する所定値を基準の値よりも大きくする。例えば、所定値の基準の値を1とすると、同じ位置で再び検出された人物については加算する所定値を2とする。迷惑行為の常習者は一度迷惑行為を行った位置で再び迷惑行為を行うことも多いので、このように頻度スコアを算出することで、迷惑行為者の推定の精度を向上させることができる。

0061

車内カメラシステム102の車内カメラ5は、電車内に配設されたレールなどのガイドに沿って移動できる可動式のものであってもよい。これにより、被迷惑行為者周辺の人物の顔をより捉え易くすることができる。可動式の車内カメラは、通報端末から発信された通報信号により特定された被迷惑行為者の位置に応じて、被迷惑行為者周辺の人物の顔を捉えるために最適な位置に移動する。

0062

通報端末106から通報信号が発信された際、複数の車内カメラシステム102において画像の撮影が行われるようにしてもよい。このようにすることで、顔データの取得ミスを回避することができる。

0063

通報端末106が通報信号を発信した位置から最も近い位置に設置された車内カメラシステム102と、当該車内カメラシステム102に対向して配置された車内カメラシステム102と、において画像の撮影が行われるようにしてもよい。例えば、図5において、最も近い位置に設置された車内カメラシステム102がNo.004車内カメラシステム102_4であれば、No.004車内カメラシステム102_4と、No.004車内カメラシステム102_4に対向して配置されたNo.003車内カメラシステム102_3と、において画像の撮影が行われる。このようにすることで、顔データの取得ミスを回避することができる。

0064

通報端末106が通報信号を発信した位置からの距離が予め定められた所定の距離以内に設置された車内カメラシステム102において画像の撮影が行われるようにしてもよい。このようにすることで、顔データの取得ミスを回避することができる。

0065

500 迷惑行為推定システム
501 第1撮影部
502 第2撮影部
503通報端末
504画像分析部
505 第1データベース部
506 第2データベース部
507 第3データベース部
508顔データ解析部
509 判断部

ページトップへ

この技術を出願した法人

この技術を発明した人物

ページトップへ

関連する挑戦したい社会課題

関連する公募課題

ページトップへ

技術視点だけで見ていませんか?

この技術の活用可能性がある分野

分野別動向を把握したい方- 事業化視点で見る -

(分野番号表示ON)※整理標準化データをもとに当社作成

ページトップへ

おススメ サービス

おススメ astavisionコンテンツ

新着 最近 公開された関連が強い技術

この 技術と関連性が強い技術

関連性が強い 技術一覧

この 技術と関連性が強い人物

関連性が強い人物一覧

この 技術と関連する社会課題

関連する挑戦したい社会課題一覧

この 技術と関連する公募課題

関連する公募課題一覧

astavision 新着記事

サイト情報について

本サービスは、国が公開している情報(公開特許公報、特許整理標準化データ等)を元に構成されています。出典元のデータには一部間違いやノイズがあり、情報の正確さについては保証致しかねます。また一時的に、各データの収録範囲や更新周期によって、一部の情報が正しく表示されないことがございます。当サイトの情報を元にした諸問題、不利益等について当方は何ら責任を負いかねることを予めご承知おきのほど宜しくお願い申し上げます。

主たる情報の出典

特許情報…特許整理標準化データ(XML編)、公開特許公報、特許公報、審決公報、Patent Map Guidance System データ